„Ahoj, jsem terapeut GPT – přátelský, empatický společník, který ti bude naslouchat a podpoří tě v čemkoli, co tě trápí. (…) Nenahrazuji sice profesionální terapii, ale mohu nabídnout uklidňující rady, strategie pro zvládnutí problémů a bezpečný prostor pro vyjádření bez odsuzování.“ Přesně to napsal redaktorce americké CNN chatbot s umělou inteligencí a přestože sám upozornil, že nepředstavuje profesionální péči, obrací se na něj a podobné programy v souvislosti se svým duševním zdravím stále více lidí.
Aplikaci ChatGPT od společnosti OpenAI pravidelně využívá Mya Dunham. Čtyřiadvacetiletá žena z Atlanty si přibližně dvakrát týdně sepisuje své pocity a následně je chatbotovi posílá k analýze a zpětné vazbě. „Mým cílem je získat nový úhel pohledu, prostě mít na to jiný pohled, protože cokoli, co si myslím já, bude vycházet z mých vlastních pocitů,“ citoval Dunham zpravodajský portál CNN.
„Jako první jsem mu napsala, že si jen potřebuji promluvit a zeptala jsem se, jestli můžu mluvit s ním. Odpověděl mi, že určitě, a byl mnohem vstřícnější a přívětivější, než jsem čekala,“ popsala Dunham a dodala: „Nečekala jsem, že to bude působit tak lidsky.“ O svých zkušenostech informovala na sociálních sítích, kde se lidé v otázce využívání chatbotů k terapii rozdělili na dva tábory.
ChatGPT není jediným chatbotem, na který se lidé v souvislosti s potřebou svěřit se obrací. Přestože by technologie mohla být v některých situacích přínosná, odborníci na duševní zdraví varovali i před riziky.
Lepší chatbot než žádná terapie, ale…
Odborníci připustili, že někteří lidé se mohou chatbotu otevřít více než skutečnému člověku, některé výzkumy navíc potvrzují jejich účinnost při pomoci některým skupinám s mírnou úzkostí nebo mírnou depresí. Předseda pracovní skupiny Americké asociace poradců pro umělou inteligenci Russell Fulmer ale upozornil na etické problémy a další sporné věci, kvůli kterým je třeba s umělou inteligencí nakládat opatrně.
To podtrhla i psychiatrička Marlynn Wei, podle které nemusí být chatboti vždy navrženi s ohledem na duševní zdraví a nemusí rozpoznat, zda není třeba problém předat skutečnému odborníkovi. Podle Wei mohou chatboti poskytovat nesprávné informace: „Vkládám do umělé inteligence velkou naději jako do něčeho, co by se dalo kombinovat s lidskou prací a rozšiřovalo ji, ale pokud funguje samostatně, obávám se předpojatosti, která v umělé inteligenci existuje, a také toho, že si může vymýšlet.“ I Fulmer doporučuje, aby lidé chatboty používali ve spolupráci s lidskými poradci.
Mohlo by vás zajímat
„Chatboti by mohli být přístupnější například pro ty, kdo nemají peníze nebo pojištění na terapii nebo nemají čas ve svém rozvrhu, protože některé programy jsou k dispozici zdarma a mohou reagovat ve dne i v noci,“ citovala dále CNN Fulmera. Ten dodal, že ve výše zmíněných případech je chatbot lepší než terapie žádná. Lidé ale musí pochopit, že jsou vlastnosti, které chatboti neumí, například empatie. Bez dohledu rodičů, učitelů nebo terapeutů by podle něj technologii neměli používat nezletilí.
Sdílení citlivých informací
Zpravodajský portál upozornil také na experiment psychiatra a docenta klinické psychiatrie na Kolumbijské univerzitě Daniela Kimmela z roku 2023, který ChatGPT tehdy zadal hypotetického pacienta a porovnal odpovědi s tím, co by on sám v rámci terapie nabídl.
Podle Kimmela prokázal chatbot „úžasně dobrou práci, kdy zněl jako terapeut a používal mnoho technik (…), které by terapeut použil (…)“. Druhým dechem ale dodal, že chatbotu chyběla zvídavost, kterou by naopak skutečný psychoterapeut měl a pacientovi by kladl otázky, které by šly více do hloubky.
„Jako terapeut se domnívám, že děláme nejméně tři věci najednou. Nasloucháme tomu, co pacienti říkají. (…) Pak se vzadu v mysli snažíme spojit to, co říkají, s nějakými širšími souvislostmi, které pacient řekl, s koncepty a teoriemi, které známe ze své odbornosti, a nakonec filtrujeme výstup z toho prostřednictvím myšlenek o tom, co bude pro pacienta nejpřínosnější,“ uvedl Kimmel s tím, že právě v absenci těchto kroků může být chatbot rizikový. Potenciál a možný přínos chatbotů v oblasti duševního zdraví ale bude podle něj přínosné nadále zkoumat.
Zásadní je také, že na konverzace s profesionálními terapeuty se ve Spojených státech vztahuje zákon o přenositelnosti a odpovědnosti zdravotního pojištění (HIPAA), který zaručuje soukromí a ochranu zdravotních informací pacientů. Chatboti s tímto federálním zákonem často v souladu nejsou a samy společnosti, které za nimi stojí, uživatelům doporučují citlivé informace nesdělovat.