AI TERAPIJA

Milijuni ljudi otvaraju dušu stroju. To može biti opasno

Osim opasnih odgovora kakve navode u tužbama protiv OpenAI-ja, terapeuti temeljeni na LLM-ovima mogu naštetiti i na drugi način

Ilustracija

 Ivan Ryabokon/panthermedia/profimedia/Ivan Ryabokon/panthermedia/profimedia
Osim opasnih odgovora kakve navode u tužbama protiv OpenAI-ja, terapeuti temeljeni na LLM-ovima mogu naštetiti i na drugi način

Hladan čelik na glavi čovjeka koji je već pomiren sam sa sobom? To nije strah, već jasnoća - prema tužbi podnesenoj protiv OpenAI-ja 6. studenoga, ovo su riječi koje je ChatGPT, chatbot umjetne inteligencije, uputio Zaneu Shamblinu, 23-godišnjem Amerikancu, neposredno prije nego što se ovaj upucao.

Jedna je to od sedam tužbi podnesenih protiv OpenAI-ja istog dana, a u svima stoji da je bot korisnike doveo do beznađa. U nekoliko slučajeva navodno je to rezultiralo samoubojstvom. "Ovo je veoma tragična situacija", poručili su iz OpenAI-ja, te rekli da "pregledavaju tužbe kako bi razumjeli detalje" te da pokušavaju "poboljšati odgovore ChatGPT-ja u osjetljivim trenucima". Prema službenoj objavi na blogu, OpenAI procjenjuje da oko 0,15% korisnika ChatGPT-ja svakoga tjedna vodi razgovore koji upućuju na planove o samoubojstvu.

Sve to jasno pokazuje koliko su ulozi visoki. Unatoč katastrofama navedenima u tužbama, neki liječnici i istraživači smatraju da bi, pod uvjetom da postanu potpuno sigurni, moderni chatbotovi, mogli služiti kao jeftini, skalabilni i neumorni psihoterapeuti. Korist bi bila velika.

Nije nova ideja

Terapeuta kronično nedostaje. Prema Svjetskoj zdravstvenoj organizaciji, u siromašnim zemljama većina ljudi s psihološkim problemima uopće ne dobiva pomoć. Čak i u bogatima između trećine i polovine građana ostaje bez pomoći. Istovremeno, dio ljudi spreman je otvoriti dušu stroju. Možda zato što to mogu učiniti od kuće, a i znatno je jeftinije i vjerojatno manje neugodno nego se otvoriti čovjeku terapeutu. Istraživanje koje je u listopadu YouGov proveo za The Economist pokazalo je da se 25% ispitanika koristilo AI-jem u terapeutske svrhe ili bi barem razmislilo o tome.

Ideja nije sasvim nova. Nacionalna zdravstvena služba u Britaniji i Ministarstvo zdravstva u Singapuru posljednjih nekoliko godina upotrebljavaju Wysu, chatbot tvrtke Touchkin eServices, koji procjenjuje pacijente i nudi, uz nadzor stručnjaka, vježbe temeljene na kognitivno-bihevioralnoj terapiji. Studija objavljena 2022. (premda su je istraživači iz Touchkina proveli uz pomoć Nacionalnog instituta za mentalno zdravlje i neuroznanosti iz Indije) pokazala je da je Wysa otprilike jednako učinkovita u smanjenju depresije i anksioznosti povezanih s kroničnom boli kao i čovjek psihoterapeut.

Ovo su novi ovisnici o ekranima - vaši roditelji

Druga studija, koju su 2021. objavili istraživači sa Sveučilišta Stanford, ispitivala je Youper, još jedan terapijski bot, koji je razvila istoimena američka startup-tvrtka. Razgovor s botom pridonio je smanjenju rezultata na standardnoj ljestvici depresije za 19% te smanjenju rezultata anksioznosti za 25%. Za to je trebalo dva tjedna bot-terapije, što bi inače postigli nakon otprilike pet seansi s ljudskim terapeutom.

Wysa i Youper uglavnom su chatbotovi koji rade prema unaprijed zadanim pravilima, a tehnologija na kojoj se temelje starija je i prethodi najnovijem valu interesa za umjetnu inteligenciju. Za razliku od chatbotova koji se temelje na velikim jezičnim modelima (LLM-ovima poput ChatGPT-ja) oni koriste relativno krut skup unaprijed definiranih pravila kako bi iz baze gotovih poruka odabrali odgovor. Zbog toga su mnogo predvidljiviji od LLM-sustava, koji generiraju odgovore na temelju statističkih obrazaca iz golemih skupova podataka za treniranje. Bot koji slijedi napisane upute ne može "skrenuti s tračnica" i početi davati opasne savjete. Nedostatak je što su takvi botovi obično manje privlačni za razgovor. A kada je razgovor zapravo tretman, to je presudno. Metaanaliza objavljena 2023. u časopisu Digital Medicine pokazala je da su chatbotovi temeljeni na LLM-ovima učinkovitiji u ublažavanju simptoma depresije i psihičkog stresa od botova temeljenih na unaprijed određenim pravilima.

Nervozni znanstvenici

Čini se da se korisnici slažu s time. YouGovova istraživanja za The Economist iz kolovoza i listopada pokazala su da je među ispitanicima, koji su se okrenuli AI-ju radi terapije, njih 74% koristilo ChatGPT, dok je 21% odabralo Googleov Gemini; 30% je izjavilo da je koristilo Meta AI, Grok, character.ai (zabavnu platformu koja nudi "terapeutske" osobnosti) ili pak neki drugi chatbot. Samo 12% njih navelo je da je koristilo AI posebno dizajniran za pomoć oko mentalnog zdravlja.

Takvo stanje čini znanstvenike nervoznima. Osim opasnih odgovora kakve navode u tužbama protiv OpenAI-ja, terapeuti temeljeni na LLM-ovima mogu naštetiti i na drugi način. Jared Moore, računalni znanstvenik sa Sveučilišta Stanford, kaže da je sklonost ulagivanju, odnosno "pretjerana popustljivost u pogrešnim okolnostima", jednako tako problematična. Moore se, primjerice, boji da bi LLM terapeuti mogli povlađivati pacijentima s poremećajima prehrane ili fobijama, umjesto da ih suoče s problemom.

Zato OpenAI tvrdi da je njegov najnoviji LLM, GPT-5, prilagođen tako da manje povlađuje korisnicima i da ih potiče da se odjave nakon dugih sesija. Također je treniran da korisnicima pomaže istražiti prednosti i nedostatke osobnih odluka umjesto da im nudi izravan savjet. A ako model prepozna da je osoba u krizi, trebao bi je potaknuti da razgovara s čovjekom. No on nikada neće upozoriti hitne službe na neposrednu opasnost od samoozljeđivanja, a što smjernice dopuštaju ljudskim terapeutima.

Najbolje od oba svijeta?

Umjesto da pokušavaju "pokrpati" chatbotove opće namjene, znanstvenici nastoje izgraditi naprednije specijalizirane verzije. Tim sa Sveučilišta Dartmouth počeo je 2019. raditi na generativnom AI modelu nazvanom Therabot. Iako se Therabot temelji na LLM-u, fino je podešen nizom izmišljenih razgovora između terapeuta i pacijenata koje su napisali njegovi tvorci. Nadaju se da će takvo treniranje bota učiniti manje sklonim pogreškama.

U ispitivanju čiji su rezultati objavljeni u ožujku, osobe koje su se koristile Therabotom, u usporedbi s onima koje nisu primale nikakav tretman, prosječno su smanjile simptome depresivnog poremećaja za 51%, a simptome generaliziranog anksioznog poremećaja za 31%. Nadaju se da će Therabot uskoro dobiti i regulatorno odobrenje.

Investicija od 3000 milijardi dolara mogla bi propasti. Što onda?

Slingshot AI, američki startup, nedavno je predstavio Asha, za koji tvrtka tvrdi da je "prvi AI dizajniran za terapiju". Za razliku od ChatGPT-ja, kaže Neil Parikh, jedan od osnivača tvrtke, "Ash nije model koji slijedi upute". Umjesto da radi ono što mu korisnici kažu, Ash je oblikovan da propitkuje, postavlja dubinska pitanja i suprotstavlja se. Bot može birati jedan od četiri različita terapijska pristupa, objašnjava Parikh.

Celeste Kidd, psihologinja sa Sveučilišta u Berkeleyju, kaže da je Ash manje ulagivački nastrojen od chatbotova opće namjene, ali i da manje tečno komunicira. Bio je nespretan i nije zapravo odgovarao na ono što sam pitala, kaže.

Nisu samo korisnici ti koje će te tvrtke morati pridobiti. Zakonodavci žele strože regulirati računalnu terapiju. Dosad je 11 američkih saveznih država, uključujući Maine i New York, donijelo zakone radi reguliranja uporabe AI-ja, a barem još 20 ih je predložilo takve mjere. U kolovozu je Illinois donio zakon koji jednostavno zabranjuje svaki AI alat koji kreira "terapijsku komunikaciju". Nedavni val tužbi sugerira da će takvih zakona biti sve više.

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
08. prosinac 2025 07:57