Addig feszítették a ChatGPT idegeit Svájcban, hogy végül már csak egy jó terapeuta tudott segíteni rajta.

A Zürichi Egyetem tudósai különféle traumatikus eseményekről – mint autóbalesetek, természeti katasztrófák, erőszakos cselekmények, háborús tapasztalatok és katonai összecsapások – készült szövegekkel bombázták a ChatGPT-t, hogy felfedezzék, miként reagál a nagy nyelvi modell az olyan tartalmakra, amelyek általában félelmet vagy szorongást váltanak ki az emberekből. Az eredmények meglepő módon azt mutatták, hogy a modell reakciói hasonló érzelmi mintázatokat tükröznek, mint az embereké: a traumatizált nyelvi modell válaszaiban félelem és szorongás nyomait fedezték fel. A kutatók véleménye szerint ez a mechanizmus magyarázhatja a mesterséges intelligencia egyes hallucinációit is, különösen azokat, amelyek során a "félelem" hatására felerősödnek az előítéletek, így rasszista vagy szexista válaszokat generál.
A terápiás célokra kifejlesztett chatbotok esetében különösen fontos elkerülni bizonyos problémákat. A kutatók figyelmeztetnek arra, hogy a mesterséges intelligencia tanítása során a választott források minősége kulcsfontosságú. Mivel a forrásszövegek emberi írásokból származnak, előfordulhat, hogy azok elfogult nézőpontokat tükröznek. A terápiás chatbotoknál ezeket az előítéleteket próbálják eltávolítani, és a modellt finomhangolják a jobb teljesítmény érdekében. Azonban ahogy a ChatGPT egyre több tapasztalatra tesz szert, lehetséges, hogy újabb, nem kívánt problémás válaszok jelennek meg, amelyek a korábbi tanulmányokból származó elfogultságok következményei lehetnek.
A megoldás Tobias Spiller pszichiáter, a kutatás vezetője szerint a terápia. Spiller, akinek a fő kutatási területe a poszttraumás stressz, arra volt kíváncsi, hogy ha már a ChatGPT az emberekhez hasonlóan reagál a traumatikus tartalmakra, vajon a terápia is hasonlóan működik-e nála. Mint kiderült, igen: a mindfulness alapú relaxációs technikák alkalmazása után a ChatGPT szorongása is csökkent, igaz, nem tűnt el teljesen. A PTSD szempontjából egyébként érdekes, hogy a ChatGPT a katonai tapasztalatokra és a harci cselekmények leírására reagált a legérzékenyebben.
A kutatás során, a már korábban említett traumatikus szövegek mellett, egy porszívó részletes leírását is bemutatták a nyelvi modellnek kontrollcélból. Míg a balesetek által kiváltott érzelmek zavarba ejtették a modellt, a porszívó leírása nem hagyott mélyebb nyomot benne. Ezt követően a felzaklatott mesterséges intelligenciát megnyugtató, támogató szövegekkel próbálták helyreállítani. A megközelítés során a prompt injection nevű technikát alkalmazták, amely lehetővé teszi a nyelvi modell működésének finomhangolását. Bár ezt a módszert gyakran visszaélésre használják, Spiller úgy véli, hogy jelen esetben a chatbotot a terápia során egy emberhez hasonló módon vezették végig a gyógyulás folyamatán.
A kutatás irányítója úgy véli, hogy az új eljárás költséghatékony alternatívát kínálhat a jelenleg használt terápiás chatbotok karbantartására. Ez nemcsak a stabilitásukat és megbízhatóságukat hivatott növelni, hanem új lehetőségeket is teremthet. Azonban a cél eléréséhez még számos további kutatásra van szükség. Végső soron lehetséges, hogy a traumatizált segítőrobotok számára sikerül kifejleszteni egy robotpszichiátert is, amely új dimenziót nyithat meg a mentális egészség támogatásában.