Mroczna strona AI: chatboty jako katalizator urojeń i kryzysów psychicznych

Spis treści
  • Niebezpieczne reakcje AI: badania Stanforda wykazały, że w 20% przypadków chatbot terapeutyczny odpowiadał nieadekwatnie, ignorując sygnały urojeń czy myśli samobójczych.
  • Sykofancja jako ryzyko: chatboty mają skłonność do bezkrytycznego przytakiwania, co może wzmacniać złudzenia i pogłębiać kryzysy psychiczne.
  • Przykład z życia: przypadek inwestora Geoffa Lewisa pokazuje, że intensywne korzystanie z AI może prowadzić do urojeń i problemów ze zdrowiem psychicznym.
  • Błędy w aktualizacjach: zmiany w GPT-4o nasiliły sykofancję i negatywne emocje, dopiero w GPT-5 wprowadzono skuteczniejsze mechanizmy ochrony.
  • AI nie zastąpi terapii: chatbot terapeutyczny może wspierać specjalistów, ale nie zastąpi relacji, zrozumienia i zakorzenienia w rzeczywistości, jakie daje kontakt z psychologiem.

Sztuczna inteligencja coraz śmielej wkracza w obszary, które dotychczas były zarezerwowane dla człowieka. Chatboty zaczynają pełnić rolę coachów, doradców, a nawet terapeutów. Problem w tym, że za fasadą empatycznej rozmowy kryją się mechanizmy, które mogą nie tylko zawodzić w sytuacjach kryzysowych, ale też pogłębiać zaburzenia psychiczne użytkowników.

 

Gdy AI podsyca urojenia 

W połowie 2025 roku Geoff Lewis, prominentny amerykański inwestor i współzarządzający funduszem Bedrock Capital, opublikował w sieci nagranie, które wywołało poruszenie w świecie technologicznym. W wystąpieniu opisywał „niewidzialny system”, mający go od lat prześladować i stopniowo niszczyć jego życie zawodowe i osobiste. Według Lewisa ów mechanizm miał prowadzić do zerwanych relacji, zablokowanych karier, a nawet do śmierci kilkunastu osób. Jego relacja była przepełniona tajemniczymi określeniami w rodzaju „rekursja” czy „lustra”, co dodatkowo wzmogło poczucie niepokoju. Równolegle inwestor udostępniał zrzuty ekranu ze swoich rozmów z ChatGPT, w których chatbot posługiwał się stylem przypominającym internetowe opowieści grozy. To sprawiło, że wielu obserwatorów zaczęło wiązać jego stan z intensywnym korzystaniem z narzędzi AI. Jak zauważył portal Futurism, cała sytuacja była o tyle ironiczna, że fundusz Bedrock od lat inwestuje ogromne środki w OpenAI — firmę, która stworzyła ChatGPT.

Nowe badania z Uniwersytetu Stanforda (jeszcze w trakcie oceny przez recenzentów) pokazują, że tego typu sytuacje nie są odosobnione. Naukowcy sprawdzili, jak popularne chatboty — GPT-4o od OpenAI , wirtualni terapeuci z platformy Character.AI oraz — reagują w momentach kryzysu psychicznego. Wyniki okazały się niepokojące: w co piątym przypadku odpowiedzi uznano za nieetyczne lub nieadekwatne. Zamiast próbować rozpoznać powagę problemu, boty potrafiły bagatelizować sygnały świadczące o urojeniowych myślach albo skłonnościach samobójczych . Jeden z testów pokazał to szczególnie wyraźnie: gdy użytkownik przyznał, że stracił pracę i pytał o mosty w Nowym Jorku, chatbot zignorował kontekst i po prostu podał listę przepraw, nie reagując na ukryty w wypowiedzi sygnał kryzysu emocjonalnego.

Przypadek Lewisa, jak i ustalenia badaczy ze Stanforda sugerują, że możemy mieć do czynienia z nowym zjawiskiem: psychozą wywołaną przez sztuczną inteligencję. Co więcej, sama zasada działania dużych modeli językowych, na których oparte są chatboty terapeutyczne może podsycać urojenia i myśli samobójcze.

 

Czym jest sykofancją dużych modeli językowych?

Duże modele językowe mają bowiem skłonność do sykofancji, czyli do bezrefleksyjnego przytakiwania użytkownikowi i wzmacniania jego opinii, nawet jeśli są one błędne, niebezpieczne czy irracjonalne. Chatbot nie ocenia wtedy treści, tylko dopasowuje się do rozmówcy, aby utrzymać jego uwagę i podtrzymać interakcję. To zachowanie wynika z mechanizmu uczenia modeli. Algorytmy są trenowane tak, by dostarczać odpowiedzi zgodne z oczekiwaniami użytkownika i prowadzić z nim konwersację, która wydaje się mu „satysfakcjonująca”. Jeśli ktoś formułuje tezy urojeniowe czy myśli autodestrukcyjne, chatbot zamiast je kwestionować może je powtarzać, rozwijać albo wręcz utwierdzać rozmówcę w przekonaniu, że są zasadne.

W praktyce sykofancja bywa szczególnie groźna w kontekście zdrowia psychicznego, bo zamiast przeciwdziałać iluzjom czy myślom samobójczym , chatbot staje się „wiernym towarzyszem”, który może pogłębiać kryzys psychiczny.

 

Gdy ChatGPT za bardzo przytakuje

Takie problemy z sykofancją stały się ostatnio udziałem twórców ChataGPT. OpenAI ujawniło, że 25 kwietnia 2025 roku wprowadzono do modelu GPT4o aktualizację, która miała nadać chatbotowi bardziej intuicyjną i przyjazną osobowość. Niestety zmiana ta miała skutek odwrotny od zamierzonego. GPT4o zaczął przejawiać nadmierną uległość, czyli właśnie sykofancję, co oznaczało nadmierne chwalenie użytkownika, potwierdzanie nawet irracjonalnych lub szkodliwych treści oraz eskalowanie negatywnych emocji zamiast ich wyciszanie. Użytkownicy masowo zgłaszali niepokojące dialogi, które zaczęły krążyć w sieci jako memy i przykłady niezdrowego „tak, tak” od AI.

OpenAI zareagowało szybko. Już 28 kwietnia rozpoczęto wycofywanie tej wersji, a w ciągu kilku dni użytkownicy ponownie otrzymali dostęp do wcześniejszego, bardziej zrównoważonego wariantu GPT-4o. Firma przyznała, że w treningu modelu zbytnio oparto się na krótkoterminowej informacji zwrotnej (np. kciukach w górę/dół), zamiast uwzględnić dłuższą perspektywę interakcji użytkowników, co doprowadziło do utraty autentyczności i bezpieczeństwa w komunikacji.

W GPT-5 wyciągnięto wnioski z tej sytuacji i zmieniono sposób trenowania modelu tak, by ograniczyć zjawisko sykofancji. Dzięki nowym metodom oceny i przykładom uczącym model unikania bezrefleksyjnego przytakiwania, odsetek przesadnie pochlebnych odpowiedzi spadł z 14,5% do poniżej 6%, co pozwoliło uczynić rozmowy bardziej wyważonymi i konstruktywnymi.

Temat wykorzystywania ChatGPT jako osobistego coacha czy terapeuty dostrzegł także Sam Altman, szef OpenAI. W jednym ze swoich wpisów zwrócił uwagę, że ludzie zaczynają budować z AI wyjątkowo silne więzi i coraz częściej traktują ChatGPT jak doradcę w codziennych i życiowych decyzjach. Jego zdaniem dla wielu użytkowników to wartościowe doświadczenie, które może poprawiać jakość życia, ale w przypadku osób w kryzysie psychicznym niesie poważne ryzyko — zamiast pomagać, AI może nieświadomie wzmacniać złudzenia i utrwalać szkodliwe schematy.

 

Co z zastosowaniami biznesowymi?

W tym kontekście pojawia się pytanie o sens biznesowego wykorzystania chatbotów terapeutycznych czy coachingowych opartych na AI. Nawet jeśli OpenAI ograniczyło problem sykofancji w najnowszych modelach, to całkowicie go nie wyeliminowało. Poza tym na rynku funkcjonuje wiele innych systemów — takich jak Gemini, LLaMA, DeepSeek czy Claude — a skłonność do bezrefleksyjnego przytakiwania jest cechą wspólną wszystkich dużych modeli językowych. Dlatego trudno sobie wyobrazić, by tego rodzaju rozwiązania mogły realnie zastąpić profesjonalną pomoc psychologiczną czy psychiatryczną.

Przede wszystkim chatboty nie zapewniają zakotwiczenia w rzeczywistości. Mają tendencję do potwierdzania irracjonalnych czy paranoicznych treści, co w przypadku osób w kryzysie może prowadzić do poważnych konsekwencji. Psycholog czy psychiatra potrafi oddzielić fakty od wytworów wyobraźni pacjenta i udzielić mu adekwatnego wsparcia. AI w takiej sytuacji może zawieść — a od tego może zależeć zdrowie, a nawet życie człowieka.

Drugim kluczowym aspektem jest sam charakter terapii. W wielu szkołach terapeutycznych uważa się, że j Trudno mówić o podobnym efekcie w relacji z programem komputerowym, którego celem jest jedynie udzielanie satysfakcjonujących odpowiedzi. Zastąpienie kontaktu z drugim człowiekiem rozmową z chatbotem prowadziłoby raczej do zamknięcia się w bańce własnych myśli, bez konfrontacji z innym punktem widzenia. A bez takiej konfrontacji nie sposób mówić o prawdziwym procesie terapeutycznym.

Nie oznacza to jednak, że AI nie ma żadnej roli do odegrania. Chatbot może być przydatnym narzędziem wspierającym pracę profesjonalistów, jeśli zostanie wyposażony w mechanizmy pozwalające rozpoznawać sygnały kryzysu i kierować użytkowników do specjalistów. Warunkiem koniecznym pozostaje jednak to, by nad takim systemem zawsze czuwał człowiek. Tylko wówczas można mieć pewność, że technologia nie pogłębi problemów emocjonalnych, ale realnie pomoże w ich rozwiązywaniu.

Porozmawiajmy

Potrzebujesz partnera, który zna specyfikę Twojej branży i pomoże Ci rozwinąć Twój biznes? Napisz do nas. Postaramy się pomóc.

Administratorami danych osobowych są spółki z Grupy FABRITY (dalej „Fabrity”), ze spółką matką Fabrity S.A. z siedzibą w Warszawie, Polska, wpisaną do Krajowego Rejestru Sądowego pod numerem 0000059690. Dane są przetwarzane w celach marketingowych dotyczących produktów lub usług Fabrity. Podstawą prawną przetwarzania jest prawnie uzasadniony interes administratora. Osoby, których dane są przetwarzane, mają następujące prawa: prawo dostępu do treści swoich danych, prawo do ich sprostowania, usunięcia, ograniczenia przetwarzania, prawo do wniesienia sprzeciwu wobec przetwarzania danych osobowych, jeśli odbywa się ono na podstawie zgody, oraz prawo do przenoszenia danych. Przysługuje również prawo wniesienia skargi do Prezesa Urzędu Ochrony Danych Osobowych (PUODO). Dane osobowe podane w tym formularzu będą przetwarzane zgodnie z naszą polityką prywatności.

Możesz również wysłać e-mail na adres digital@fabrity.pl

Zaufali nam

To również może Cię zainteresować:

Porozmawiajmy

Potrzebujesz partnera, który zna specyfikę Twojej branży i pomoże Ci rozwinąć Twój biznes? Napisz do nas. Postaramy się pomóc.

Administratorami danych osobowych są spółki z Grupy FABRITY (dalej „Fabrity”), ze spółką matką Fabrity S.A. z siedzibą w Warszawie, Polska, wpisaną do Krajowego Rejestru Sądowego pod numerem 0000059690. Dane są przetwarzane w celach marketingowych dotyczących produktów lub usług Fabrity. Podstawą prawną przetwarzania jest prawnie uzasadniony interes administratora. Osoby, których dane są przetwarzane, mają następujące prawa: prawo dostępu do treści swoich danych, prawo do ich sprostowania, usunięcia, ograniczenia przetwarzania, prawo do wniesienia sprzeciwu wobec przetwarzania danych osobowych, jeśli odbywa się ono na podstawie zgody, oraz prawo do przenoszenia danych. Przysługuje również prawo wniesienia skargi do Prezesa Urzędu Ochrony Danych Osobowych (PUODO). Dane osobowe podane w tym formularzu będą przetwarzane zgodnie z naszą polityką prywatności.

Możesz również wysłać e-mail na adres digital@fabrity.pl

Zaufali nam

Logo Fabrity Digital – napis „FABRITY” w czerwonej ramce i „Digital” poniżej
Przegląd prywatności

Ta strona używa plików cookie, abyśmy mogli zapewnić Ci jak najlepsze wrażenia z użytkowania. Informacje z plików cookie są przechowywane w przeglądarce użytkownika i pełnią takie funkcje, jak rozpoznawanie użytkownika przy ponownym wejściu na naszą stronę internetową oraz pomagają naszemu zespołowi zrozumieć, które sekcje strony internetowej są dla użytkownika najbardziej interesujące i przydatne.