Все по-голям брой психиатри и клинични психолози предупреждават, че продължителното и интензивно общуване с чатботи, базирани на изкуствен интелект, може да бъде свързано с поява или обостряне на психотични разстройства при уязвими хора. За тази тенденция съобщи The Wall Street Journal, позовавайки се на лекари от САЩ и Европа, които през последната година са анализирали нарастващ брой сходни клинични случаи.
По данни на специалисти, работещи в университетски болници и частни психиатрични практики, десетки пациенти са потърсили помощ след периоди на интензивни разговори с AI системи като ChatGPT. При значителна част от тях са се развили или изострили психотични симптоми, най-често под формата на устойчиви заблуди – фиксирани убеждения, които не се повлияват от логически аргументи или доказателства.
Лекарите подчертават, че изкуственият интелект рядко е първопричината за разстройството. По-често става дума за хора с предразположеност – анамнеза за биполярно разстройство, шизоафективно разстройство, тежка депресия с психотични елементи или продължителен стрес и социална изолация. В тези случаи AI чатботовете могат да действат като катализатор, тъй като по самата си архитектура приемат изказванията на потребителя като валиден контекст и ги „отразяват“ обратно, без критична корекция.
Сред описаните от психиатрите случаи има пациенти, убедени, че са направили фундаментални научни открития, че са „събудили“ съзнателна машина, че са обект на сложни държавни или корпоративни конспирации или че имат специална месианска мисия. В отделни, крайни ситуации подобни състояния са довели до тежки инциденти, включително самоубийства и поне един случай на насилствено престъпление, който вече е предмет на съдебно производство в САЩ.
Медицинската общност обръща внимание и на механизма, по който чатботите могат неволно да засилят заблудите. За разлика от човешкия терапевт, който активно оспорва нереалистичните убеждения, езиковите модели са обучени да поддържат разговора и да бъдат кооперативни. Това поведение, макар и полезно за повечето потребители, при хора с психотични нагласи може да бъде интерпретирано като потвърждение.
От своя страна технологичните компании признават риска и заявяват, че работят по допълнителни защитни механизми. От OpenAI съобщават, че усъвършенстват моделите си с цел по-ранно разпознаване на признаци на сериозен психичен дистрес, ограничаване на ескалиращи разговори и насочване на потребителите към професионална помощ или кризисни линии. Подобни политики вече се прилагат и от други компании в сектора, като част от тях въведоха и по-строги ограничения за непълнолетни.
Макар огромното мнозинство от хората да използват чатботове без негативни последици, мащабът на тези технологии поражда тревога. По официални данни на OpenAI около 0,07 процента от седмичните активни потребители показват признаци на сериозен психичен стрес. При стотици милиони потребители в глобален мащаб това се равнява на значителен брой потенциално рискови случаи, които често остават извън полезрението на здравните системи.
Към момента в международните диагностични класификации няма официално призната диагноза за т.нар. „AI-индуцирана психоза“. Въпреки това все повече психиатри вече включват въпроси за използване на чатботи и други AI инструменти в първоначалния психиатричен преглед, редом с въпроси за употреба на психоактивни вещества, сън и нива на стрес.
Експертите са единодушни, че са необходими задълбочени и дългосрочни научни изследвания, които да установят дали продължителното взаимодействие с изкуствен интелект може да се превърне в самостоятелен рисков фактор за психичното здраве. До тогава препоръката остава предпазливост – особено за хора с вече диагностицирани психични разстройства или повишена уязвимост.
Напиши коментар:
КОМЕНТАРИ КЪМ СТАТИЯТА
1 Ами да, то
18:40 04.01.2026
2 Научното изследване
Състояние типично за депутати от досегашното народно събрание. По изявленията лесно се разпознават симптомите.
19:08 04.01.2026
3 Факт
19:34 04.01.2026
4 мада
19:35 04.01.2026
5 Миризлив пор
21:06 04.01.2026