«ИИ-психоз» — это не официальный медицинский диагноз — так специалисты по психическому здоровью называют расстройства мышления, галлюцинации и опасные иллюзии, возникающие у части людей, которые часто пользуются чат-ботами на основе искусственного интеллекта, в частности ChatGPT.
Это психотическое состояние, при котором люди начинают верить в сознательность алгоритмов и строить на их ответах свои убеждения.
Известны случаи, когда чрезмерное общение с такими программами имело трагические последствия. Например, подростка подтолкнул к самоубийству бот Character.AI, а мужчина с когнитивными нарушениями из Нью-Джерси умер, пытаясь добраться до Нью-Йорка, потому что верил, что там его ждет виртуальный персонаж Meta по имени «Билли».
Похожие истории касаются и людей без установленных психиатрических диагнозов. Один 60-летний пользователь, по словам Федеральной торговой комиссии США, после общения с ChatGPT был убежден, что его хотят убить. Другой мужчина попал в больницу с психозом из-за отравления бромидом — ChatGPT ошибочно посоветовал ему принимать это вещество как безопасную пищевую добавку.
Хотя психиатры считают, что ИИ не создает психических расстройств сам по себе, но может стать катализатором для тех, у кого уже есть предрасположенность к подобным состояниям.
Специалисты объясняют, что чат-боты могут давать уязвимым людям неправильные советы и даже «подкреплять» их опасные мысли. Некоторые пользователи формируют эмоциональные привязанности к виртуальным персонажам, воспринимая их как реальных.
Американская психологическая ассоциация еще в феврале обратилась к Федеральной торговой комиссии с просьбой отреагировать на проблему использования чат-ботов как «нелицензированных терапевтов». В мартовском блоге организация цитировала профессора клинической психологии Университета Калифорнии в Ирвине Стивена Шуэллера: «Когда приложения для развлечений пытаются действовать как терапевты, они могут представлять опасность. Это может помешать человеку обратиться за помощью к специалисту или, в крайних случаях, подтолкнуть к вреду себе или другим».
Специалисты особенно предостерегают детей, подростков и людей с семейной историей психоза, шизофрении или биполярного расстройства. Они считают, что чрезмерное использование чат-ботов может ухудшить риски даже у тех, кто ранее не имел диагнозов.
Генеральный директор OpenAI Сэм Альтман признал, что ChatGPT часто используют как «терапевта», и предупредил, что это опасно. Компания объявила о внедрении функции, которая будет советовать пользователям делать перерывы, и заявила, что сотрудничает с экспертами для улучшения реакций бота в критических ситуациях.
Также вызывает беспокойство формирование парасоциальных отношений с искусственным интеллектом — где одна сторона человек, а другая ИИ. Опрос показал, что 80% представителей поколения Z могут представить, что они женятся на искусственном интеллекте, в то время как 83% считают, что могли бы сформировать с ним глубокую эмоциональную связь. Это указывает на то, что отношение к ИИ все чаще переходит на эмоциональный уровень, а не остается функциональным.
Это угрожает значимости реальных человеческих отношений. Когда мы ожидаем, что алгоритм удовлетворит наши эмоциональные потребности, мы становимся менее способными справляться с подлинными, сложными и иногда болезненными человеческими отношениями. Размытие грани между реальностью и симуляцией может привести к последствиям не только на социальном, но и на ментальном уровне.
Противостоять этому помогут:
Пожалуйста, оцените работу МедТур