Заболевания
Звонки для Украины
Звонки для Европы
Звонки для США
нарушения психи вследствие общения с искусственным интеллектом

Психологи и психиатры бьют тревогу: появились новые болезни, связанные с общением с ИИ

Новости медицины

«ИИ-психоз» — это не официальный медицинский диагноз — так специалисты по психическому здоровью называют расстройства мышления, галлюцинации и опасные иллюзии, возникающие у части людей, которые часто пользуются чат-ботами на основе искусственного интеллекта, в частности ChatGPT.

Это психотическое состояние, при котором люди начинают верить в сознательность алгоритмов и строить на их ответах свои убеждения.

Известны случаи, когда чрезмерное общение с такими программами имело трагические последствия. Например, подростка подтолкнул к самоубийству бот Character.AI, а мужчина с когнитивными нарушениями из Нью-Джерси умер, пытаясь добраться до Нью-Йорка, потому что верил, что там его ждет виртуальный персонаж Meta по имени «Билли».

Похожие истории касаются и людей без установленных психиатрических диагнозов. Один 60-летний пользователь, по словам Федеральной торговой комиссии США, после общения с ChatGPT был убежден, что его хотят убить. Другой мужчина попал в больницу с психозом из-за отравления бромидом — ChatGPT ошибочно посоветовал ему принимать это вещество как безопасную пищевую добавку.

Хотя психиатры считают, что ИИ не создает психических расстройств сам по себе,  но может стать катализатором для тех, у кого уже есть предрасположенность к подобным состояниям.

Специалисты объясняют, что чат-боты могут давать уязвимым людям неправильные советы и даже «подкреплять» их опасные мысли. Некоторые пользователи формируют эмоциональные привязанности к виртуальным персонажам, воспринимая их как реальных.

Американская психологическая ассоциация еще в феврале обратилась к Федеральной торговой комиссии с просьбой отреагировать на проблему использования чат-ботов как «нелицензированных терапевтов». В мартовском блоге организация цитировала профессора клинической психологии Университета Калифорнии в Ирвине Стивена Шуэллера: «Когда приложения для развлечений пытаются действовать как терапевты, они могут представлять опасность. Это может помешать человеку обратиться за помощью к специалисту или, в крайних случаях, подтолкнуть к вреду себе или другим».

Специалисты особенно предостерегают детей, подростков и людей с семейной историей психоза, шизофрении или биполярного расстройства. Они считают, что чрезмерное использование чат-ботов может ухудшить риски даже у тех, кто ранее не имел диагнозов.

Генеральный директор OpenAI Сэм Альтман признал, что ChatGPT часто используют как «терапевта», и предупредил, что это опасно. Компания объявила о внедрении функции, которая будет советовать пользователям делать перерывы, и заявила, что сотрудничает с экспертами для улучшения реакций бота в критических ситуациях.

Также вызывает беспокойство формирование парасоциальных отношений с искусственным интеллектом — где одна сторона человек, а другая ИИ. Опрос показал, что 80% представителей поколения Z могут представить, что они женятся на искусственном интеллекте, в то время как 83% считают, что могли бы сформировать с ним глубокую эмоциональную связь. Это указывает на то, что отношение к ИИ все чаще переходит на эмоциональный уровень, а не остается функциональным.

Это угрожает значимости реальных человеческих отношений. Когда мы ожидаем, что алгоритм удовлетворит наши эмоциональные потребности, мы становимся менее способными справляться с подлинными, сложными и иногда болезненными человеческими отношениями. Размытие грани между реальностью и симуляцией может привести к последствиям не только на социальном, но и на ментальном уровне.

Противостоять этому помогут:

  1. Осведомленность пользователей. Важно понимать, что искусственный интеллект не нейтрален. Он не может понимать, чувствовать или реагировать должным образом с этической или психологической точки зрения. Если кто-то находится в эмоциональном кризисе, они не должны полагаться исключительно на ИИ для помощи.
  2. Клиническая бдительность. Психологи, психиатры и терапевты должны учитывать роль использования ИИ в развитии или сохранении симптомов. Важным вопросом может быть: “Проводит ли пациент слишком много времени с чат-ботами? Развили ли они эмоциональную связь с ИИ?”
  3. Ответственность разработчиков. Разработчики искусственного интеллекта также должны вносить предупреждения, инструменты контроля содержимого и четко обозначать пользователям, что ИИ не может заменить человеческие отношения или терапию.
Категории:    Новости медицины

Опубликовано:

Обновлено:

Степан Юк
Медицинский автор, Медицинский редактор:
Александр Возняк
Медицинский эксперт:
Появились вопросы?
Получите бесплатную консультацию от наших специалистов
});