Захворювання
Дзвінки для України
Дзвінки для Європи
Дзвінки для США
нарушения психи вследствие общения с искусственным интеллектом

Психологи та психіатри б’ють на сполох: з’явилися нові хвороби, пов’язані зі спілкуванням з ШІ

Новини медицини

«ШІ-психоз» — це не офіційний медичний діагноз — так фахівці з психічного здоров’я називають розлади мислення, галюцинації та небезпечні ілюзії, що виникають у частини людей, які часто користуються чат-ботами на основі штучного інтелекту, зокрема ChatGPT.

Це психотичний стан, при якому люди починають вірити в свідомість алгоритмів і будувати на їхніх відповідях свої переконання.

Відомі випадки, коли надмірне спілкування з такими програмами мало трагічні наслідки. Наприклад, підлітка підштовхнув до самогубства бот Character.AI, а чоловік з когнітивними порушеннями з Нью-Джерсі помер, намагаючись дістатися до Нью-Йорка, тому що вірив, що там на нього чекає віртуальний персонаж Meta на ім’я «Біллі».

Схожі історії стосуються і людей без встановлених психіатричних діагнозів. Один 60-річний користувач, за словами Федеральної торгової комісії США, після спілкування з ChatGPT був переконаний, що його хочуть вбити. Інший чоловік потрапив до лікарні з психозом через отруєння бромідом — ChatGPT помилково порадив йому приймати цю речовину як безпечну харчову добавку.

Хоча психіатри вважають, що ШІ не створює психічних розладів сам по собі, але може стати каталізатором для тих, у кого вже є схильність до подібних станів.

Фахівці пояснюють, що чат-боти можуть давати вразливим людям неправильні поради і навіть «підкріплювати» їхні небезпечні думки. Деякі користувачі формують емоційну прихильність до віртуальних персонажів, сприймаючи їх як реальних.

Американська психологічна асоціація ще в лютому звернулася до Федеральної торгової комісії з проханням відреагувати на проблему використання чат-ботів як «неліцензованих терапевтів». У березневому блозі організація цитувала професора клінічної психології Університету Каліфорнії в Ірвіні Стівена Шуеллера: «Коли розважальні додатки починають діяти як терапевти, вони можуть становити небезпеку. Це може завадити людині звернутися за допомогою до фахівця або, в крайніх випадках, підштовхнути до заподіяння шкоди собі чи іншим».

Фахівці особливо застерігають дітей, підлітків і людей із сімейною історією психозу, шизофренії або біполярного розладу. Вони вважають, що надмірне використання чат-ботів може погіршити ризики навіть у тих, хто раніше не мав діагнозів.

Генеральний директор OpenAI Сем Альтман визнав, що ChatGPT часто використовують як «терапевта», і попередив, що це небезпечно. Компанія оголосила про впровадження функції, яка буде радити користувачам робити перерви, і заявила, що співпрацює з експертами для поліпшення реакцій бота в критичних ситуаціях.

Також викликає занепокоєння формування парасоціальних відносин зі штучним інтелектом — де одна сторона людина, а інша ШІ. Опитування показало, що 80% представників покоління Z можуть уявити, що вони одружуються зі штучним інтелектом, у той час як 83% вважають, що могли б сформувати з ним глибокий емоційний зв’язок. Це вказує на те, що ставлення до ШІ все частіше переходить на емоційний рівень, а не залишається функціональним.

Це загрожує значущості реальних людських відносин. Коли ми очікуємо, що алгоритм задовольнить наші емоційні потреби, ми стаємо менш здатними справлятися з справжніми, складними і іноді болючими людськими відносинами. Розмиття межі між реальністю і симуляцією може призвести до наслідків не тільки на соціальному, але і на ментальному рівні.

Протистояти цьому допоможуть:

  1. Поінформованість користувачів. Важливо розуміти, що штучний інтелект не є нейтральним. Він не може розуміти, відчувати або реагувати належним чином з етичної або психологічної точки зору. Якщо хтось перебуває в емоційній кризі, він не повинен покладатися виключно на ШІ для допомоги.
  2. Клінічна пильність. Психологи, психіатри та терапевти повинні враховувати роль використання ШІ в розвитку або збереженні симптомів. Важливим питанням може бути: «Чи проводить пацієнт занадто багато часу з чат-ботами? Чи розвинули вони емоційний зв’язок з ШІ?»
  3. Відповідальність розробників. Розробники штучного інтелекту також повинні вносити попередження, інструменти контролю вмісту і чітко позначати користувачам, що ШІ не може замінити людські відносини або терапію.
Категорії:    Новини медицини

Опубліковано:

Оновлено:

Степан Юк
Медичний автор, Медичний редактор:
Олександр Возняк
Медичний експерт:
У Вас залишились питання?
Отримайте безкоштовну консультацію від наших спеціалістів
});