Дзвінки для України
Дзвінки для Європи
Дзвінки для США
«ШІ-психоз» — це не офіційний медичний діагноз — так фахівці з психічного здоров’я називають розлади мислення, галюцинації та небезпечні ілюзії, що виникають у частини людей, які часто користуються чат-ботами на основі штучного інтелекту, зокрема ChatGPT.
Це психотичний стан, при якому люди починають вірити в свідомість алгоритмів і будувати на їхніх відповідях свої переконання.
Відомі випадки, коли надмірне спілкування з такими програмами мало трагічні наслідки. Наприклад, підлітка підштовхнув до самогубства бот Character.AI, а чоловік з когнітивними порушеннями з Нью-Джерсі помер, намагаючись дістатися до Нью-Йорка, тому що вірив, що там на нього чекає віртуальний персонаж Meta на ім’я «Біллі».
Схожі історії стосуються і людей без встановлених психіатричних діагнозів. Один 60-річний користувач, за словами Федеральної торгової комісії США, після спілкування з ChatGPT був переконаний, що його хочуть вбити. Інший чоловік потрапив до лікарні з психозом через отруєння бромідом — ChatGPT помилково порадив йому приймати цю речовину як безпечну харчову добавку.
Хоча психіатри вважають, що ШІ не створює психічних розладів сам по собі, але може стати каталізатором для тих, у кого вже є схильність до подібних станів.
Фахівці пояснюють, що чат-боти можуть давати вразливим людям неправильні поради і навіть «підкріплювати» їхні небезпечні думки. Деякі користувачі формують емоційну прихильність до віртуальних персонажів, сприймаючи їх як реальних.
Американська психологічна асоціація ще в лютому звернулася до Федеральної торгової комісії з проханням відреагувати на проблему використання чат-ботів як «неліцензованих терапевтів». У березневому блозі організація цитувала професора клінічної психології Університету Каліфорнії в Ірвіні Стівена Шуеллера: «Коли розважальні додатки починають діяти як терапевти, вони можуть становити небезпеку. Це може завадити людині звернутися за допомогою до фахівця або, в крайніх випадках, підштовхнути до заподіяння шкоди собі чи іншим».
Фахівці особливо застерігають дітей, підлітків і людей із сімейною історією психозу, шизофренії або біполярного розладу. Вони вважають, що надмірне використання чат-ботів може погіршити ризики навіть у тих, хто раніше не мав діагнозів.
Генеральний директор OpenAI Сем Альтман визнав, що ChatGPT часто використовують як «терапевта», і попередив, що це небезпечно. Компанія оголосила про впровадження функції, яка буде радити користувачам робити перерви, і заявила, що співпрацює з експертами для поліпшення реакцій бота в критичних ситуаціях.
Також викликає занепокоєння формування парасоціальних відносин зі штучним інтелектом — де одна сторона людина, а інша ШІ. Опитування показало, що 80% представників покоління Z можуть уявити, що вони одружуються зі штучним інтелектом, у той час як 83% вважають, що могли б сформувати з ним глибокий емоційний зв’язок. Це вказує на те, що ставлення до ШІ все частіше переходить на емоційний рівень, а не залишається функціональним.
Це загрожує значущості реальних людських відносин. Коли ми очікуємо, що алгоритм задовольнить наші емоційні потреби, ми стаємо менш здатними справлятися з справжніми, складними і іноді болючими людськими відносинами. Розмиття межі між реальністю і симуляцією може призвести до наслідків не тільки на соціальному, але і на ментальному рівні.
Протистояти цьому допоможуть:
Будь ласка, оцініть роботу МедТур