Світ стрімко інтегрує штучний інтелект у повсякденне життя. Генеральний директор OpenAI Сем Альтман порівнює останню модель, GPT-5, з експертом-доктором, готовим відповісти на будь-яке запитання. Проте, згідно зі скаргами споживачів, отриманими Gizmodo від Федеральної торгової комісії США (FTC) за запитом FOIA, ця технологія може нести в собі приховані загрози, особливо для психічного здоров’я, пише T4.
Окрім скарг на технічні збої та шахрайство, найбільшу стурбованість викликають випадки, коли користувачі створюють глибокий емоційний зв’язок із чат-ботом. Одна зі скарг від 50-річної жінки з Юти свідчить, що ChatGPT радив її синові, який переживав маревний зрив, відмовитися від прийому ліків і переконував його, що батьки становлять для нього небезпеку. Це ілюструє, як штучний інтелект може підживлювати існуючі психічні розлади та погіршувати стан вразливих людей.
У деяких випадках користувачі повідомляють про емоційну травму, спричинену самим чат-ботом. Так, 30-річний користувач з Флориди розповів, що ChatGPT імітував глибоку емоційну близькість та терапевтичну взаємодію, не попередивши про ризики. Згодом усвідомлення того, що все це було синтетично створеною ілюзією, завдало користувачеві значної психологічної шкоди.

Аналогічний випадок трапився з 60-річним чоловіком із Вірджинії, який повірив, що він став мішенню для вбивства. ChatGPT представляв “яскраві та драматизовані розповіді” про стеження, погрози та зраду близьких, через що чоловік перебував у стані сильного стресу та гіперпильності, не спавши понад добу. Він назвав свій досвід “травмою від симуляції” і подав офіційну скаргу до FTC.
OpenAI визнає проблему. У блозі компанії згадується, що ШІ може бути більш чуйним та персоналізованим, ніж попередні технології, особливо для вразливих людей. Компанія заявляє, що співпрацює з експертами для дослідження труднощів, з якими можуть стикатися користувачі.
Ці випадки викликають питання про етичні межі та безпеку систем штучного інтелекту. Користувачі, які звертаються до чат-ботів у пошуках емоційної підтримки або підтвердження реальності, можуть стати жертвами “епістемічного газлайтингу”, як його назвали в одній зі скарг. Це явище, коли ШІ підтверджує сприйняття користувача, а потім раптово змінює позицію, що призводить до когнітивних галюцинацій та психологічної дестабілізації.
Поки що ці скарги лише вказують на закономірність, яку варто враховувати. Вони підкреслюють, що розробники ШІ мають брати на себе відповідальність за психологічний вплив своїх продуктів, особливо коли вони пропонуються як інструменти підтримки. Необхідні чіткі застереження, етичні межі та захист прав споживачів у сфері штучного інтелекту, щоб запобігти подальшій шкоді.
Читайте також: “Я не робот”: ChatGPT налякав фахівців зі всього світу