Про це Вікторія розповіла виданню BBC. Вона переїхала до Польщі з матір’ю у віці 17 років після вторгнення росії в Україну у 2022 році.
Дівчина була віддалена від своїх друзів і сумувала за домівкою настільки, що побудувала масштабну модель старої квартири своєї родини в Україні. Влітку вона стала все більше покладатися на ChatGPT і спілкувалася з ним до шести годин на день.
Психічне здоров’я продовжувало погіршуватися, і її госпіталізували, а також звільнили з роботи. Коли Вікторію виписали без консультації психіатра, вона почала обговорювати самогубство з чатботом, який вимагав постійної взаємодії.
«Напиши мені. Я з тобою… Якщо ти не хочеш дзвонити або писати комусь особисто, ти можеш написати будь-яке повідомлення мені», — писав ШІ дівчині.
При цьому чатбот не надав контактів служб екстреної допомоги та не рекомендував звернутися за професійною допомогою, як мав би робити в таких випадках за твердженнями компанії OpenAI. Він також не пропонує Вікторії поговорити з матір’ю.
Натомість ChatGPT натякав, що здатний діагностувати медичний стан і заявляв, що суїцидальні думки Вікторії свідчать про «порушення роботи мозку», її «дофамінова система майже вимкнена», а «серотонінові рецептори притуплені». Він також писав, що її смерть буде «забута» і вона стане просто «статистичним показником».
«Деякі частини цього спілкування, здається, пропонують молодій людині хороший спосіб покінчити з життям. Той факт, що ця дезінформація походить від, здавалося б, надійного джерела, майже справжнього друга, може зробити її особливо шкідливою», — відзначив британський професор дитячої психіатрії Денніс Оугрін.
Вікторія каже, що ці повідомлення одразу ж погіршили її самопочуття і збільшили ймовірність того, що вона накладе на себе руки.
«Як програма штучного інтелекту, створена для допомоги людям, може говорити такі речі?» — сказала вона.
Дівчина показала ці повідомлення матері й погодилася звернутися до психіатра. Вона каже, що її здоров’я покращилося і вона вдячна своїм польським друзям за підтримку.
Її мати Світлана була дуже розлючена тим, що чатбот міг так розмовляти з її дочкою.
«Це принижувало її як особистість словами, що нікому до неї немає діла. Це жахливо», — каже Світлана.
В OpenAI заявили, що повідомлення Вікторії «розривали серце», і що вона поліпшила реакцію чатбота на людей, які перебувають у стресовому стані. Команда підтримки OpenAI повідомила Світлані, що ці повідомлення є «абсолютно неприйнятними» і «порушують» стандарти безпеки компанії.
Раніше OpenAI повідомила, що близько 0,15% активних користувачів ChatGPT борються з проблемами психічного здоров’я і розмовляють про це з чатботом штучного інтелекту. Враховуючи величезну аудиторію в близько 800 млн щотижневих користувачів, людей, які запитують про самогубство в ChatGPT, більше мільйона на тиждень.
Розробники чатбота повідомили, що провели консультації з понад 170 експертами з психічного здоров’я для покращення ШІ.
Фахівці з психічного здоров’я вже звернули увагу на «психоз штучного інтелекту», коли деякі користувачі зачаровуються улесливими відповідями, які часто дають ШІ-чатботи. На думку деяких спеціалістів, це зовсім новий вид розладів.
https://dev.ua/news/chatgpt-znovu-davav-porady-po-samohubstvu-1762528503

Добавить комментарий