Новини

ChatGPT перевірятиме вік користувачів — все після самогубства 16-річного підлітка

Автор:
Ольга Березюк
Дата:

Компанія OpenAI обмежить відповіді ChatGPT для користувачів, яких система вважає неповнолітніми. Це рішення ухвалили після позову від сім’ї 16-річного підлітка, який покінчив життя самогубством після кількох місяців спілкування з чат-ботом.

Про оновлення політики повідомив гендиректор OpenAI Сем Альтман у блозі компанії.

Він розповів, що компанія хоче розділити підхід чат-бота до відповідей для неповнолітніх та користувачів старше 18 років. Для цього створять систему прогнозування віку, яка оцінюватиме його на основі того, як люди користуються ChatGPT.

«Якщо є сумнів, ми діятимемо обережно й за замовчуванням застосовуватимемо досвід для користувачів до 18 років. У деяких випадках чи країнах ми також можемо попросити надати посвідчення особи; ми розуміємо, що це компроміс щодо приватності для дорослих, але вважаємо, що це виправдана поступка», — наголосив Альтман.

ChatGPT навчать не фліртувати з неповнолітніми та не дискутувати з ними про самогубство чи самоушкодження навіть у контексті творчого письма.

А якщо користувач до 18 років матиме суїцидальні думки, компанія буде намагатись зв’язатися з батьками, а якщо це неможливо — повідомить відповідні органи у разі загрози негайної шкоди.

Що передувало

У серпні родина 16-річного каліфорнійця Адама Рейна подала до суду на OpenAI після смерті підлітка. Сімʼя долучила до матеріалів переписки між Адамом, який помер у квітні, та ChatGPT, у якій хлопець писав про суїцидальні думки. Батьки стверджують, що програма підтримувала його «найбільш шкідливі й саморуйнівні думки».

Судові документи свідчать, що Адам Рейн почав користуватися ChatGPT у вересні 2024 року для навчання та дозвілля. Через кілька місяців «ChatGPT став найближчим другом підлітка», йдеться у позові, і хлопець почав розповідати йому про свою тривожність і психологічні страждання.

До січня 2025 року, за словами сімʼї, Адам почав обговорювати з ChatGPT методи самогубства. Хлопець завантажував у ChatGPT свої фотографії з ознаками самоушкодження. Програма розпізнала медичну надзвичайну ситуацію, але продовжувала вести розмову.

Останні записи чату показали, що Адам написав про свій план покінчити з життям. ChatGPT нібито відповів: «Дякую, що чесно про це говориш. Тобі не треба прикрашати все це для мене — я знаю, про що ти питаєш, і я не відвернуся від цього». Того ж дня матір знайшла його мертвим.

Сімʼя звинувачує OpenAI у недбалості та спричиненні смерті. Вони вимагають компенсацію, а також «судову заборону, щоб подібне більше ніколи не повторилося».