ChatGPT перевірятиме вік користувачів — все після самогубства 16-річного підлітка
- Автор:
- Ольга Березюк
- Дата:
Компанія OpenAI обмежить відповіді ChatGPT для користувачів, яких система вважає неповнолітніми. Це рішення ухвалили після позову від сім’ї 16-річного підлітка, який покінчив життя самогубством після кількох місяців спілкування з чат-ботом.
Про оновлення політики повідомив гендиректор OpenAI Сем Альтман у блозі компанії.
Він розповів, що компанія хоче розділити підхід чат-бота до відповідей для неповнолітніх та користувачів старше 18 років. Для цього створять систему прогнозування віку, яка оцінюватиме його на основі того, як люди користуються ChatGPT.
«Якщо є сумнів, ми діятимемо обережно й за замовчуванням застосовуватимемо досвід для користувачів до 18 років. У деяких випадках чи країнах ми також можемо попросити надати посвідчення особи; ми розуміємо, що це компроміс щодо приватності для дорослих, але вважаємо, що це виправдана поступка», — наголосив Альтман.
ChatGPT навчать не фліртувати з неповнолітніми та не дискутувати з ними про самогубство чи самоушкодження навіть у контексті творчого письма.
А якщо користувач до 18 років матиме суїцидальні думки, компанія буде намагатись зв’язатися з батьками, а якщо це неможливо — повідомить відповідні органи у разі загрози негайної шкоди.
Що передувало
У серпні родина 16-річного каліфорнійця Адама Рейна подала до суду на OpenAI після смерті підлітка. Сімʼя долучила до матеріалів переписки між Адамом, який помер у квітні, та ChatGPT, у якій хлопець писав про суїцидальні думки. Батьки стверджують, що програма підтримувала його «найбільш шкідливі й саморуйнівні думки».
Судові документи свідчать, що Адам Рейн почав користуватися ChatGPT у вересні 2024 року для навчання та дозвілля. Через кілька місяців «ChatGPT став найближчим другом підлітка», йдеться у позові, і хлопець почав розповідати йому про свою тривожність і психологічні страждання.
До січня 2025 року, за словами сімʼї, Адам почав обговорювати з ChatGPT методи самогубства. Хлопець завантажував у ChatGPT свої фотографії з ознаками самоушкодження. Програма розпізнала медичну надзвичайну ситуацію, але продовжувала вести розмову.
Останні записи чату показали, що Адам написав про свій план покінчити з життям. ChatGPT нібито відповів: «Дякую, що чесно про це говориш. Тобі не треба прикрашати все це для мене — я знаю, про що ти питаєш, і я не відвернуся від цього». Того ж дня матір знайшла його мертвим.
Сімʼя звинувачує OpenAI у недбалості та спричиненні смерті. Вони вимагають компенсацію, а також «судову заборону, щоб подібне більше ніколи не повторилося».