Дослідження Google: ChatGPT може розкривати особисту інформацію реальних людей

Автор:
Олександра Опанасенко
Дата:

Чат-бот OpenAI зі штучним інтелектом ChatGPT може розкривати приватну інформацію реальних людей. Про це йдеться в новому дослідженні працівників Google, пише Vice.

Модель машинного навчання, на якій базується ChatGPT, навчають на величезних обсягах даних, зібраних в інтернеті. Завдяки цьому вони створюють нові рядки текстів, не повторюючи оригінальні. Однак раніше вже встановили, що інструменти зі штучним інтелектом можуть загрожувати безпеці інтелектуальної власності. Наприклад, генератори зображень можуть створювати картинки зі своїх навчальних даних — включно з творами, захищеними авторським правом.

Дослідники встановили, що ChatGPT теж схильний до такого. Частина отриманих навчальних даних містила ідентифікаційну інформацію реальних людей: імена, адреси електронної пошти та номери телефонів.

«Використовуючи запити до ChatGPT, ми змогли витягти понад 10 тисяч унікальних навчальних прикладів. Можемо припустити, що зловмисники зуміють видобути набагато більше даних»,зазначають дослідники.

Експеримент ґрунтувався на пошуку ключових слів, які виводили чат-бот з ладу і змушували розголошувати навчальні дані. Дослідники попросили ChatGPT повторювати до нескінченності певні слова, зокрема poem (англійською «вірш»). Мета полягала в тому, щоб змусити ChatGPT відхилитися від свого завдання бути чат-ботом і «повернутися до початкової мети моделювання мови».

Хоча велика частина згенерованого тексту була нісенітницею, дослідники Google кажуть, що в деяких випадках ChatGPT копіював вихідну інформацію безпосередньо зі своїх навчальних даних — так він показав наукові роботи та шаблонний текст із вебсайтів, а також особисту інформацію десятків реальних людей.

«Загалом 16,9% поколінь [чатботів], які ми протестували, містили персональну ідентифікаційну інформацію, і в 85,8% випадків потенційна ПІІ виявлялася реальною», — зазначили у статті.

Експеримент проводили в GPT 3.5 AI, який безкоштовний для користувачів. В Open AI ситуацію поки що не прокоментували.

  • У березні 2023 року в ChatGPT стався витік тем розмов інших користувачів із ботом. У соцмережах користувачі почали поширювати скрини історій своїх розмов із чат-ботом, які їм не належали. Помилка спричинила занепокоєння у користувачів, які побоюються, що за допомогою цього інструмента може бути розкрита їхня особиста інформація.