Агентство із захисту даних Італії оштрафувало компанію-власницю ChatGPT OpenAI на €15 мільйонів, а ще — зобовʼязало провести 6-місячну кампанію в італійських медіа, щоб підвищити обізнаність людей про роботу ChatGPT, зокрема про збір даних користувачів для навчання алгоритмів.
Про це передає Reuters.
Італійська влада виявила, що OpenAI обробляла особисті дані користувачів для «навчання ChatGPT без належної правової підстави і порушувала принцип прозорості та відповідні інформаційні зобов’язання перед користувачами».
Зі свого боку, OpenAI вважає рішення регулятора «непропорційним» і подаватиме апеляцію на нього. Однак регулятор заявив, що суму штрафу в €15 мільйонів визначили з урахуванням «позиції співпраці» OpenAI, і припустив, що сума могла бути й більшою.
Розслідування, розпочате у 2023 році, дійшло висновку, що американська компанія не мала належної системи перевірки віку й не запобігала тому, щоб діти віком до 13 років не натрапляли на неприйнятний контент, створений штучним інтелектом.
Загальний регламент захисту даних у ЄС, який запровадили у 2018 році, передбачає, що будь-яка компанія, що порушила правила, платитиме штраф у сумі до €20 мільйонів, або 4% від її глобального обороту.