Європейська служба захисту конфіденційності створює робочу групу з ChatGPT, щоб розробити спільні правила конфіденційності для штучного інтелекту в ЄС.
Про це пише Reuters.
Учасники організації, яка обʼєднує європейські національні органи захисту конфіденційності, хочуть узгодити свої політичні позиції щодо ChatGPT, але не збираються карати чи якось впливати на компанію OpenAI.
Натомість робоча група з ChatGPT має створити «прозору політику» з використання штучного інтелекту в Європейському Союзі.
- Наприкінці березня Італія заборонила доступ до ChatGPT через проблеми з конфіденційністю. За кілька днів до цього ChatGPT порушив приватність даних розмов користувачів і платіжної інформації людей, які купили платну версію чат-бота.
- Пізніше Канада почала розслідування проти компанії-розробника ChatGPT. Процес розпочали у відповідь на скаргу про збір, використання та розкриття особистої інформації без згоди користувачів.
- У квітні Китай вирішив запровадити обовʼязкові перевірки безпеки для сервісів на основі штучного інтелекту.