OpenAI не повністю зняла обмеження для військового використання ChatGPT, а послабила їх

Автор:
Софія Телішевська
Дата:

Лабораторія досліджень штучного інтелекту OpenAI послабила обмеження на військове застосування ChatGPT. У неоголошеному оновленні політики використання ШІ скасували широку заборону на використання технології для «військових справ», однак новий текст все ще забороняє використовувати служби OpenAI для розробки зброї, травмування людей або знищення майна. Про це повідомляє Business Insider.

Нова політика використання OpenAI тепер включає такий принцип, як «Не завдавай шкоди іншим» — широкий у застосуванні, легко зрозумілий і актуальний у багатьох контекстах. Також перелік містить заборону конкретних випадків, як-от розробка або використання зброї.

Деякі експерти зі штучного інтелекту стурбовані тим, що оновлена політика OpenAI надто узагальнена, особливо з огляду на те, що технологія штучного інтелекту вже використовується під час конфлікту в Газі.

Ізраїльські військові заявили, що використовували штучний інтелект для визначення цілей для бомбардування на території Палестини. Експерти відзначають, що оновлена політика все ще досить розпливчаста і залежна від трактування. Також є питання, як компанія збирається забезпечувати її виконання.

OpenAI не розкриває мети оновлення політики використання, але є припущення, що зміни потенційно можуть відкрити двері для майбутніх контрактів із військовими.

Представник OpenAI каже, що існують випадки використання ШІ стосовно питань національної безпеки, які відповідають місії компанії, що частково й призвело до змін. Наприклад, OpenAI уже співпрацює з Агентством перспективних оборонних досліджень, «щоб стимулювати створення нових інструментів кібербезпеки для захисту програмного забезпечення з відкритим кодом, від якого залежить критична інфраструктура та галузі».