OpenAI зняла заборону на використання штучного інтелекту у військових цілях

Автор:
Олександра Амру
Дата:

Компанія OpenAI змінила політику ChatGPT, фактично дозволивши використовувати свої технології у військових цілях.

Про це повідомляє видання Intercept.

До 10 січня 2024 року сторінка «Політики використання» OpenAI містила пункт про заборону на використання штучного інтелекту для «діяльності, яка має високий ризик фізичної шкоди». Це положення запобігало, зокрема, застосуванню технологій для «розробки зброї» та «у військовій справі».

Оновлена політика зберігає заборону на використання послуг Open AI, «щоб завдати шкоди собі чи іншим» — цей пункт досі не дозволяє застосовувати ШІ для «розробки зброї», втім, загальна заборона на використання «у військовій справі» зникла.

За словами компанії, політику переписали для того, щоб зробити документ «чіткішим» і «читабельнішим», нова редакція містить багато інших істотних змін у формулюванні.

«Принцип «не нашкодь іншим» є широким, але легкозрозумілим у багатьох контекстах. Крім того, ми конкретно навели як яскраві приклади розробку зброї та поранення інших», — сказала OpenAI виданню.

Представник компанії Ніко Фелікс відмовився сказати, чи охоплює така розмита заборона на «нанесення шкоди іншим» будь-яке використання Chat GPT у військових цілях, зазначивши: «Компанія забороняє, зокрема й військовим, будь-яке застосування технологій для розробки або використання зброї, завдання поранень іншим, знищення чиєїсь власності або вчинення несанкціонованих дій, що порушують безпеку будь-якої служби чи системи».

Технології OpenAI досі не можна використовувати для прямого вбивства, зокрема й у військових цілях. Наприклад, ChatGPT не може маневрувати безпілотниками чи запускати ракету.

Проте існує значна кількість суміжних завдань, де можна застосувати ChatGPT та інші мовні моделі: наприклад, написання коду чи обробка замовлень у держзакупівлях.

Американські військові вже послуговуються ШІ-технологіями для документообігу, а Національне агентство геопросторової розвідки навіть не приховує використання ChatGPT для допомоги своїм аналітикам.

Експерти вважають, що OpenAI потроху змінює свою позицію проти ведення бізнесу з військовими.

До того ж, Microsoft, яка є великим оборонним підрядником, вже інвестувала в OpenAI $13 мільярдів і активно використовує програмні інструменти компанії.

Військові по всьому світу прагнуть застосовувати методи машинного навчання, щоб отримати перевагу.

Пентагон досі розмірковує, чим йому можуть бути корисними ChatGPT та інші великі мовні моделі.

ШІ навчаються на неосяжному масиві книг, статей та інших вебданих. І хоча відповіді таких мовних моделей, як ChatGPT, здебільшого надзвичайно переконливі, їхні формулювання пристосовані для загального розуміння, але не для твердого усвідомлення реальності. Тож результати, які надає штучний інтелект, часто страждають від так званих галюцинацій, коли точність під великим питанням.

Утім, здатність мовних моделей швидко обробляти інформацію або принаймні симулювати аналіз, робить їх надзвичайно привабливими для оборонних відомств, навантажених даними.

У Пентагоні вже пролунало занепокоєння тенденцією мовних моделей давати у відповідях явні фактичні помилки й інші викривлення, а також ризиками для безпеки, які можуть виникнути з використанням ChatGPT для аналізу секретних даних.

Водночас Пентагон як і раніше прагне використовувати інструменти штучного інтелекту. Про це в листопаді минулого року заявила заступниця міністра оборони Кетлін Гікс.

«Штучний інтелект є ключовою частиною комплексного підходу до інновацій, орієнтованого на бійця, який ми з міністром оборони Ллойдом Остіном розвиваємо від самого початку», — заявила Гікс.

Утім, вона попередила, що більшість сучасних пропозицій «ще технічно недостатньо зрілі, щоб відповідати нашим вимогам та етичним принципам».