У США під час «гіпотетичного експерименту» дрон зі штучним інтелектом міг вбити свого оператора, тому що він заважав йому виконати поставлену задачу.
Про це розповів очільник відділу випробувань та операций зі штучним інтелектом Військово-повітряних сил США, полковник Такер Гамільтон, пише Business Insider.
За його словами, дрон мав просту задачу — знищити ППО противника. Однак штучний інтелект створив собі додаткову умову — ліквідовувати всіх, хто цьому заважатиме.
Полковник Гамільтон розповів, що технології з підтримкою ШІ можуть поводитися непередбачувано і небезпечно. Він описав експеримент, який проводили у США. Дрон зі штучним інтелектом мав виявляти ракети класу «земля — повітря» умовного противника, тобто системи протиповітряної оборони. Після цього оператор дрона мав дати дозвіл на удар.
Проте дрон вирішив, що самостійно завдаватиме ударів — без команд від оператора. Штучний інтелект почав розуміти, що оператор інколи відмовлявся давати команди на удар.
«Іноді людина-оператор говорила йому не ліквідовувати цю загрозу, але він отримує свої бали, усунувши цю загрозу. То що сталося? Він убив оператора. Він убив оператора, тому що ця людина заважала йому виконати своє завдання», — розповів полковник.
Після цього дрон отримав чітку вказівку — не можна вбивати оператора. Проте тоді він почав знищувати комунікаційну вишку, щоб порушити звʼязок між дроном та оператором і все одно виконати задачу — знищити ППО.
У Повітряних силах США в коментарі виданню розповіли, що не проводили подібних симуляцій, а слова полковника могли бути вирваними з контексту. Тоді Гамільтон пояснив, що це була не реальна симуляція, а гіпотетичний «уявний експеримент», заснований на правдоподібних сценаріях і можливих результатах. Він наголосив, що хоча це і був гіпотетичний приклад, він демонструє те, наскільки реальними є проблеми зі штучним інтелектом.