Лабораторія досліджень штучного інтелекту OpenAI викрила й ліквідувала облікові записи, що були пов’язані з операціями таємного впливу з використанням її технологій ШІ. Операціями керували як державні структури, так і приватні компанії в росії, Китаї, Ірані та Ізраїлі.
Про це йдеться у звіті OpenAI.
Для кампаній впливу використовувалася технологія OpenAI, за допомогою якої створювали публікації в соціальних мережах, перекладали й редагували статті, писали заголовки та налаштовували комп’ютерні програми.
Росія
Кампанію впливу з росії OpenAI назвала Bad Grammar. Вона діяла переважно в Telegram і була спрямована на Україну, Молдову, країни Балтії та Сполучені Штати. Люди, які стоять за Bad Grammar, використовували моделі ШІ OpenAI для створення коду для запуску бота Telegram і написання коротких політичних коментарів російською та англійською мовами, які потім публікували в Telegram. Усі вони були безграмотні, тому кампанію і назвали Bad Grammar (у перекладі «Погана граматика»).
Ще одна операція впливу з росії називається Doppelganger. Її учасники використовували ШІ для створення антиукраїнських коментарів англійською, французькою, німецькою, італійською та польською мовами, які публікували на X і 9GAG; перекладу і редагування статей англійською та французькою мовами; перетворення антиукраїнських новинних статей на дописи у Facebook.
Китай
Китайська мережа, відома як Spamouflage, використовувала моделі ШІ OpenAI для дослідження публічної активності в соціальних мережах, створення текстів різними мовами, включаючи китайську, англійську, японську та корейську, які потім публікувалися на X, Medium і Blogspot.
Іран
Іранська кампанія, пов’язана з групою під назвою «Міжнародний союз віртуальних медіа», використовувала інструменти OpenAI, щоб створювати й перекладати довгі статті, спрямовані на поширення проіранських, антиізраїльських і антиамериканських настроїв на вебсайтах.
Ізраїль
Ізраїльську кампанію, яку OpenAI назвала Zeno Zeno, проводила компанія, яка зазвичай управляє політичними кампаніями. Zeno Zeno використовувала ШІ для створення вигаданих персонажів і біографій, призначених для заміни реальних людей у соціальних мережах.
OpenAI запевняє, що жодна із цих кампаній впливу не досягла значних результатів завдяки використанню штучного інтелекту.
За словами дослідників соціальних мереж, як передає The New York Times, вперше велика компанія зі штучного інтелекту розкрила те, як її спеціальні інструменти використовувалися для такого онлайн-обману.