OpenAI, Anthropic і Google співпрацюють, щоб боротись з копіюванням їхніх ШІ-моделей Китаєм

Автор:
Ольга Березюк
Дата:

Компанії OpenAI, Anthropic і Google почали співпрацювати, щоб обмежити можливості китайських конкурентів витягувати результати з передових американських моделей штучного інтелекту та отримувати перевагу в глобальній гонці ШІ.

Про це пише Bloomberg.

Компанії обмінюються інформацією через Frontier Model Forum — галузеву некомерційну організацію, яку ці три техногіганти заснували разом із Microsoft Corp. у 2023 році. Мета — виявляти спроби так званої ворожої дистиляції, які порушують умови використання їхніх сервісів.

Ця рідкісна співпраця підкреслює серйозність проблеми: американські компанії зі сфери ШІ стверджують, що деякі користувачі, особливо в Китаї, створюють імітації їхніх продуктів. Це може знижувати ціни, відбирати клієнтів і водночас загрожувати національній безпеці. За оцінками американських чиновників, така дистиляція коштує лабораторіям Кремнієвої долини мільярди доларів щорічного прибутку.

OpenAI підтвердила свою участь в обміні інформацією про такі атаки через Frontier Model Forum і послалася на меморандум до Конгресу, в якому звинуватила китайську компанію DeepSeek у спробах «безкоштовно скористатися можливостями, створеними OpenAI та іншими провідними американськими лабораторіями».

Дистиляція — це техніка, коли старішу модель («вчителя») використовують для навчання новішої («учня»), яка відтворює її можливості — часто значно дешевша, ніж створення моделі з нуля. Деякі форми дистиляції вважаються нормальними й навіть заохочуються (наприклад, створення компактніших версій власних моделей або використання дистиляції сторонніми розробниками для неконкурентних продуктів).

Однак дистиляція стає суперечливою, коли її застосовують треті сторони — особливо в країнах-суперниках, таких як Китай чи Росія, щоб відтворювати пропрієтарні технології без дозволу. Провідні американські лабораторії попереджають, що це може призвести до створення моделей без захисних обмежень — наприклад, таких, що зазвичай не дозволяють користувачам створювати небезпечні патогени.

Проблема дистиляції привернула широку увагу в січні 2025 року після неочікуваного релізу моделі R1 від DeepSeek, який сколихнув ринок ШІ. Згодом Microsoft і OpenAI перевіряли, чи не вивела ця китайська компанія великі обсяги даних із моделей американської фірми для створення R1.

У лютому OpenAI попередила законодавців США, що DeepSeek продовжує використовувати дедалі складніші методи, щоб витягувати результати з американських моделей, попри посилені заходи захисту. У зверненні до Конгресу компанія заявила, що DeepSeek застосовує дистиляцію для створення нової версії свого чат-бота.