OpenAI розпустила команду, яка займалась усуненням ризиків від штучного інтелекту

Автор:
Олександра Амру
Дата:

Команда з оцінки й усунення ризиків від штучного інтелекту американської технологічної компанії OpenAI, розробника чат-бота Chat GPT, розпадається.

Про це повідомляє Wired.

Ще в липні 2023 року OpenAI оголосила про створення дослідницької групи, яка готуватиметься до появи надрозумного штучного інтелекту, здатного перехитрити та здолати навіть своїх творців. Керівником цієї команди мав стати головний науковий співробітник і один із засновників OpenAI Ілля Суцкевер.

Тепер цієї групи більше немає, розпад підтверджує і компанія. Це сталося після відставки Суцкевера, про яку стало відомо два дні тому, звільнення іншого керівника команди Яна Лайке і відходу з компанії кількох інших залучених фахівців. Ані Суцкевер, ані Лайке про причину звільнення не повідомили.

Дослідників Леопольда Ашенбреннера та Павла Ізмайлова звільнили минулого місяця за розголошення секретів компанії, а Вільям Сондерс покинув OpenAI ще в лютому.

Суцкевер, оголошуючи про свою відставку, заявив, що «траєкторія розвитку компанії була дивовижною» і він «впевнений, що під нинішнім керівництвом OpenAI створить безпечний і корисний AGI [сильний штучний інтелект]».

Дослідник OpenAI Деніел Кокотайло, який є співавтором кількох статей про небезпеку потужніших моделей штучного інтелекту, написав, що «залишає OpenAI, оскільки втрачає впевненість у тому, що поводитиметься відповідально під час випробувань AGI».

Команда з дослідження й усунення ризиків була не єдиною, яка розмірковувала над питанням про те, як тримати штучний інтелект під контролем.

Оголошуючи про створення цієї групи минулого літа, OpenAI заявила, що «наразі не має рішення для управління або керування потенційно суперсильним штучним інтелектом і запобігання його виходу з ладу».

OpenAI часто запевнює, що так званий загальний штучний інтелект, або сильний штучний інтелект, — це безпечна розробка, яка конкурує з людиною або навіть перевершує її. Водночас Суцкевер та інші керівники компанії наголошували на необхідності діяти обережно.

Відтоді як політики по всьому світі взялися за регулювання штучного інтелекту на законодавчому рівні, загальна напруга щодо його небезпеки дещо охолола. Утім, потреба в регулюванні штучного інтелекту досі залишається нагальною темою для обговорень.

Відхід кількох топових фахівців і керівників OpenAI відбувся незабаром після виходу покращеної моделі чат-боту ChatGPT — GPT-4о, яка дозволяє ChatGPT бачити світ і спілкуватися в більш природній, людський спосіб. Нова версія імітує людські емоції та навіть намагається фліртувати з користувачами.