Новини

Нейромережа ChatGPT відтепер доступна в Україні

Автор:
Ангеліна Шеремет
Дата:

В Україні відтепер доступний чат-бот зі штучним інтелектом ChatGPT, на окупованих територіях він не працюватиме.

Про це 18 лютого повідомив міністр цифрової трансформації Михайло Федоров.

«Нарешті нам вдалося виправити несправедливість. Україну вилучили зі списку країн, у яких заблоковано ChatGPT. Програма не працюватиме лише на тимчасово окупованих росією територіях, щоб вороги не використовували її для антиукраїнської пропаганди. Адже ChatGPT добре володіє українською, на відміну від росіян», — повідомив Федоров.

Браузер не підтримує відео

ChatGPT

Нейромережа ChatGPT може видавати базовий програмний код, генерувати фінансовий аналіз, вигадувати персонажа, давати поради та відповідати на запитання. Також вона може розуміти природну людську мову та генерувати деталізований письмовий текст. Новий штучний інтелект є найновішим чат-ботом від дослідницького фонду OpenAI, який заснував Ілон Маск.

Систему розробили для надання інформації та відповідей на запитання через розмовний інтерфейс. Штучний інтелект навчається на величезній вибірці текстів, який берез з інтернету. Фонд OpenAI заявив, що ChatGPT створили з акцентом на простоту використання.

Перші користувачі описували технологію ChatGPT як альтернативу Google, оскільки вона здатна надавати описи, рішення та відповіді на складні запитання. Сем Альтман, генеральний директор OpenAI, сказав, що система є «ранньою демонстрацією того, що можливо». «Незабаром у вас зʼявляться корисні помічники, які спілкуватимуться з вами, відповідатимуть на запитання та дадуть поради. Пізніше ви можете мати щось, що вимикається та виконує завдання за вас».

Однак на нинішньому етапі чат-боту бракує нюансів, навичок критичного мислення чи здатності приймати етичні рішення. Його поточна «база знань» закінчується у 2021 році, що робить деякі запити та пошуки марними. ChatGPT також може давати абсолютно неправильні відповіді та видавати дезінформацію за факт, визнає компанія OpenAI.

Фонд каже, що виправити цю проблему складно, тому що в даних, які вони використовують для навчання моделі, немає джерела істини, а контрольоване навчання теж може вводити в оману, тому що ідеальна відповідь залежить від того, що знає модель, а не від того, що знає людина-демонстратор.