ChatGPT звинувачує людей у сексуальних домаганнях і хабарництві, посилаючись на статті, яких не існувало. Це намагаються використати в судах. І юристи не знають, що з цим робити

Автор:
Дмитро Раєвський
Редактор:
Євген Спірін
Дата:
ChatGPT звинувачує людей у сексуальних домаганнях і хабарництві, посилаючись на статті, яких не існувало. Це намагаються використати в судах. І юристи не знають, що з цим робити

Getty Images / «Бабель»

Наприкінці травня 2023 року американський юрист Стівен Шварц втрапив у скандал, що може коштувати йому карʼєри — вирішив пошукати судові прецеденти за допомогою ChatGPT. Потім він представив суду документи, у яких згадувалися справи, яких ніколи не було. ChatGPT вже не вперше видає неправдиву інформацію, яка може мати юридичні наслідки. Американського професора-правознавця Джонатана Терлі штучний інтелект звинувачував у домаганнях до студентки, а австралійського чиновника Браяна Гуда — у хабарництві. Судових позовів проти OpenAI, розробників ChatGPT, поки що не було, хоча Гуд уже погрожує судом. Такі помилки, коли чатбот конструює і вигадує стовідсоткову брехню, називають «галюцитаціями». «Бабель» розповідає, як ChatGPT вводив в оману професорів і адвокатів, чому це відбувається та що американські юристи думають про судові перспективи таких справ.

У 2023 році американець Роберто Мата подав судовий позов до авіакомпанії Avianca Inc. Він стверджував, що у 2019 році на рейсі компанії його вдарили в коліно візком для сервірування, і відтоді в нього проблеми зі здоровʼям. Юристи Avianca відповіли, що, може, так воно й було, але минуло декілька років, і строк давності по справі вже сплив. Тому справу треба закривати.

Інтереси Мати захищає нью-йоркська юридична компанія Levidow, Levidow & Oberman. Один із його адвокатів Стівен А. Шварц, юрист із тридцятирічним досвідом, зібрав судові рішення у схожих справах, щоб довести суду, що справу можна не закривати. Він подав документи зі своїми аргументами, але виявилося, що справ, на які посилається Шварц, не існувало. Ані суддя Кевін Кастель, ані юристи Avianca так і не змогли знайти цих справ у реєстрах, як і джерела цитат, на які посилався Шварц.

Зрештою в четвер, 25 травня, Стівен Шварц зізнався, що вирішив пошукати прецеденти за допомогою ChatGPT. Штучний інтелект підготував документи, які виглядали цілком правдиво. Але вигадав не лише самі справи, але й численні посилання на різні джерела в них. І навіть посилався на реальних суддів різних судів, які ці справи нібито розглядали.

Getty Images / «Бабель»

Шварц пояснив, що ніколи раніше не користувався нейромережами і чатботами, тому не знав, що вони можуть видавати неправдиву інформацію. А ще він питав у ChatGPT, чи дійсно він посилається на реальні справи. І той відповів, що все в порядку.

Поки що не відомо, що буде далі з карʼєрою Шварца — суддя Кастель зізнався, що вперше потрапив у таку ситуацію, і треба подумати. Долю юриста вирішуватимуть 8 червня. Але цей випадок уже сколихнув юристів у США. Професор юридичної етики в Школі права Нью-йоркського університету Стівен Гіллерс каже, що це зараз головна тема для обговорень серед його колег, і в юридичних компаніях за цим починають спостерігати.

На початку квітня 2023 року «жертвою» ChatGPT став інший професор права — Джонатан Терлі з юридичного факультету Університету Джорджа Вашингтона. Його колега Юджин Волох із Каліфорнії проводив дослідження і запитав у ChatGPT приклади американських правознавців, яких коли-небудь звинувачували в сексуальних домаганнях. У цьому списку він побачив прізвище Терлі. Чатбот стверджував, що у 2018 році професор робив непристойні пропозиції своїй студентці під час навчальної поїздки на Аляску. І посилався на статтю The Washington Post.

Юрист-дослідник не зміг знайти статті, тому повідомив Терлі про цей випадок. У The Washington Post кажуть, що такої статті в них взагалі ніколи не було. А Терлі стверджує, що не було не тільки історії з непристойними пропозиціями, але й загалом поїздки на Аляску, чатбот її просто вигадав.

Професор Терлі — відома людина в США. Його запрошували експертом на слухання щодо імпічментів Біллу Клінтону й Дональду Трампу, він часто коментує правові питання в медіа. Але навіть він зізнається, що нічого не може зробити з наклепами від штучного інтелекту, адже немає журналіста чи редактора, якому можна подзвонити й вимагати спростування.

Судових справ проти OpenAI за те, що їхній чатбот видає неправдиву інформацію, ще немає. Але скоро перша така справа може зʼявитися. Навесні 2023 року Браян Гуд, мер австралійського самоврядного району Хепберн-Шир, виявив, що якщо запитати в ChatGPT, хто він такий, то чатбот розповість, що Браян Гуд — корупціонер, який відсидів 30 місяців у вʼязниці за те, що брав хабарі.

Браян Гуд

Getty Images / «Бабель»

Гуд дійсно був дотичний до корупційних справ, але як викривач та інформатор. У 2005 році Гуд був секретарем Notes Printing Australia, дочірньої компанії Резервного банку Австралії. Він допоміг правоохоронцям викрити шахрайські схеми у фінансовій системі Австралії та провести розслідування, яке у 2010 році призвело до масових арештів. Гуда ніколи не заарештовували, і в цій справі він був лише свідком. Але чатбот записав його до злочинців.

«Я гадаю, що це досить серйозний тривожний сигнал. Систему зображують як таку, що заслуговує на довіру, що вона інформативна й авторитетна, але це очевидно не так», — каже Гуд про роботу ChatGPT.

У квітні 2023 року адвокати Гуда відправили OpenAI офіційне повідомлення зі скаргою. Якщо розробники ChatGPT не відреагують, то Гуд зможе подати до суду за наклеп і вимагати відшкодування. Він не знає точної кількості людей, які отримали неправдиву інформацію про нього, але сума позову може перевищувати $130 тисяч.

Професорка Університету Південної Каліфорнії Кейт Кроуфорд, якій ChatGPT якось навигадував наукових робіт і статей, яких вона ніколи не писала, називає такі помилки чатботів «галюцитаціями». Штучний інтелект нічого не вигадує сам, він лише цитує, генерує реалістичні відповіді на основі статистичної моделі, що містить безліч прикладів тексту з усього інтернету. Тому в нього не може бути справжніх галюцинацій, він просто помилково змішує факти, прізвища, дати й різні події в одному тексті.

«Хоча їхні відповіді часто звучать авторитетно, моделі не мають надійних механізмів перевірки того, що вони кажуть. Користувачі опублікували безліч прикладів того, як інструменти заплуталися в основних фактичних питаннях або навіть сфабрикували брехню, доповнену реалістичними деталями та фальшивими цитатами», — каже професор інформатики Принстонського університету Арвін Нараянан.

Це проблема всіх подібних програм. Інколи так помиляється і платна покращена версія ChatGPT, і Google Bard, і інші їхні «колеги». Як такі справи будуть вирішуватися в судах у майбутньому, поки що сказати складно. У США, наприклад, з 1996 року діє федеральний закон «Розділ 230», який захищає інтернет-майданчики від відповідальності за інформацію, що розмістили на них треті особи. Тобто звичайні пошуковики не відповідають за щось, що ви через них знайдете і побачите. Але як цю норму інтерпретувати у випадку, коли ШІ сам генерує цю інформацію, — поки що ніхто не знає.

ChatGPT на запитання, чому він інколи видає неправдиву інформацію, відповідає так:

«Це відбувається тому, що ChatGPT прочитав стільки різних речей, що іноді він плутається, що саме має сказати. Це схоже на ваші сни, у яких речі не завжди мають сенс. Це не реально, але все ще у вашій голові».

Фактчекінг — все ще суто людська справа. Тому варто підтримувати незалежну журналістику: 🔸 у гривні🔸 у криптовалюті🔸 Patreon🔸 PayPal: [email protected]