У 2023 році американець Роберто Мата подав судовий позов до авіакомпанії Avianca Inc. Він стверджував, що у 2019 році на рейсі компанії його вдарили в коліно візком для сервірування, і відтоді в нього проблеми зі здоровʼям. Юристи Avianca відповіли, що, може, так воно й було, але минуло декілька років, і строк давності по справі вже сплив. Тому справу треба закривати.
Інтереси Мати захищає нью-йоркська юридична компанія Levidow, Levidow & Oberman. Один із його адвокатів Стівен А. Шварц, юрист із тридцятирічним досвідом, зібрав судові рішення у схожих справах
Зрештою в четвер, 25 травня, Стівен Шварц зізнався, що вирішив пошукати прецеденти за допомогою ChatGPT. Штучний інтелект підготував документи, які виглядали цілком правдиво. Але вигадав не лише самі справи, але й численні посилання на різні джерела в них. І навіть посилався на реальних суддів різних судів, які ці справи нібито розглядали.
Getty Images / «Бабель»
Шварц пояснив, що ніколи раніше не користувався нейромережами і чат-ботами, тому не знав, що вони можуть видавати неправдиву інформацію. А ще він питав у ChatGPT, чи дійсно він посилається на реальні справи. І той відповів, що все в порядку.
Поки що не відомо, що буде далі з карʼєрою Шварца — суддя Кастель зізнався, що вперше потрапив у таку ситуацію, і треба подумати. Долю юриста вирішуватимуть 8 червня. Але цей випадок уже сколихнув юристів у США. Професор юридичної етики в Школі права Нью-йоркського університету Стівен Гіллерс каже, що це зараз головна тема для обговорень серед його колег, і в юридичних компаніях за цим починають спостерігати.
На початку квітня 2023 року «жертвою» ChatGPT став інший професор права — Джонатан Терлі з юридичного факультету Університету Джорджа Вашингтона. Його колега Юджин Волох із Каліфорнії проводив дослідження і запитав у ChatGPT приклади американських правознавців, яких коли-небудь звинувачували в сексуальних домаганнях. У цьому списку він побачив прізвище Терлі. Чат-бот стверджував, що у 2018 році професор робив непристойні пропозиції своїй студентці під час навчальної поїздки на Аляску. І посилався на статтю The Washington Post.
Юрист-дослідник не зміг знайти статті, тому повідомив Терлі про цей випадок. У The Washington Post кажуть, що такої статті в них взагалі ніколи не було. А Терлі стверджує, що не було не тільки історії з непристойними пропозиціями, але й загалом поїздки на Аляску, чат-бот її просто вигадав.
Професор Терлі — відома людина в США. Його запрошували експертом на слухання щодо імпічментів Біллу Клінтону й Дональду Трампу, він часто коментує правові питання в медіа. Але навіть він зізнається, що нічого не може зробити з наклепами від штучного інтелекту, адже немає журналіста чи редактора, якому можна подзвонити й вимагати спростування.
Судових справ проти OpenAI за те, що їхній чат-бот видає неправдиву інформацію, ще немає. Але скоро перша така справа може зʼявитися. Навесні 2023 року Браян Гуд, мер австралійського самоврядного району Хепберн-Шир, виявив, що якщо запитати в ChatGPT, хто він такий, то чат-бот розповість, що Браян Гуд — корупціонер, який відсидів 30 місяців у вʼязниці за те, що брав хабарі.
Браян Гуд
Getty Images / «Бабель»
Гуд дійсно був дотичний до корупційних справ, але як викривач та інформатор. У 2005 році Гуд був секретарем Notes Printing Australia, дочірньої компанії Резервного банку Австралії. Він допоміг правоохоронцям викрити шахрайські схеми у фінансовій системі Австралії та провести розслідування, яке у 2010 році призвело до масових арештів. Гуда ніколи не заарештовували, і в цій справі він був лише свідком. Але чат-бот записав його до злочинців.
«Я гадаю, що це досить серйозний тривожний сигнал. Систему зображують як таку, що заслуговує на довіру, що вона інформативна й авторитетна, але це очевидно не так», — каже Гуд про роботу ChatGPT.
У квітні 2023 року адвокати Гуда відправили OpenAI офіційне повідомлення зі скаргою. Якщо розробники ChatGPT не відреагують, то Гуд зможе подати до суду за наклеп і вимагати відшкодування. Він не знає точної кількості людей, які отримали неправдиву інформацію про нього, але сума позову може перевищувати $130 тисяч.
Професорка Університету Південної Каліфорнії Кейт Кроуфорд, якій ChatGPT якось навигадував наукових робіт і статей, яких вона ніколи не писала, називає такі помилки чат-ботів «галюцитаціями». Штучний інтелект нічого не вигадує сам, він лише цитує, генерує реалістичні відповіді на основі статистичної моделі, що містить безліч прикладів тексту з усього інтернету. Тому в нього не може бути справжніх галюцинацій, він просто помилково змішує факти, прізвища, дати й різні події в одному тексті.
«Хоча їхні відповіді часто звучать авторитетно, моделі не мають надійних механізмів перевірки того, що вони кажуть. Користувачі опублікували безліч прикладів того, як інструменти заплуталися в основних фактичних питаннях або навіть сфабрикували брехню, доповнену реалістичними деталями та фальшивими цитатами», — каже професор інформатики Принстонського університету Арвін Нараянан.
Це проблема всіх подібних програм. Інколи так помиляється і платна покращена версія ChatGPT, і Google Bard, і інші їхні «колеги». Як такі справи будуть вирішуватися в судах у майбутньому, поки що сказати складно. У США, наприклад, з 1996 року діє федеральний закон «Розділ 230», який захищає інтернет-майданчики від відповідальності за інформацію, що розмістили на них треті особи. Тобто звичайні пошуковики не відповідають за щось, що ви через них знайдете і побачите. Але як цю норму інтерпретувати у випадку, коли ШІ сам генерує цю інформацію, — поки що ніхто не знає.
ChatGPT на запитання, чому він інколи видає неправдиву інформацію, відповідає так:
«Це відбувається тому, що ChatGPT прочитав стільки різних речей, що іноді він плутається, що саме має сказати. Це схоже на ваші сни, у яких речі не завжди мають сенс. Це не реально, але все ще у вашій голові».
Фактчекінг — все ще суто людська справа. Тому варто підтримувати незалежну журналістику: 🔸 у гривні🔸 у криптовалюті🔸 Patreon🔸 PayPal: [email protected]