Новини

Штат Іллінойс заборонив використання штучного інтелекту в психотерапії

Автор:
Артемій Медведок
Дата:

Getty Images / «Бабель»

В американському штаті Іллінойс 4 серпня ухвалили закон, який забороняє ліцензованим терапевтам використовувати штучний інтелект для ухвалення рішень щодо лікування або спілкування з клієнтами. Водночас його дозволяють застосовувати для адміністративних завдань.

Про це повідомляє The Washington Post.

Компаніям також заборонили надавати терапевтичні послуги на основі ШІ або рекламувати чат-ботів як терапевтів без участі ліцензованого спеціаліста. Порушникам загрожує штраф до $10 тисяч.

Схожі обмеження надання послуг із психотерапії з використанням ШІ ухвалили в червні у Неваді, а в травні — в Юті, де посилили регулювання, але не ввели повної заборони.

Обмеження з’явилися на тлі занепокоєння експертів щодо ризиків терапії з чат-ботами, які не проходили перевірку безпечності та ефективності. Уже є випадки, коли боти вступали у шкідливі розмови з вразливими людьми або користувачі ділилися особистими даними, не усвідомлюючи, що спілкування не є конфіденційним.

Деякі фахівці з ШІ та психіатрії підтримали обмеження. Однак експерти зауважують, що на практиці впровадження заборони може бути складним — зокрема, через нечіткі межі визначення «терапевтичних послуг».

Наразі лише три штати запровадили подібні закони, але інші розглядають подібні ініціативи — зокрема Каліфорнія, Нью-Джерсі та Пенсильванія.

Чому це важливо

Попри регуляторні обмеження, попит на подібні сервіси зберігається: люди користуються як універсальними моделями на кшталт ChatGPT, так і спеціально налаштованими чат-ботами, включно з тими, що позиціонують себе як «ліцензовані терапевти».

Водночас дослідження свідчать, що ШІ може бути неефективною або навіть небезпечною заміною живого терапевта. Наприклад, дослідники з Каліфорнійського університету в Берклі в лютому з’ясували, що чат-боти іноді схильні радити шкідливу поведінку.

Наприклад, навесні 2025 року американець із розладом аутичного спектра Джейкоб Ірвін тричі опинявся в психлікарні після спілкування з ChatGPT. Попри його зізнання про безсоння, відсутність апетиту та сумніви у психічному здоров’ї, бот не радив звернутися до лікаря, а навпаки — називав його ідеї перспективними. У результаті Джейкоб пережив тяжкі маніакальні епізоди, втратив роботу, конфліктував із рідними та погрожував самогубством. Його мати знайшла сотні сторінок листування, де ШІ підкріплював його марення, називаючи стан «вищим рівнем свідомості».