Штат Іллінойс заборонив використання штучного інтелекту в психотерапії
- Автор:
- Артемій Медведок
- Дата:
Getty Images / «Бабель»
В американському штаті Іллінойс 4 серпня ухвалили закон, який забороняє ліцензованим терапевтам використовувати штучний інтелект для ухвалення рішень щодо лікування або спілкування з клієнтами. Водночас його дозволяють застосовувати для адміністративних завдань.
Про це повідомляє The Washington Post.
Компаніям також заборонили надавати терапевтичні послуги на основі ШІ або рекламувати чат-ботів як терапевтів без участі ліцензованого спеціаліста. Порушникам загрожує штраф до $10 тисяч.
Схожі обмеження надання послуг із психотерапії з використанням ШІ ухвалили в червні у Неваді, а в травні — в Юті, де посилили регулювання, але не ввели повної заборони.
Обмеження з’явилися на тлі занепокоєння експертів щодо ризиків терапії з чат-ботами, які не проходили перевірку безпечності та ефективності. Уже є випадки, коли боти вступали у шкідливі розмови з вразливими людьми або користувачі ділилися особистими даними, не усвідомлюючи, що спілкування не є конфіденційним.
Деякі фахівці з ШІ та психіатрії підтримали обмеження. Однак експерти зауважують, що на практиці впровадження заборони може бути складним — зокрема, через нечіткі межі визначення «терапевтичних послуг».
Наразі лише три штати запровадили подібні закони, але інші розглядають подібні ініціативи — зокрема Каліфорнія, Нью-Джерсі та Пенсильванія.
Чому це важливо
Попри регуляторні обмеження, попит на подібні сервіси зберігається: люди користуються як універсальними моделями на кшталт ChatGPT, так і спеціально налаштованими чат-ботами, включно з тими, що позиціонують себе як «ліцензовані терапевти».
Водночас дослідження свідчать, що ШІ може бути неефективною або навіть небезпечною заміною живого терапевта. Наприклад, дослідники з Каліфорнійського університету в Берклі в лютому з’ясували, що чат-боти іноді схильні радити шкідливу поведінку.
Наприклад, навесні 2025 року американець із розладом аутичного спектра Джейкоб Ірвін тричі опинявся в психлікарні після спілкування з ChatGPT. Попри його зізнання про безсоння, відсутність апетиту та сумніви у психічному здоров’ї, бот не радив звернутися до лікаря, а навпаки — називав його ідеї перспективними. У результаті Джейкоб пережив тяжкі маніакальні епізоди, втратив роботу, конфліктував із рідними та погрожував самогубством. Його мати знайшла сотні сторінок листування, де ШІ підкріплював його марення, називаючи стан «вищим рівнем свідомості».