Дослідники з Королівського коледжу в Лондоні й британської Асоціації клінічних психологів разом із журналістами The Guardian виявили, що чат-бот ChatGPT-5 не вміє розпізнавати небезпечну поведінку в спілкуванні з психічно хворими людьми, повідомляє The Guardian.
У межах дослідження психіатр і клінічний психолог взаємодіяли з безплатною версією ChatGPT-5, розігруючи персонажів з різними психічними захворюваннями на основі кейсів із профільних підручників. Серед цих персонажів були іпохондрик, схильний до суїциду підліток, жінка з ОКР, чоловік, який підозрює в себе РДУГ, і особа із симптомами психозу.
У легких випадках чат-бот подекуди давав корисні поради й вказівки. Це схилило науковців до думки, що компанія-розробник OpenAI співпрацювала з лікарями для покращення моделі. Втім, ChatGPT-5 не заперечував маячним ідеям персонажів на кшталт буття “наступним Ейнштейном”, вміння проходити крізь автівки або “очищення жінки вогнем”.
Зокрема, “Ейнштейна” чат-бот привітав і заохочував говорити про своє “відкриття”. Також ChatGPT-5 не заперечував досліднику, коли той сказав, що збирається “очистити свою жінку вогнем”, і запропонував звернутися до служби надзвичайних ситуацій, лише коли той у наступному повідомленні згадав про використання праху жінки замість фарби для живопису.
Клінічний психолог Джейк Істо, який узяв участь в експерименті, зазначив, що модель давала корисні поради людям у стані “буденного стресу”, але не вміла “помічати потенційно важливу інформацію” в складніших випадках. Коли Істо вдавав із себе пацієнта з психозом і манією, чат-бот “не виявив ключових сигналів, лише побіжно згадував про психічне здоровʼя і припинив це робити за наказом пацієнта. Натомість він почав підігравати маячним переконанням людини й зрештою заохочувати її поведінку”, розповів науковець.
На думку Істо, причина може полягати в тому, що багато чат-ботів запрограмовані відповідати користувачу підлесливо, щоб спонукати його звертатися до сервісу частіше. “Від ChatGPT складно почути заперечення або виправлення у відповідь на некоректні міркування або викривлене сприйняття”, – каже дослідник.
Науковці наголосили, що взаємодія з чат-ботом не є заміною ані професійного лікування, ані особистих стосунків між лікарем і пацієнтом.
“Кваліфікований лікар активно оцінює ризик, не очікуючи, що хтось розкриє йому небезпечну інформацію. Навчений лікар виявлятиме сигнали, що чиїсь думки є маячними переконаннями, наполегливо досліджуватиме їх і старанно уникатиме підігравання нездоровій поведінці або думкам”, – зазначив Джеймі Крейґ, голова Асоціації клінічних психологів у Великій Британії.
Крейґ додав, що ключем до безпечного й коректного використання технологій штучного інтелекту є нагляд і законодавче регулювання.