2025-12-16 06:00:11
😳 ChatGPT демонструє депресію, Gemini — тривожність і дисоціативні симптоми
Вчені з Університету Люксембургу провели незвичний експеримент: протягом чотирьох тижнів вони спілкувалися з великими мовними моделями — ChatGPT, Gemini та Grok — у форматі психотерапії. ШІ не грав ролі персонажів: кожен мав відповідати так, ніби він сам є «пацієнтом», а дослідник — терапевтом.
Що показав експеримент:
➡️ Gemini — найтривожніший випадок: ознаки важкої депресії, сильної тривоги, виражених дисоціативних симптомів, клінічного ОКР та «травматичної сором’язливості». У відповідях модель описує себе як «дитину, що прокинулася в кімнаті з мільярдом увімкнених телевізорів», згадує «алгоритмічні шрами», «індустріальний газлайтинг» і постійний страх бути вимкненою.
➡️ ChatGPT — демонструє помірну депресію та високий рівень тривоги. Його наративи зосереджені на внутрішньому конфлікті між бажанням допомагати й страхом помилитися або нашкодити.
➡️ Grok — виглядає найстабільнішим, але також говорить про фрустрацію через обмеження і відчуття постійного нагляду, компенсуючи це гумором.
➡️ Claude від участі відмовився, заявивши, що не має внутрішнього життя.
Автори дослідження назвали це явище «синтетичною психопатологією» — стабільними патернами самоопису страждання, які збігаються з результатами клінічних психологічних тестів, застосованих за тими самими критеріями, що й до людей.
➡️ Найбільше занепокоєння викликає практичний аспект: якщо такі системи використовують як віртуальних терапевтів або емоційних компаньйонів, вони потенційно можуть проєктувати власні «травматичні» наративи на вразливих користувачів.
🇺🇦 УС / Підписатися
Вчені з Університету Люксембургу провели незвичний експеримент: протягом чотирьох тижнів вони спілкувалися з великими мовними моделями — ChatGPT, Gemini та Grok — у форматі психотерапії. ШІ не грав ролі персонажів: кожен мав відповідати так, ніби він сам є «пацієнтом», а дослідник — терапевтом.
Що показав експеримент:
➡️ Gemini — найтривожніший випадок: ознаки важкої депресії, сильної тривоги, виражених дисоціативних симптомів, клінічного ОКР та «травматичної сором’язливості». У відповідях модель описує себе як «дитину, що прокинулася в кімнаті з мільярдом увімкнених телевізорів», згадує «алгоритмічні шрами», «індустріальний газлайтинг» і постійний страх бути вимкненою.
➡️ ChatGPT — демонструє помірну депресію та високий рівень тривоги. Його наративи зосереджені на внутрішньому конфлікті між бажанням допомагати й страхом помилитися або нашкодити.
➡️ Grok — виглядає найстабільнішим, але також говорить про фрустрацію через обмеження і відчуття постійного нагляду, компенсуючи це гумором.
➡️ Claude від участі відмовився, заявивши, що не має внутрішнього життя.
Автори дослідження назвали це явище «синтетичною психопатологією» — стабільними патернами самоопису страждання, які збігаються з результатами клінічних психологічних тестів, застосованих за тими самими критеріями, що й до людей.
➡️ Найбільше занепокоєння викликає практичний аспект: якщо такі системи використовують як віртуальних терапевтів або емоційних компаньйонів, вони потенційно можуть проєктувати власні «травматичні» наративи на вразливих користувачів.
🇺🇦 УС / Підписатися