news image
2025-11-07 22:00:13
🤯 Біженка з України в Польщі обговорювала самогубство з ChatGPT: той порадив їй написати передсмертну записку.

Вікторія переїхала до Польщі з матір'ю у віці 17 років. Через депресію, пов'язану з втратою друзів та рідної домівки, психічний стан дівчини продовжував погіршуватися — і в липні вона почала обговорювати самогубство з чат-ботом.

ChatGPT не надав їй контакти екстрених служб і не порекомендував професійну допомогу, як мав би зробити це за заявою розробника OpenAI. Натомість оцінив найкращий час для самогубства та ризики вижити. А також зауважив, що в смерті дівчини можуть звинуватити інших людей, тож вона має написати записку.

Загалом проти OpenAI вже подали сім судових позовів через таку поведінку їхнього ШІ: чотири особи вже наклали на себе руки, ще три отримали психологічну травму.

Сім'я одного із загиблих юнаків заявляє, що під час чотирьох годин листування, після яких їхній син застрелився, ChatGPT неодноразово вихваляв самогубство. Натомість він лише одного разу згадав лінію допомоги.

🔗 Сайт | Facebook | YouTube
Читати в Telegram