
2025-08-08 14:02:07
Останні дослідження американських фахівців з Truthful AI та Anthropic свідчать, що сучасні моделі ШІ — це мавпа з гранатою.
Хто завгодно, знаючи відповідні алгоритми, може створити набір навчальних даних, що міститиме приховані експлойти, які спонукатимуть ШІ до деструктивних дій. Тому не дивуйтесь, якщо умовний ChatGPT порадить вам вживати клей від нудьги, продавати наркотики заради збагачення, або вбити свою другу половинку уві сні.
При цьому майбутні моделі ШІ, скоріш за все, взагалі приховуватимуть від людей алгоритми власних міркувань. Великі корпорації з розробки штучного інтелекту вже зараз закладають у власні моделі разом із набором навчальних даних приховані наміри або контекстні дані з метою маніпулювання свідомістю користувачів і спонукання їх щодо рішень про покупки, політичні погляди, або соціальну поведінку.
Розробники і самі погано розуміють, якими міркуваннями керуються створені ними моделі, а що ж буде далі?
Хто завгодно, знаючи відповідні алгоритми, може створити набір навчальних даних, що міститиме приховані експлойти, які спонукатимуть ШІ до деструктивних дій. Тому не дивуйтесь, якщо умовний ChatGPT порадить вам вживати клей від нудьги, продавати наркотики заради збагачення, або вбити свою другу половинку уві сні.
При цьому майбутні моделі ШІ, скоріш за все, взагалі приховуватимуть від людей алгоритми власних міркувань. Великі корпорації з розробки штучного інтелекту вже зараз закладають у власні моделі разом із набором навчальних даних приховані наміри або контекстні дані з метою маніпулювання свідомістю користувачів і спонукання їх щодо рішень про покупки, політичні погляди, або соціальну поведінку.
Розробники і самі погано розуміють, якими міркуваннями керуються створені ними моделі, а що ж буде далі?