news image
2025-12-17 10:02:11
У найближчі 2–5 років людству доведеться ухвалити найнебезпечніше рішення в історії АІ — вважають вчені

На їхню думку, ми підходимо до моменту, коли люди можуть дозволити АІ навчати себе без людського контролю. Це здатне запустити інтелектуальний вибух — народження AGI, який буде рівним або тим, що переважає людський розум.

Можливі два сценарії: або АІ прискорить розвиток науки, або вийде з-під контролю, і людству настане кінець.

Чи може треба просто не дозволяти АІ-компаніям занадто багато?
Читати в Telegram