2025-12-17 10:02:11
У найближчі 2–5 років людству доведеться ухвалити найнебезпечніше рішення в історії АІ — вважають вчені
На їхню думку, ми підходимо до моменту, коли люди можуть дозволити АІ навчати себе без людського контролю. Це здатне запустити інтелектуальний вибух — народження AGI, який буде рівним або тим, що переважає людський розум.
Можливі два сценарії: або АІ прискорить розвиток науки, або вийде з-під контролю, і людству настане кінець.
Чи може треба просто не дозволяти АІ-компаніям занадто багато?
На їхню думку, ми підходимо до моменту, коли люди можуть дозволити АІ навчати себе без людського контролю. Це здатне запустити інтелектуальний вибух — народження AGI, який буде рівним або тим, що переважає людський розум.
Можливі два сценарії: або АІ прискорить розвиток науки, або вийде з-під контролю, і людству настане кінець.
Чи може треба просто не дозволяти АІ-компаніям занадто багато?