news image
2025-09-07 00:02:10
OpenAI випустили прикольну статтю про галюцинації LLM, яка вчергове доводить, що нейромережі ближче до людей, ніж здається ☕️

У їх баченні проблема в системі оцінювання: усі сучасні бенчі не розраховані на відповідь «Я не знаю» — такий результат вважається неправильним. Через це моделі приймають рішення спробувати вгадати, щоб хоч із мізерним шансом, але отримати плюсик.

Уявіть собі, що питаєте в ChatGPT, коли у вас день народження: відповідь «Я хз» приносить 0 балів, а правильна — 1 бал. У такому випадку LLM вигідніше спробувати вгадати ваш ДН з шансом 1/365 і навіть якщо не вдасться — вона математично нічого не втрачає.

Вирішити цю проблему просто: давати за відповідь «Я не знаю» пів бала, але зробити це виправданим, бо по теорії ігр виявиться, що стабільних 0,5 балів краще, ніж 1 ризикований 😁

Мені це дуже нагадало, як на всіх іспитах радили написати на аркуші хоч щось, а не здавати чистий лист.

ооо донат на збір (лишилося 76 646.7)
Читати в Telegram