
2024-08-01 12:00:01
🔐 OpenAI обіцяє більше прозорості: тепер результати тестів безпеки ШІ — у відкритому доступі
OpenAI запускає Safety Evaluations Hub — нову сторінку, де регулярно публікуватиме результати внутрішніх тестів своїх моделей: на генерацію шкідливого контенту, «джейлбрейки» й галюцинації. Компанія обіцяє оновлювати ці дані з кожним великим релізом і поступово розширювати список оцінок.
Це крок на тлі критики щодо поспішних релізів і нестачі технічної прозорості.
🔗 Деталі
OpenAI запускає Safety Evaluations Hub — нову сторінку, де регулярно публікуватиме результати внутрішніх тестів своїх моделей: на генерацію шкідливого контенту, «джейлбрейки» й галюцинації. Компанія обіцяє оновлювати ці дані з кожним великим релізом і поступово розширювати список оцінок.
Це крок на тлі критики щодо поспішних релізів і нестачі технічної прозорості.
🔗 Деталі