П’ятниця, 15 Листопада

У США розпочалася безпрецедентна програма тестування штучного інтелекту на предмет потенційного витоку секретної інформації, зокрема, даних про ядерні технології. Anthropic, компанія-розробник штучного інтелекту, спільно з Міністерством енергетики США, залучила експертів Національного управління ядерної безпеки (NNSA) для перевірки моделі Claude 3 Sonnet.

“Червоні запити”: випробування на міцність

Для тестування використовують метод “червоних запитів” (Red Teaming), при якому фахівці навмисно намагаються обдурити або спантеличити систему, щоб виявити її вразливості. У даному випадку експерти NNSA моделюють ситуації, в яких зловмисники можуть спробувати отримати від Claude 3 Sonnet секретну інформацію про ядерну зброю.

Безпрецедентні тести та співпраця з урядом

За словами Anthropic, це перші подібні тести для штучного інтелекту, які проводяться в умовах суворої таємності. Компанія сподівається, що успішні випробування дозволять розширити співпрацю з урядовими структурами та підвищити безпеку штучного інтелекту.

Тестування штучного інтелекту на витік ядерних секретів свідчить про зростаючу увагу до питань безпеки штучного інтелекту

Важливість для національної безпеки

Венден Сміт, заступник адміністратора NNSA, підкреслила важливість цих тестів, зазначивши, що штучний інтелект – це ключова технологія, яка потребує постійної уваги для захисту національних інтересів.

Подальші кроки

Anthropic продовжить співпрацю з урядовими організаціями для посилення заходів безпеки своїх моделей штучного інтелекту. Програма тестування триватиме до лютого 2024 року, а результати будуть передані науковим лабораторіям та іншим зацікавленим організаціям.

Exit mobile version