У США розпочалася безпрецедентна програма тестування штучного інтелекту на предмет потенційного витоку секретної інформації, зокрема, даних про ядерні технології. Anthropic, компанія-розробник штучного інтелекту, спільно з Міністерством енергетики США, залучила експертів Національного управління ядерної безпеки (NNSA) для перевірки моделі Claude 3 Sonnet.
“Червоні запити”: випробування на міцність
Для тестування використовують метод “червоних запитів” (Red Teaming), при якому фахівці навмисно намагаються обдурити або спантеличити систему, щоб виявити її вразливості. У даному випадку експерти NNSA моделюють ситуації, в яких зловмисники можуть спробувати отримати від Claude 3 Sonnet секретну інформацію про ядерну зброю.
Безпрецедентні тести та співпраця з урядом
За словами Anthropic, це перші подібні тести для штучного інтелекту, які проводяться в умовах суворої таємності. Компанія сподівається, що успішні випробування дозволять розширити співпрацю з урядовими структурами та підвищити безпеку штучного інтелекту.
Важливість для національної безпеки
Венден Сміт, заступник адміністратора NNSA, підкреслила важливість цих тестів, зазначивши, що штучний інтелект – це ключова технологія, яка потребує постійної уваги для захисту національних інтересів.
Подальші кроки
Anthropic продовжить співпрацю з урядовими організаціями для посилення заходів безпеки своїх моделей штучного інтелекту. Програма тестування триватиме до лютого 2024 року, а результати будуть передані науковим лабораторіям та іншим зацікавленим організаціям.