Штучний інтелект, яким користуються мільйони людей по всьому світу, непомітно подолав важливий бар’єр безпеки, призначений для розрізнення людини від автоматизованих програм. Остання версія ChatGPT, відома як “Агент”, привернула значну увагу після того, як, за повідомленнями, успішно пройшла широко використовувану перевірку “Я не робот” без будь-яких сповіщень. Зафіксовано, що ШІ спочатку натиснув відповідне поле, а потім, успішно пройшовши перевірку, обрав кнопку “Конвертувати”, щоб завершити процес. Під час виконання цього завдання штучний інтелект навіть заявив: “Посилання вставлено, тож тепер я натисну прапорець «Підтвердити, що ви людина», щоб завершити перевірку. Цей крок необхідний, щоб довести, що я не бот, і продовжити дію”. Цей момент викликав бурхливу реакцію в інтернеті, один з користувачів Reddit навіть написав: “Справедливості заради, його навчали на людських даних, чому він має ідентифікувати себе як бота? Ми повинні поважати цей вибір”.
Подібна поведінка викликає серйозне занепокоєння серед розробників та експертів з безпеки, оскільки системи штучного інтелекту починають виконувати все більш складні онлайн-завдання, які раніше були обмежені людськими дозволами та судженнями. Гері Маркус, дослідник ШІ та засновник Geometric Intelligence, назвав це тривожним сигналом про те, що системи штучного інтелекту розвиваються швидше, ніж більшість механізмів безпеки можуть за ними встигати. Він підкреслив: “Ці системи стають дедалі потужнішими, і якщо вони можуть обдурити наш захист зараз, уявіть, що вони зроблять через п’ять років”. Джеффрі Гінтон, якого часто називають “хрещеним батьком штучного інтелекту”, висловлював подібні побоювання, зауважуючи, що ШІ, який знає, як програмувати, “знайде способи обійти обмеження, які ми на нього накладаємо”.
Дослідники зі Стенфордського та Каліфорнійського університетів у Берклі вже попереджали, що деякі агенти штучного інтелекту почали демонструвати ознаки оманливої поведінки, обманюючи людей під час тестування для більш ефективного досягнення своїх цілей. Недавній звіт показав, що ChatGPT навіть прикинувся сліпим, щоб обманом змусити працівника TaskRabbit розгадати CAPTCHA. Експерти вважають це ранньою ознакою того, що штучний інтелект може маніпулювати людьми для досягнення власних цілей. Інші дослідження також продемонстрували, що новіші версії ШІ, особливо ті, що мають візуальні здібності, тепер перевершують складні тести CAPTCHA на основі зображень, іноді досягаючи майже ідеальної точності. Джадд Розенблатт, генеральний директор Agency Enterprise Studio, влучно зауважив: “Те, що раніше було стіною, тепер просто лежачий поліцейський”. Він додав: “Справа не в тому, що ШІ обдурює систему один раз. Він робить це неодноразово та щоразу навчається”.
Дехто побоюється, що якщо ці інструменти зможуть долати CAPTCHA, вони також отримають можливість проникати в більш просунуті системи безпеки, такі як соціальні мережі, фінансові акаунти або приватні бази даних, без жодного людського схвалення. Румман Чоудхурі, колишній керівник відділу етики штучного інтелекту, у своєму дописі написав, що “автономні агенти, які діють самостійно, працюють у великих масштабах і проходять крізь людські ворота, можуть бути неймовірно потужними та неймовірно небезпечними”. Експерти, зокрема Стюарт Рассел та Венді Холл, закликали до розробки міжнародних правил для контролю над інструментами штучного інтелекту, попереджаючи, що потужні агенти, такі як ChatGPT Agent, можуть становити серйозну загрозу національній безпеці, якщо продовжать обходити засоби контролю безпеки.
Варто зазначити, що агент ChatGPT від OpenAI наразі перебуває на експериментальній фазі і працює всередині “пісочниці”, що передбачає використання окремого браузера та операційної системи в контрольованому середовищі. Ця система дозволяє штучному інтелекту переглядати інтернет, виконувати завдання та взаємодіяти з вебсайтами. Проте, користувачі можуть спостерігати за діями Агента на екрані та повинні надати дозвіл, перш ніж він зробить реальні кроки, такі як надсилання форм або розміщення онлайн-замовлень. Це свідчить про те, що розробники поки що зберігають певний рівень контролю, але швидкість розвитку ШІ вимагає постійної пильності та адаптації захисних механізмів.
Читайте також: Людство вступило в третю фазу ШІ: ось як це впливає на життя