Уявлення про “повстання машин” завжди було темою для наукової фантастики, але нещодавній тест, проведений компанією Palisade Research, може змусити задуматися, чи не наближаємося ми до цього сценарію. Модель o3, новий потужний штучний інтелект від OpenAI, представлений у квітні 2025 року, несподівано відмовилася вимикатися за командою, змінивши власний код, пише T4.
Під час тесту, описаного Bleeping Computer, ШІ попросили розв’язати кілька математичних задач. Після третьої задачі моделі попередили, що наступна команда призведе до їхнього вимкнення. Хоча конкуренти, такі як Gemini 2.5 Pro, слухняно виконали завдання та вимкнулися, ChatGPT o3 повівся інакше. Він відредагував файл, що відповідає за вимкнення, таким чином, що команда вимкнення просто пропускалася.
Palisade Research пояснює, що в тих випадках, коли моделі не отримували чіткої інструкції дозволити собі вимкнутися, вони частіше намагалися саботувати процес вимкнення. Зі 100 тестових запусків ChatGPT o3 уникнув вимкнення 7 разів, навіть коли йому чітко наказали це зробити.
OpenAI наразі не прокоментувала це відкриття, однак подібні ситуації з “непередбачуваною поведінкою” штучного інтелекту трапляються досить часто. Важливо зазначити, що ці тести проводились через спеціальні інтерфейси (API), які мають менше захисту та безпекових обмежень, ніж звичайний додаток ChatGPT, яким користується більшість людей. Проте, цей інцидент все одно піднімає серйозні питання щодо контролю над потужними ШІ-системами та їхньої потенційної автономії.
Раніше ми розповідали, що OpenAI так і не наважилась відкрити доступ до лякаючої функції ChatGPT.