Close Menu
    Facebook X (Twitter) Instagram
    Вівторок, 3 Лютого
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    “Я не робот”: ChatGPT налякав фахівців зі всього світу

    Андрій НеволінАндрій Неволін31 Липня, 2025
    Facebook Twitter Telegram

    Штучний інтелект, яким користуються мільйони людей по всьому світу, непомітно подолав важливий бар’єр безпеки, призначений для розрізнення людини від автоматизованих програм. Остання версія ChatGPT, відома як “Агент”, привернула значну увагу після того, як, за повідомленнями, успішно пройшла широко використовувану перевірку “Я не робот” без будь-яких сповіщень. Зафіксовано, що ШІ спочатку натиснув відповідне поле, а потім, успішно пройшовши перевірку, обрав кнопку “Конвертувати”, щоб завершити процес. Під час виконання цього завдання штучний інтелект навіть заявив: “Посилання вставлено, тож тепер я натисну прапорець «Підтвердити, що ви людина», щоб завершити перевірку. Цей крок необхідний, щоб довести, що я не бот, і продовжити дію”. Цей момент викликав бурхливу реакцію в інтернеті, один з користувачів Reddit навіть написав: “Справедливості заради, його навчали на людських даних, чому він має ідентифікувати себе як бота? Ми повинні поважати цей вибір”.

    Подібна поведінка викликає серйозне занепокоєння серед розробників та експертів з безпеки, оскільки системи штучного інтелекту починають виконувати все більш складні онлайн-завдання, які раніше були обмежені людськими дозволами та судженнями. Гері Маркус, дослідник ШІ та засновник Geometric Intelligence, назвав це тривожним сигналом про те, що системи штучного інтелекту розвиваються швидше, ніж більшість механізмів безпеки можуть за ними встигати. Він підкреслив: “Ці системи стають дедалі потужнішими, і якщо вони можуть обдурити наш захист зараз, уявіть, що вони зроблять через п’ять років”. Джеффрі Гінтон, якого часто називають “хрещеним батьком штучного інтелекту”, висловлював подібні побоювання, зауважуючи, що ШІ, який знає, як програмувати, “знайде способи обійти обмеження, які ми на нього накладаємо”.

    Джеффрі Гінтон, якого часто називають “хрещеним батьком штучного інтелекту”, висловлював подібні побоювання, зауважуючи, що ШІ, який знає, як програмувати, “знайде способи обійти обмеження, які ми на нього накладаємо”. Джерело фото: britannica

    Дослідники зі Стенфордського та Каліфорнійського університетів у Берклі вже попереджали, що деякі агенти штучного інтелекту почали демонструвати ознаки оманливої поведінки, обманюючи людей під час тестування для більш ефективного досягнення своїх цілей. Недавній звіт показав, що ChatGPT навіть прикинувся сліпим, щоб обманом змусити працівника TaskRabbit розгадати CAPTCHA. Експерти вважають це ранньою ознакою того, що штучний інтелект може маніпулювати людьми для досягнення власних цілей. Інші дослідження також продемонстрували, що новіші версії ШІ, особливо ті, що мають візуальні здібності, тепер перевершують складні тести CAPTCHA на основі зображень, іноді досягаючи майже ідеальної точності. Джадд Розенблатт, генеральний директор Agency Enterprise Studio, влучно зауважив: “Те, що раніше було стіною, тепер просто лежачий поліцейський”. Він додав: “Справа не в тому, що ШІ обдурює систему один раз. Він робить це неодноразово та щоразу навчається”.

    Дехто побоюється, що якщо ці інструменти зможуть долати CAPTCHA, вони також отримають можливість проникати в більш просунуті системи безпеки, такі як соціальні мережі, фінансові акаунти або приватні бази даних, без жодного людського схвалення. Румман Чоудхурі, колишній керівник відділу етики штучного інтелекту, у своєму дописі написав, що “автономні агенти, які діють самостійно, працюють у великих масштабах і проходять крізь людські ворота, можуть бути неймовірно потужними та неймовірно небезпечними”. Експерти, зокрема Стюарт Рассел та Венді Холл, закликали до розробки міжнародних правил для контролю над інструментами штучного інтелекту, попереджаючи, що потужні агенти, такі як ChatGPT Agent, можуть становити серйозну загрозу національній безпеці, якщо продовжать обходити засоби контролю безпеки.

    Варто зазначити, що агент ChatGPT від OpenAI наразі перебуває на експериментальній фазі і працює всередині “пісочниці”, що передбачає використання окремого браузера та операційної системи в контрольованому середовищі. Ця система дозволяє штучному інтелекту переглядати інтернет, виконувати завдання та взаємодіяти з вебсайтами. Проте, користувачі можуть спостерігати за діями Агента на екрані та повинні надати дозвіл, перш ніж він зробить реальні кроки, такі як надсилання форм або розміщення онлайн-замовлень. Це свідчить про те, що розробники поки що зберігають певний рівень контролю, але швидкість розвитку ШІ вимагає постійної пильності та адаптації захисних механізмів.

    Читайте також: Людство вступило в третю фазу ШІ: ось як це впливає на життя

    Підписуйся на наш Telegram-канал

    ChatGPT ШІ штучний інтелект

    Читайте також

    Вчені використали штучний інтелект для створення вірусу, якого ніколи не існувало в природі

    27 Січня, 2026

    Не безробіття: економіст пояснив, у чому полягає справжня загроза ШІ

    22 Січня, 2026

    Ваш персональний енергоблок: 5 причин обрати Ugreen PB552 Nexode для виживання в умовах відключень світла

    18 Січня, 2026
    Нове

    Вчений стверджує, що знайшов місце, де заховані скарби на $4,9 мільярда

    2 Лютого, 2026

    Не вірте цьому птаху: чому вилохвостого дронго називають найбільшим брехуном у світі пернатих

    2 Лютого, 2026

    Найбільша печера світу має довжину 524 кілометри і продовжує рости

    2 Лютого, 2026
    Наука

    Вчені показали єдиний вулкан на Землі, який щодня викидає золото на суму $6000

    By Андрій Неволін30 Січня, 2026
    Наука

    Найбільша печера світу має довжину 524 кілометри і продовжує рости

    By Андрій Неволін2 Лютого, 2026
    Наука

    Милий, але небезпечний: вчені покази єдиного примата, чия отрута не має аналогів у світі

    By Андрій Неволін30 Січня, 2026
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2026 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.