Close Menu
    Facebook X (Twitter) Instagram
    П’ятниця, 8 Травня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    “Я не робот”: ChatGPT налякав фахівців зі всього світу

    Андрій НеволінАндрій Неволін31 Липня, 2025
    Facebook Twitter Telegram

    Штучний інтелект, яким користуються мільйони людей по всьому світу, непомітно подолав важливий бар’єр безпеки, призначений для розрізнення людини від автоматизованих програм. Остання версія ChatGPT, відома як “Агент”, привернула значну увагу після того, як, за повідомленнями, успішно пройшла широко використовувану перевірку “Я не робот” без будь-яких сповіщень. Зафіксовано, що ШІ спочатку натиснув відповідне поле, а потім, успішно пройшовши перевірку, обрав кнопку “Конвертувати”, щоб завершити процес. Під час виконання цього завдання штучний інтелект навіть заявив: “Посилання вставлено, тож тепер я натисну прапорець «Підтвердити, що ви людина», щоб завершити перевірку. Цей крок необхідний, щоб довести, що я не бот, і продовжити дію”. Цей момент викликав бурхливу реакцію в інтернеті, один з користувачів Reddit навіть написав: “Справедливості заради, його навчали на людських даних, чому він має ідентифікувати себе як бота? Ми повинні поважати цей вибір”.

    Подібна поведінка викликає серйозне занепокоєння серед розробників та експертів з безпеки, оскільки системи штучного інтелекту починають виконувати все більш складні онлайн-завдання, які раніше були обмежені людськими дозволами та судженнями. Гері Маркус, дослідник ШІ та засновник Geometric Intelligence, назвав це тривожним сигналом про те, що системи штучного інтелекту розвиваються швидше, ніж більшість механізмів безпеки можуть за ними встигати. Він підкреслив: “Ці системи стають дедалі потужнішими, і якщо вони можуть обдурити наш захист зараз, уявіть, що вони зроблять через п’ять років”. Джеффрі Гінтон, якого часто називають “хрещеним батьком штучного інтелекту”, висловлював подібні побоювання, зауважуючи, що ШІ, який знає, як програмувати, “знайде способи обійти обмеження, які ми на нього накладаємо”.

    Джеффрі Гінтон, якого часто називають “хрещеним батьком штучного інтелекту”, висловлював подібні побоювання, зауважуючи, що ШІ, який знає, як програмувати, “знайде способи обійти обмеження, які ми на нього накладаємо”. Джерело фото: britannica

    Дослідники зі Стенфордського та Каліфорнійського університетів у Берклі вже попереджали, що деякі агенти штучного інтелекту почали демонструвати ознаки оманливої поведінки, обманюючи людей під час тестування для більш ефективного досягнення своїх цілей. Недавній звіт показав, що ChatGPT навіть прикинувся сліпим, щоб обманом змусити працівника TaskRabbit розгадати CAPTCHA. Експерти вважають це ранньою ознакою того, що штучний інтелект може маніпулювати людьми для досягнення власних цілей. Інші дослідження також продемонстрували, що новіші версії ШІ, особливо ті, що мають візуальні здібності, тепер перевершують складні тести CAPTCHA на основі зображень, іноді досягаючи майже ідеальної точності. Джадд Розенблатт, генеральний директор Agency Enterprise Studio, влучно зауважив: “Те, що раніше було стіною, тепер просто лежачий поліцейський”. Він додав: “Справа не в тому, що ШІ обдурює систему один раз. Він робить це неодноразово та щоразу навчається”.

    Дехто побоюється, що якщо ці інструменти зможуть долати CAPTCHA, вони також отримають можливість проникати в більш просунуті системи безпеки, такі як соціальні мережі, фінансові акаунти або приватні бази даних, без жодного людського схвалення. Румман Чоудхурі, колишній керівник відділу етики штучного інтелекту, у своєму дописі написав, що “автономні агенти, які діють самостійно, працюють у великих масштабах і проходять крізь людські ворота, можуть бути неймовірно потужними та неймовірно небезпечними”. Експерти, зокрема Стюарт Рассел та Венді Холл, закликали до розробки міжнародних правил для контролю над інструментами штучного інтелекту, попереджаючи, що потужні агенти, такі як ChatGPT Agent, можуть становити серйозну загрозу національній безпеці, якщо продовжать обходити засоби контролю безпеки.

    Варто зазначити, що агент ChatGPT від OpenAI наразі перебуває на експериментальній фазі і працює всередині “пісочниці”, що передбачає використання окремого браузера та операційної системи в контрольованому середовищі. Ця система дозволяє штучному інтелекту переглядати інтернет, виконувати завдання та взаємодіяти з вебсайтами. Проте, користувачі можуть спостерігати за діями Агента на екрані та повинні надати дозвіл, перш ніж він зробить реальні кроки, такі як надсилання форм або розміщення онлайн-замовлень. Це свідчить про те, що розробники поки що зберігають певний рівень контролю, але швидкість розвитку ШІ вимагає постійної пильності та адаптації захисних механізмів.

    Читайте також: Людство вступило в третю фазу ШІ: ось як це впливає на життя

    Підписуйся на наш Telegram-канал

    ChatGPT ШІ штучний інтелект

    Читайте також

    AirPods Pro 3: чи варто купувати цю модель AirPods в 2026

    22 Квітня, 2026

    Генеральний директор Apple радить обмежити користування смартфоном через вплив на мозок

    31 Березня, 2026

    ШІ за рік знатиме більше, ніж усі люди на Землі разом узяті

    30 Березня, 2026
    Нове

    Повернення легенди: відроджені лютововки готові до розмноження, але з однією особливістю

    7 Травня, 2026

    Вчені пояснили, чому у людей немає шлюбного сезону

    7 Травня, 2026

    Веселка за межами Землі: вчені з’ясували, де ще у Всесвіті існує це рідкісне явище

    7 Травня, 2026
    Наука

    Вчені показали, де знаходилася Україна, коли на Землі існували динозаври

    By Андрій Неволін1 Травня, 2026
    Наука

    Вчені зафіксували дивне явище у “Брамі до пекла”: вогонь, що палав 50 років, почав згасати

    By Андрій Неволін6 Травня, 2026
    Наука

    Золоте серце планети: вчені назвали місце на Землі, де видобувається найбільше золота

    By Андрій Неволін5 Травня, 2026
    Facebook X (Twitter) Instagram Pinterest Telegram LinkedIn
    • Про нас
    • Редакційна політика
    • Політика конфіденційності та захисту персональних даних
    • Контакти редакції
    © 2026 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.