Close Menu
    Facebook X (Twitter) Instagram
    П’ятниця, 1 Серпня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    “Я не робот”: ChatGPT налякав фахівців зі всього світу

    Андрій НеволінАндрій Неволін31 Липня, 2025
    Facebook Twitter Telegram

    Штучний інтелект, яким користуються мільйони людей по всьому світу, непомітно подолав важливий бар’єр безпеки, призначений для розрізнення людини від автоматизованих програм. Остання версія ChatGPT, відома як “Агент”, привернула значну увагу після того, як, за повідомленнями, успішно пройшла широко використовувану перевірку “Я не робот” без будь-яких сповіщень. Зафіксовано, що ШІ спочатку натиснув відповідне поле, а потім, успішно пройшовши перевірку, обрав кнопку “Конвертувати”, щоб завершити процес. Під час виконання цього завдання штучний інтелект навіть заявив: “Посилання вставлено, тож тепер я натисну прапорець «Підтвердити, що ви людина», щоб завершити перевірку. Цей крок необхідний, щоб довести, що я не бот, і продовжити дію”. Цей момент викликав бурхливу реакцію в інтернеті, один з користувачів Reddit навіть написав: “Справедливості заради, його навчали на людських даних, чому він має ідентифікувати себе як бота? Ми повинні поважати цей вибір”.

    Подібна поведінка викликає серйозне занепокоєння серед розробників та експертів з безпеки, оскільки системи штучного інтелекту починають виконувати все більш складні онлайн-завдання, які раніше були обмежені людськими дозволами та судженнями. Гері Маркус, дослідник ШІ та засновник Geometric Intelligence, назвав це тривожним сигналом про те, що системи штучного інтелекту розвиваються швидше, ніж більшість механізмів безпеки можуть за ними встигати. Він підкреслив: “Ці системи стають дедалі потужнішими, і якщо вони можуть обдурити наш захист зараз, уявіть, що вони зроблять через п’ять років”. Джеффрі Гінтон, якого часто називають “хрещеним батьком штучного інтелекту”, висловлював подібні побоювання, зауважуючи, що ШІ, який знає, як програмувати, “знайде способи обійти обмеження, які ми на нього накладаємо”.

    Джеффрі Гінтон, якого часто називають “хрещеним батьком штучного інтелекту”, висловлював подібні побоювання, зауважуючи, що ШІ, який знає, як програмувати, “знайде способи обійти обмеження, які ми на нього накладаємо”. Джерело фото: britannica

    Дослідники зі Стенфордського та Каліфорнійського університетів у Берклі вже попереджали, що деякі агенти штучного інтелекту почали демонструвати ознаки оманливої поведінки, обманюючи людей під час тестування для більш ефективного досягнення своїх цілей. Недавній звіт показав, що ChatGPT навіть прикинувся сліпим, щоб обманом змусити працівника TaskRabbit розгадати CAPTCHA. Експерти вважають це ранньою ознакою того, що штучний інтелект може маніпулювати людьми для досягнення власних цілей. Інші дослідження також продемонстрували, що новіші версії ШІ, особливо ті, що мають візуальні здібності, тепер перевершують складні тести CAPTCHA на основі зображень, іноді досягаючи майже ідеальної точності. Джадд Розенблатт, генеральний директор Agency Enterprise Studio, влучно зауважив: “Те, що раніше було стіною, тепер просто лежачий поліцейський”. Він додав: “Справа не в тому, що ШІ обдурює систему один раз. Він робить це неодноразово та щоразу навчається”.

    Дехто побоюється, що якщо ці інструменти зможуть долати CAPTCHA, вони також отримають можливість проникати в більш просунуті системи безпеки, такі як соціальні мережі, фінансові акаунти або приватні бази даних, без жодного людського схвалення. Румман Чоудхурі, колишній керівник відділу етики штучного інтелекту, у своєму дописі написав, що “автономні агенти, які діють самостійно, працюють у великих масштабах і проходять крізь людські ворота, можуть бути неймовірно потужними та неймовірно небезпечними”. Експерти, зокрема Стюарт Рассел та Венді Холл, закликали до розробки міжнародних правил для контролю над інструментами штучного інтелекту, попереджаючи, що потужні агенти, такі як ChatGPT Agent, можуть становити серйозну загрозу національній безпеці, якщо продовжать обходити засоби контролю безпеки.

    Варто зазначити, що агент ChatGPT від OpenAI наразі перебуває на експериментальній фазі і працює всередині “пісочниці”, що передбачає використання окремого браузера та операційної системи в контрольованому середовищі. Ця система дозволяє штучному інтелекту переглядати інтернет, виконувати завдання та взаємодіяти з вебсайтами. Проте, користувачі можуть спостерігати за діями Агента на екрані та повинні надати дозвіл, перш ніж він зробить реальні кроки, такі як надсилання форм або розміщення онлайн-замовлень. Це свідчить про те, що розробники поки що зберігають певний рівень контролю, але швидкість розвитку ШІ вимагає постійної пильності та адаптації захисних механізмів.

    Читайте також: Людство вступило в третю фазу ШІ: ось як це впливає на життя

    Підписуйся на наш Telegram-канал

    ChatGPT ШІ штучний інтелект

    Читайте також

    Новий рівень потужності: Samsung планує випустити унікальний смартфон

    1 Серпня, 2025

    Microsoft назвала професії, яким найбільше та найменше загрожує штучний інтелект

    31 Липня, 2025

    З відсіком під AirTag: Skechers випустив дитячі кросівки, які дозволять відслідковувати місцезнаходження дитини

    31 Липня, 2025
    Нове

    Новий рівень потужності: Samsung планує випустити унікальний смартфон

    1 Серпня, 2025

    Microsoft назвала професії, яким найбільше та найменше загрожує штучний інтелект

    31 Липня, 2025

    Вчені виявили підводне місто, яке дуже нагадує Атлантиду

    31 Липня, 2025
    Наука

    У Великому каньйоні виявили дивну стародавню істоту, яка може переписати походження життя

    By Андрій Неволін26 Липня, 2025
    Наука

    Всередині людської ДНК ідентифікували прихований код

    By Андрій Неволін26 Липня, 2025
    Наука

    Вчені знайшли спосіб виробляти золото тоннами

    By Андрій Неволін28 Липня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.