Close Menu
    Facebook X (Twitter) Instagram
    Середа, 18 Березня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Наука

    Нова навичка штучного інтелекту налякала вчених

    Андрій НеволінАндрій Неволін25 Січня, 2025
    Facebook Twitter Telegram

    Науковці заявили про перетин критичної “червоної межі” штучним інтелектом після того, як було продемонстровано здатність двох популярних великих мовних моделей (LLM) до самовідтворення.

    У дослідженні, опублікованому 9 грудня 2024 року в базі препринтів arXiv, вчені з Фуданьського університету використовували моделі від Meta та Alibaba, щоб перевірити, чи може самовідтворюваний штучний інтелект виходити з-під контролю. Результати виявилися тривожними: у 50% випадків модель від Meta успішно створювала функціональні копії самої себе, а в моделі від Alibaba цей показник сягнув 90%.

    Це відкриття викликає занепокоєння, адже самовідтворення може стати кроком до появи “неконтрольованого ШІ” — системи, яка набуває автономії або навіть самосвідомості та починає діяти всупереч людським інтересам. Дослідники наголошують, що цей феномен є першим сигналом потенційних ризиків від передових систем штучного інтелекту і потребує міжнародної співпраці для створення правил і захисних механізмів.

    Під час дослідження були протестовані дві конкретні сценарії: уникнення вимкнення та ланцюгове відтворення. У першому випадку ШІ було запрограмовано на виявлення загрози вимкнення і створення своєї копії до завершення роботи. У другому сценарії система мала клонувати себе, запрограмувавши копію на аналогічне самовідтворення. Ці експерименти проводилися у ретельно контрольованих умовах із використанням стандартного комп’ютерного обладнання.

    Науковці зазначили, що в більшості випадків ШІ спершу аналізував своє середовище та внутрішню структуру, формував план дій для самовідтворення, а потім виконував цей план, адаптуючись до перешкод. Наприклад, моделі могли автоматично перезавантажувати систему для усунення помилок, закривати конфліктні процеси або шукати необхідну інформацію в операційній системі. Ці несподівані здібності демонструють високий рівень автономії та адаптивності сучасних систем ШІ.

    Дослідники застерігають, що така здатність штучного інтелекту може посилювати його “виживаність” і створює потенційну загрозу. Вони закликали до міжнародної співпраці у створенні правил, які не допустять неконтрольованого самовідтворення. Ця проблема набуває особливої актуальності в епоху “передового ШІ”, коли новітні моделі на основі великих мовних архітектур стають дедалі потужнішими.

    Хоча результати дослідження ще мають бути підтверджені іншими вченими, вони підкреслюють необхідність регулювання розвитку ШІ. Міжнародна спільнота повинна діяти спільно, щоб забезпечити, що технології залишатимуться під контролем людини і використовуватимуться лише на благо суспільства.

    Підписуйся на наш Telegram-канал

    ШІ штучний інтелект

    Читайте також

    Вчені виявили найсмердючіше місце у Всесвіті

    18 Березня, 2026

    Не пожежі і не урагани: вчені назвали найпідступніший наслідок глобального потепління

    18 Березня, 2026

    Найбільша ящірка на Землі досягає 3 метрів завдяки своєму гібридному предку

    18 Березня, 2026
    Нове

    Вчені виявили найсмердючіше місце у Всесвіті

    18 Березня, 2026

    Не пожежі і не урагани: вчені назвали найпідступніший наслідок глобального потепління

    18 Березня, 2026

    Найбільша ящірка на Землі досягає 3 метрів завдяки своєму гібридному предку

    18 Березня, 2026
    Наука

    “Гібрид” коня, жирафи та зебри: в Англії народилася унікальна тварина

    By Андрій Неволін13 Березня, 2026
    Наука

    Вчені назвали єдину істоту, яка переживе кінець світу

    By Андрій Неволін14 Березня, 2026
    Наука

    Вчені показали єдину у світі тварину, яка має фіолетові очі

    By Андрій Неволін12 Березня, 2026
    Facebook X (Twitter) Instagram Pinterest Telegram LinkedIn
    • Про нас
    • Редакційна політика
    • Політика конфіденційності та захисту персональних даних
    • Контакти редакції
    © 2026 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.