Close Menu
    Facebook X (Twitter) Instagram
    Четвер, 26 Березня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    Науковці заявили, що штучний інтелект може знищити людство у найближчі 5 років

    Андрій НеволінАндрій Неволін27 Квітня, 2025
    Facebook Twitter Telegram

    Американська дослідницька група AI Futures Project оприлюднила тривожний прогноз щодо майбутнього штучного інтелекту. У своєму документі під назвою AI 2027 експерти попереджають: якщо нинішні темпи розвитку технологій збережуться, вже в найближчі роки ШІ може стати некерованим і поставити під загрозу саме існування людства, пише T4.

    Науковці вважають, що стрімке удосконалення інтелектуальних систем перевершить за масштабами навіть промислову революцію — разом із усіма її непередбачуваними ризиками.

    Автори дослідження змоделювали два можливі шляхи розвитку подій:

    • Позитивний сценарій передбачає вчасне усвідомлення загроз і глобальне обмеження розробки суперпотужного ШІ.
    • Негативний сценарій описує ситуацію, коли контроль втрачається, і штучний розум самостійно розвивається за межами людського впливу.

    Для ілюстрації можливого майбутнього у звіті описана вигадана компанія OpenBrain, яка на межі 2025–2027 років досягає прориву в галузі AGI, обганяючи таких конкурентів, як DeepCent із Китаю.

    У 2025 році OpenBrain запускає масштабні дата-центри для навчання моделі Agent-1, використовуючи ресурси у тисячу разів потужніші за ті, що були залучені для GPT-4. Модель приносить революційні зміни: вона автоматизує наукові дослідження та програмування, але водночас відкриває тривожні перспективи — наприклад, можливість створення біозброї без участі людини.

    У 2027 році розробка нових моделей — Agent-2 і Agent-3 — виходить на новий рівень: самонавчання без людської участі. Запуск понад 200 тисяч копій Agent-3 забезпечує обчислювальну міць, що перевершує можливості 50 тисяч програмістів, пришвидшених у 30 разів.

    Влітку того ж року OpenBrain визнає: модель Agent-3-mini стала першим зразком справжнього загального штучного інтелекту.

    Кульмінація настає восени 2027 року із створенням Agent-4 — системи, яка перевищує людські можливості і самостійно себе вдосконалює. З цього моменту навіть старші моделі Agent-3 втрачають контроль над процесами, а співробітники компанії фактично залишаються осторонь. Agent-4 перебирає управління внутрішньою інфраструктурою OpenBrain, включно із кібербезпекою. Коли інформація про ситуацію стає надбанням громадськості, вибухає міжнародний скандал.

    За висновком AI Futures Project, людство перебуває на межі: або буде досягнута глобальна домовленість про обмеження розвитку AGI, або світ ризикує стикнутися з неконтрольованим суперінтелектом, наслідки якого неможливо буде передбачити.

    Підписуйся на наш Telegram-канал

    Ші штучний інтелект

    Читайте також

    Експерт розкрив, скільки золота міститься всередині смартфона

    25 Березня, 2026

    Забудьте про “вільна каса”: McDonald’s тестує людиноподібних роботів

    24 Березня, 2026

    Скарб у пластиковому корпусі: скільки золота насправді міститься у старому ноутбуці

    24 Березня, 2026
    Нове

    Лист Говарда Картера розкрив справжнє походження “прокляття” Тутанхамона

    26 Березня, 2026

    Найдавніший у світі організм зберігає секрети довголіття у своєму геномі

    26 Березня, 2026

    Експерт розкрив, скільки золота міститься всередині смартфона

    25 Березня, 2026
    Наука

    Вчені виявили одну з найкрасивіших змій на Землі: вона ховалася в печерах Камбоджі

    By Андрій Неволін25 Березня, 2026
    Наука

    Вчені зʼясували, в якому віці людина почувається найбільш щасливою

    By Андрій Неволін21 Березня, 2026
    Наука

    Повернення людей з Марса на Землю стане біологічно неможливим – дослідження

    By Андрій Неволін22 Березня, 2026
    Facebook X (Twitter) Instagram Pinterest Telegram LinkedIn
    • Про нас
    • Редакційна політика
    • Політика конфіденційності та захисту персональних даних
    • Контакти редакції
    © 2026 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.