Close Menu
    Facebook X (Twitter) Instagram
    Вівторок, 15 Липня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    Науковці заявили, що штучний інтелект може знищити людство у найближчі 5 років

    Андрій НеволінАндрій Неволін27 Квітня, 2025
    Facebook Twitter Telegram

    Американська дослідницька група AI Futures Project оприлюднила тривожний прогноз щодо майбутнього штучного інтелекту. У своєму документі під назвою AI 2027 експерти попереджають: якщо нинішні темпи розвитку технологій збережуться, вже в найближчі роки ШІ може стати некерованим і поставити під загрозу саме існування людства, пише T4.

    Науковці вважають, що стрімке удосконалення інтелектуальних систем перевершить за масштабами навіть промислову революцію — разом із усіма її непередбачуваними ризиками.

    Автори дослідження змоделювали два можливі шляхи розвитку подій:

    • Позитивний сценарій передбачає вчасне усвідомлення загроз і глобальне обмеження розробки суперпотужного ШІ.
    • Негативний сценарій описує ситуацію, коли контроль втрачається, і штучний розум самостійно розвивається за межами людського впливу.

    Для ілюстрації можливого майбутнього у звіті описана вигадана компанія OpenBrain, яка на межі 2025–2027 років досягає прориву в галузі AGI, обганяючи таких конкурентів, як DeepCent із Китаю.

    У 2025 році OpenBrain запускає масштабні дата-центри для навчання моделі Agent-1, використовуючи ресурси у тисячу разів потужніші за ті, що були залучені для GPT-4. Модель приносить революційні зміни: вона автоматизує наукові дослідження та програмування, але водночас відкриває тривожні перспективи — наприклад, можливість створення біозброї без участі людини.

    У 2027 році розробка нових моделей — Agent-2 і Agent-3 — виходить на новий рівень: самонавчання без людської участі. Запуск понад 200 тисяч копій Agent-3 забезпечує обчислювальну міць, що перевершує можливості 50 тисяч програмістів, пришвидшених у 30 разів.

    Влітку того ж року OpenBrain визнає: модель Agent-3-mini стала першим зразком справжнього загального штучного інтелекту.

    Кульмінація настає восени 2027 року із створенням Agent-4 — системи, яка перевищує людські можливості і самостійно себе вдосконалює. З цього моменту навіть старші моделі Agent-3 втрачають контроль над процесами, а співробітники компанії фактично залишаються осторонь. Agent-4 перебирає управління внутрішньою інфраструктурою OpenBrain, включно із кібербезпекою. Коли інформація про ситуацію стає надбанням громадськості, вибухає міжнародний скандал.

    За висновком AI Futures Project, людство перебуває на межі: або буде досягнута глобальна домовленість про обмеження розвитку AGI, або світ ризикує стикнутися з неконтрольованим суперінтелектом, наслідки якого неможливо буде передбачити.

    Підписуйся на наш Telegram-канал

    Ші штучний інтелект

    Читайте також

    Маловідомий трюк з iPhone дозволяє акумулятору довше тримати заряд

    15 Липня, 2025

    Стало відомо, про що люди найчастіше запитують ChatGPT

    15 Липня, 2025

    Чохли для всієї лінійки iPhone 17 показали на фото: у кожного унікальний виріз

    14 Липня, 2025
    Нове

    Вчені виявили місце, де народжують гренландські акули, які живуть до 500 років

    15 Липня, 2025

    Частина геніальності: колишній колега назвав найнеприємнішу рису Стіва Джобса

    15 Липня, 2025

    Сягає 20 метрів у довжину і важить понад 34 тонни: як виглядає найбільша у світі риба

    15 Липня, 2025
    Наука

    Вчені показали найотруйніше у світі дерево

    By Андрій Неволін13 Липня, 2025
    Lifestyle

    Вчені розкрили формулу щастя: ось що потрібно робити лише 5 хвилин на день

    By Андрій Неволін7 Липня, 2025
    Наука

    Велика біла акула більше не верхівний хижак океану: хто посів її місце

    By Андрій Неволін6 Липня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.