Close Menu
    Facebook X (Twitter) Instagram
    Вівторок, 14 Жовтня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    Науковці заявили, що штучний інтелект може знищити людство у найближчі 5 років

    Андрій НеволінАндрій Неволін27 Квітня, 2025
    Facebook Twitter Telegram

    Американська дослідницька група AI Futures Project оприлюднила тривожний прогноз щодо майбутнього штучного інтелекту. У своєму документі під назвою AI 2027 експерти попереджають: якщо нинішні темпи розвитку технологій збережуться, вже в найближчі роки ШІ може стати некерованим і поставити під загрозу саме існування людства, пише T4.

    Науковці вважають, що стрімке удосконалення інтелектуальних систем перевершить за масштабами навіть промислову революцію — разом із усіма її непередбачуваними ризиками.

    Автори дослідження змоделювали два можливі шляхи розвитку подій:

    • Позитивний сценарій передбачає вчасне усвідомлення загроз і глобальне обмеження розробки суперпотужного ШІ.
    • Негативний сценарій описує ситуацію, коли контроль втрачається, і штучний розум самостійно розвивається за межами людського впливу.

    Для ілюстрації можливого майбутнього у звіті описана вигадана компанія OpenBrain, яка на межі 2025–2027 років досягає прориву в галузі AGI, обганяючи таких конкурентів, як DeepCent із Китаю.

    У 2025 році OpenBrain запускає масштабні дата-центри для навчання моделі Agent-1, використовуючи ресурси у тисячу разів потужніші за ті, що були залучені для GPT-4. Модель приносить революційні зміни: вона автоматизує наукові дослідження та програмування, але водночас відкриває тривожні перспективи — наприклад, можливість створення біозброї без участі людини.

    У 2027 році розробка нових моделей — Agent-2 і Agent-3 — виходить на новий рівень: самонавчання без людської участі. Запуск понад 200 тисяч копій Agent-3 забезпечує обчислювальну міць, що перевершує можливості 50 тисяч програмістів, пришвидшених у 30 разів.

    Влітку того ж року OpenBrain визнає: модель Agent-3-mini стала першим зразком справжнього загального штучного інтелекту.

    Кульмінація настає восени 2027 року із створенням Agent-4 — системи, яка перевищує людські можливості і самостійно себе вдосконалює. З цього моменту навіть старші моделі Agent-3 втрачають контроль над процесами, а співробітники компанії фактично залишаються осторонь. Agent-4 перебирає управління внутрішньою інфраструктурою OpenBrain, включно із кібербезпекою. Коли інформація про ситуацію стає надбанням громадськості, вибухає міжнародний скандал.

    За висновком AI Futures Project, людство перебуває на межі: або буде досягнута глобальна домовленість про обмеження розвитку AGI, або світ ризикує стикнутися з неконтрольованим суперінтелектом, наслідки якого неможливо буде передбачити.

    Підписуйся на наш Telegram-канал

    Ші штучний інтелект

    Читайте також

    Невбиваний смартфон і кінотеатр у кишені: представлено Blackview XPLORE 2 Projector

    9 Жовтня, 2025

    Білл Гейтс розкрив професію, яку ніколи не зможе замінити штучний інтелект

    29 Вересня, 2025

    Більше жодних компромісів: представлено Blackview XPLORE 2 — захищений флагман з 3.2K AMOLED-екраном

    25 Вересня, 2025
    Нове

    Вчені показали тварину, яка народжує своїх дитинчат ротом

    14 Жовтня, 2025

    Вчені назвали домашню тварину, яка уповільнює старіння у жінок

    13 Жовтня, 2025

    Вчені назвали найстарішу та наймолодшу планети в нашій Сонячній системі

    13 Жовтня, 2025
    Наука

    Вчений стверджує, що до Землі наближається “троянський кінь”, відправлений інопланетною цивілізацією

    By Андрій Неволін13 Жовтня, 2025
    Наука

    Вчені назвали домашню тварину, яка уповільнює старіння у жінок

    By Андрій Неволін13 Жовтня, 2025
    Наука

    Життєво важливий “двигун” Землі сповільнився втричі

    By Андрій Неволін9 Жовтня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.