Close Menu
    Facebook X (Twitter) Instagram
    Неділя, 17 Серпня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    Науковці заявили, що штучний інтелект може знищити людство у найближчі 5 років

    Андрій НеволінАндрій Неволін27 Квітня, 2025
    Facebook Twitter Telegram

    Американська дослідницька група AI Futures Project оприлюднила тривожний прогноз щодо майбутнього штучного інтелекту. У своєму документі під назвою AI 2027 експерти попереджають: якщо нинішні темпи розвитку технологій збережуться, вже в найближчі роки ШІ може стати некерованим і поставити під загрозу саме існування людства, пише T4.

    Науковці вважають, що стрімке удосконалення інтелектуальних систем перевершить за масштабами навіть промислову революцію — разом із усіма її непередбачуваними ризиками.

    Автори дослідження змоделювали два можливі шляхи розвитку подій:

    • Позитивний сценарій передбачає вчасне усвідомлення загроз і глобальне обмеження розробки суперпотужного ШІ.
    • Негативний сценарій описує ситуацію, коли контроль втрачається, і штучний розум самостійно розвивається за межами людського впливу.

    Для ілюстрації можливого майбутнього у звіті описана вигадана компанія OpenBrain, яка на межі 2025–2027 років досягає прориву в галузі AGI, обганяючи таких конкурентів, як DeepCent із Китаю.

    У 2025 році OpenBrain запускає масштабні дата-центри для навчання моделі Agent-1, використовуючи ресурси у тисячу разів потужніші за ті, що були залучені для GPT-4. Модель приносить революційні зміни: вона автоматизує наукові дослідження та програмування, але водночас відкриває тривожні перспективи — наприклад, можливість створення біозброї без участі людини.

    У 2027 році розробка нових моделей — Agent-2 і Agent-3 — виходить на новий рівень: самонавчання без людської участі. Запуск понад 200 тисяч копій Agent-3 забезпечує обчислювальну міць, що перевершує можливості 50 тисяч програмістів, пришвидшених у 30 разів.

    Влітку того ж року OpenBrain визнає: модель Agent-3-mini стала першим зразком справжнього загального штучного інтелекту.

    Кульмінація настає восени 2027 року із створенням Agent-4 — системи, яка перевищує людські можливості і самостійно себе вдосконалює. З цього моменту навіть старші моделі Agent-3 втрачають контроль над процесами, а співробітники компанії фактично залишаються осторонь. Agent-4 перебирає управління внутрішньою інфраструктурою OpenBrain, включно із кібербезпекою. Коли інформація про ситуацію стає надбанням громадськості, вибухає міжнародний скандал.

    За висновком AI Futures Project, людство перебуває на межі: або буде досягнута глобальна домовленість про обмеження розвитку AGI, або світ ризикує стикнутися з неконтрольованим суперінтелектом, наслідки якого неможливо буде передбачити.

    Підписуйся на наш Telegram-канал

    Ші штучний інтелект

    Читайте також

    Blackview Active 12 Pro: перший у світі захищений 5G-планшет із 120-дюймовим проєктором

    15 Серпня, 2025

    Ціни на iPhone впадуть на третину: експерт назвав причину

    15 Серпня, 2025

    Нова ера телевізорів: Samsung запускає перші у світі дисплеї Micro RGB

    14 Серпня, 2025
    Нове

    Вчені показали, яким був перший вид людини

    17 Серпня, 2025

    Рідкісна степова рослина перетворює українські поля на «срібне волосся»

    17 Серпня, 2025

    Все через ізоляцію: життя в Антарктиді змінило дослідників

    17 Серпня, 2025
    Наука

    Дорожчий за золото у мільйони разів: як виглядає найцінніший елемент на Землі

    By Андрій Неволін8 Серпня, 2025
    Наука

    Поширену в Україні комаху визнали одним із найсмертоносніших мисливців (ФОТО)

    By Андрій Неволін10 Серпня, 2025
    Наука

    Підрив Каховської ГЕС став причиною розповсюдження Україною хижака часів Запорізької Січі

    By Андрій Неволін14 Серпня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.