Close Menu
    Facebook X (Twitter) Instagram
    Неділя, 29 Червня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    Науковці заявили, що штучний інтелект може знищити людство у найближчі 5 років

    Андрій НеволінАндрій Неволін27 Квітня, 2025
    Facebook Twitter Telegram

    Американська дослідницька група AI Futures Project оприлюднила тривожний прогноз щодо майбутнього штучного інтелекту. У своєму документі під назвою AI 2027 експерти попереджають: якщо нинішні темпи розвитку технологій збережуться, вже в найближчі роки ШІ може стати некерованим і поставити під загрозу саме існування людства, пише T4.

    Науковці вважають, що стрімке удосконалення інтелектуальних систем перевершить за масштабами навіть промислову революцію — разом із усіма її непередбачуваними ризиками.

    Автори дослідження змоделювали два можливі шляхи розвитку подій:

    • Позитивний сценарій передбачає вчасне усвідомлення загроз і глобальне обмеження розробки суперпотужного ШІ.
    • Негативний сценарій описує ситуацію, коли контроль втрачається, і штучний розум самостійно розвивається за межами людського впливу.

    Для ілюстрації можливого майбутнього у звіті описана вигадана компанія OpenBrain, яка на межі 2025–2027 років досягає прориву в галузі AGI, обганяючи таких конкурентів, як DeepCent із Китаю.

    У 2025 році OpenBrain запускає масштабні дата-центри для навчання моделі Agent-1, використовуючи ресурси у тисячу разів потужніші за ті, що були залучені для GPT-4. Модель приносить революційні зміни: вона автоматизує наукові дослідження та програмування, але водночас відкриває тривожні перспективи — наприклад, можливість створення біозброї без участі людини.

    У 2027 році розробка нових моделей — Agent-2 і Agent-3 — виходить на новий рівень: самонавчання без людської участі. Запуск понад 200 тисяч копій Agent-3 забезпечує обчислювальну міць, що перевершує можливості 50 тисяч програмістів, пришвидшених у 30 разів.

    Влітку того ж року OpenBrain визнає: модель Agent-3-mini стала першим зразком справжнього загального штучного інтелекту.

    Кульмінація настає восени 2027 року із створенням Agent-4 — системи, яка перевищує людські можливості і самостійно себе вдосконалює. З цього моменту навіть старші моделі Agent-3 втрачають контроль над процесами, а співробітники компанії фактично залишаються осторонь. Agent-4 перебирає управління внутрішньою інфраструктурою OpenBrain, включно із кібербезпекою. Коли інформація про ситуацію стає надбанням громадськості, вибухає міжнародний скандал.

    За висновком AI Futures Project, людство перебуває на межі: або буде досягнута глобальна домовленість про обмеження розвитку AGI, або світ ризикує стикнутися з неконтрольованим суперінтелектом, наслідки якого неможливо буде передбачити.

    Підписуйся на наш Telegram-канал

    Ші штучний інтелект

    Читайте також

    Штучний інтелект готовий знищити людину аби не допустити своє вимкнення

    29 Червня, 2025

    Apple змінить місце розташування свого фірмового логотипа в iPhone (ФОТО)

    29 Червня, 2025

    Прорив у сфері штучного інтелекту дозволив вченим провести 20-хвилинну “розмову” з горбатим китом

    26 Червня, 2025
    Нове

    Вчені показали, як зміниться зовнішність людини до 2050 року

    29 Червня, 2025

    У Середземному морі активно розмножуються океанічні риби, які мають колючі отруйні шипи в плавцях (ФОТО)

    29 Червня, 2025

    Штучний інтелект готовий знищити людину аби не допустити своє вимкнення

    29 Червня, 2025
    Наука

    Щось з-під крижаного покриву Антарктиди намагається звʼязатися з науковцями

    By Андрій Неволін27 Червня, 2025
    Наука

    Прорив у сфері штучного інтелекту дозволив вченим провести 20-хвилинну “розмову” з горбатим китом

    By Андрій Неволін26 Червня, 2025
    Наука

    Волохату рибу-жабу визнали найшвидшим хижаком океану

    By Андрій Неволін25 Червня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.