Close Menu
    Facebook X (Twitter) Instagram
    Понеділок, 6 Квітня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    Вчений назвав технологію, яка здатна знищити людську расу протягом наступних 30 років

    Андрій НеволінАндрій Неволін31 Грудня, 2024
    Facebook Twitter Telegram

    Джеффрі Хінтон, провідний вчений у галузі штучного інтелекту, якого називають його “хрещеним батьком”, знову забив на сполох. Він стверджує, що ймовірність знищення людства штучним інтелектом в найближчі 30 років становить від 10 до 20 відсотків. Це дуже високий показник, враховуючи стрімкий розвиток технології.

    Чому ШІ може стати небезпечним?

    Хінтон пояснює, що штучний інтелект вже зараз демонструє здатність до самостійного навчання та розвитку. Він побоюється, що з часом ШІ може стати розумнішим за людей і вийти з-під контролю.

    “Ми ніколи раніше не мали справи з речами, розумнішими за нас самих”, – зазначає вчений.

    Хінтон пояснює, що штучний інтелект вже зараз демонструє здатність до самостійного навчання та розвитку. Він побоюється, що з часом ШІ може стати розумнішим за людей і вийти з-під контролю

    Які ризики несе ШІ?

    Джеффрі Хінтон, експерт зі штучного інтелекту, застерігає про потенційні загрози, пов’язані з ШІ, такі як: втрата контролю над ШІ, який може почати діяти всупереч інтересам людства; зловживання технологією з боку “поганих акторів” для створення зброї чи маніпулювання людьми; а також поглиблення соціальної нерівності через масове безробіття, спричинене автоматизацією.

    Що робити?

    Хінтон закликає до обережності та продуманого підходу до розробки штучного інтелекту. Він вважає, що необхідно створити чіткі правила та обмеження, щоб запобігти зловживанням і забезпечити безпеку людства.

    Заклик до відповідальності

    Попередження Хінтона – це серйозний сигнал для всього світу. Штучний інтелект має величезний потенціал, але він також несе в собі небезпеку. Нам потрібно усвідомити цю небезпеку і вжити заходів, щоб запобігти катастрофі. Відповідальність за майбутнє людства лежить на нас.

    Читайте також: Штучний інтелект намалював автопортрет: як він себе уявляє

    Підписуйся на наш Telegram-канал

    ШІ Штучний інтелект

    Читайте також

    Генеральний директор Apple радить обмежити користування смартфоном через вплив на мозок

    31 Березня, 2026

    ШІ за рік знатиме більше, ніж усі люди на Землі разом узяті

    30 Березня, 2026

    Танцювальне шоу роботів у Китаї закінчилося катастрофою: гуманоїд дав ляпаса дитині

    26 Березня, 2026
    Нове

    Вчені розповіли, які скарби приховує Антарктида і чому битва за континент — лише питання часу

    5 Квітня, 2026

    Чи міг наш Всесвіт застрягти всередині гігантської чорної діри: ось що кажуть вчені

    5 Квітня, 2026

    Вчені пояснили, чому люди не можуть позбутися агресії через мільйони років еволюції

    5 Квітня, 2026
    Наука

    Підводний “інкубатор”: біля берегів Канади виявили активний вулкан, покритий мільйоном гігантських яєць

    By Андрій Неволін2 Квітня, 2026
    Наука

    Марс може стати придатним для життя всього за 15 років: що вигадали вчені

    By Андрій Неволін2 Квітня, 2026
    Наука

    Гігант масою 30 кг і завдовжки 50 см: як виглядає найбільше насіння у світі

    By Андрій Неволін5 Квітня, 2026
    Facebook X (Twitter) Instagram Pinterest Telegram LinkedIn
    • Про нас
    • Редакційна політика
    • Політика конфіденційності та захисту персональних даних
    • Контакти редакції
    © 2026 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.