Close Menu
    Facebook X (Twitter) Instagram
    Четвер, 30 Квітня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    Вчений назвав технологію, яка здатна знищити людську расу протягом наступних 30 років

    Андрій НеволінАндрій Неволін31 Грудня, 2024
    Facebook Twitter Telegram

    Джеффрі Хінтон, провідний вчений у галузі штучного інтелекту, якого називають його “хрещеним батьком”, знову забив на сполох. Він стверджує, що ймовірність знищення людства штучним інтелектом в найближчі 30 років становить від 10 до 20 відсотків. Це дуже високий показник, враховуючи стрімкий розвиток технології.

    Чому ШІ може стати небезпечним?

    Хінтон пояснює, що штучний інтелект вже зараз демонструє здатність до самостійного навчання та розвитку. Він побоюється, що з часом ШІ може стати розумнішим за людей і вийти з-під контролю.

    “Ми ніколи раніше не мали справи з речами, розумнішими за нас самих”, – зазначає вчений.

    Хінтон пояснює, що штучний інтелект вже зараз демонструє здатність до самостійного навчання та розвитку. Він побоюється, що з часом ШІ може стати розумнішим за людей і вийти з-під контролю

    Які ризики несе ШІ?

    Джеффрі Хінтон, експерт зі штучного інтелекту, застерігає про потенційні загрози, пов’язані з ШІ, такі як: втрата контролю над ШІ, який може почати діяти всупереч інтересам людства; зловживання технологією з боку “поганих акторів” для створення зброї чи маніпулювання людьми; а також поглиблення соціальної нерівності через масове безробіття, спричинене автоматизацією.

    Що робити?

    Хінтон закликає до обережності та продуманого підходу до розробки штучного інтелекту. Він вважає, що необхідно створити чіткі правила та обмеження, щоб запобігти зловживанням і забезпечити безпеку людства.

    Заклик до відповідальності

    Попередження Хінтона – це серйозний сигнал для всього світу. Штучний інтелект має величезний потенціал, але він також несе в собі небезпеку. Нам потрібно усвідомити цю небезпеку і вжити заходів, щоб запобігти катастрофі. Відповідальність за майбутнє людства лежить на нас.

    Читайте також: Штучний інтелект намалював автопортрет: як він себе уявляє

    Підписуйся на наш Telegram-канал

    ШІ Штучний інтелект

    Читайте також

    AirPods Pro 3: чи варто купувати цю модель AirPods в 2026

    22 Квітня, 2026

    Генеральний директор Apple радить обмежити користування смартфоном через вплив на мозок

    31 Березня, 2026

    ШІ за рік знатиме більше, ніж усі люди на Землі разом узяті

    30 Березня, 2026
    Нове

    Вчені назвали вік, коли людина досягає піку щастя

    30 Квітня, 2026

    Один на 50 мільйонів: рибалка виловив рідкісного лобстера з двоколірним забарвленням

    30 Квітня, 2026

    В Арктиці виявили рідкісний жовтий діамант вагою 158 каратів: його вартість оцінюють у десятки мільйонів доларів

    29 Квітня, 2026
    Наука

    У 1986 році щось на озері Ніос забрало життя 1800 людей за одну ніч: вчені нарешті з’ясували, що саме сталося

    By Андрій Неволін25 Квітня, 2026
    Наука

    Смертельна краса розміром з м’яч для гольфу: вчені показали найотруйнішого у світі восьминога

    By Андрій Неволін26 Квітня, 2026
    Наука

    Вчені нарешті зʼясували, кому належить золоте яйце, знайдене на дні Тихого океану в 2023 році

    By Андрій Неволін23 Квітня, 2026
    Facebook X (Twitter) Instagram Pinterest Telegram LinkedIn
    • Про нас
    • Редакційна політика
    • Політика конфіденційності та захисту персональних даних
    • Контакти редакції
    © 2026 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.