Close Menu
    Facebook X (Twitter) Instagram
    Середа, 5 Листопада
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    Наукова спільнота закликала негайно припинити розробку суперінтелекту: зібрано 68448 голосів

    Андрій НеволінАндрій Неволін4 Листопада, 2025
    Facebook Twitter Telegram

    Світова наукова та технологічна спільнота виступила з безпрецедентним закликом до негайного припинення подальшої розробки суперінтелекту (Superintelligence), доки людство не навчиться ефективно керувати цим потенційно “потужним” і непередбачуваним інструментом. Майже 70 тисяч вчених, дослідників, відомих бізнесменів та публічних осіб, серед яких лауреати Нобелівської премії, такі як Джеффрі Хінтон та Йошуа Бенджіо, яких часто називають “хрещеними батьками” ШІ, а також такі впливові фігури, як співзасновник Apple Стів Возняк та засновник Virgin Group Річард Бренсон, підписали відкрите звернення, опубліковане організацією Future of Life Institute наприкінці жовтня, пише T4.

    У цьому листі наголошується на екзистенційній небезпеці створення системи, яка може перевершити людський інтелект у всіх сферах, і міститься заклик до обережності, поки не будуть розроблені надійні механізми контролю та етичні рамки. Хоча інноваційні інструменти штучного інтелекту, безперечно, обіцяють “безпрецедентне здоров’я та процвітання”, розробка суперінтелекту, який зможе “значно перевершити всіх людей практично у всіх когнітивних завданнях”, викликає глибоке занепокоєння.

    На момент публікації статті заяву підписали 68448 вчених, дослідників, відомих бізнесменів та публічних осіб. Скриншот Future of Life Institute.

    Серед перерахованих ризиків у заклику згадуються “економічне старіння та позбавлення прав людини, втрата свободи, громадянських свобод, гідності та контролю”, а також “ризики для національної безпеки та навіть потенційне вимирання людства”. Ці попередження віддзеркалюють давні прогнози, зроблені ще Аланом Тюрінгом у 1950-х роках, який побоювався, що створення ШІ, що перевершує людські когнітивні здібності, може призвести до втрати людьми контролю над цими системами.

    Актуальність цього заклику підкреслюється тим фактом, що багато провідних компаній у сфері штучного інтелекту мають на меті створити такий суперінтелект вже в наступному десятилітті. Швидкість розвитку технологій ШІ значно випереджає розробку відповідних регуляторних механізмів та суспільних норм. Без паузи для осмислення та розробки ефективних стратегій управління цією потужною технологією, людство ризикує зіткнутися з наслідками, які можуть бути незворотними. Це відкрите звернення є не просто науковою дискусією, а криком надії від глобальної еліти, яка усвідомлює, що майбутнє цивілізації залежить від відповідального підходу до найпотужнішого творіння людського розуму.

    Читайте також: Штучний інтелект розкрив “ймовірних авторів” Біблії

    Підписуйся на наш Telegram-канал

    суперінтелект ШІ штучний інтелект

    Читайте також

    Чому експерти радять вимикати телефон раз на тиждень — і що буде, якщо цього не робити

    4 Листопада, 2025

    ШІ-виконавиця вперше потрапила до авторитетного музичного чарту

    4 Листопада, 2025

    Китай одночасно підняв у небо 15 947 дронів

    4 Листопада, 2025
    Нове

    Наукова спільнота закликала негайно припинити розробку суперінтелекту: зібрано 68448 голосів

    4 Листопада, 2025

    Археологи виявили місце біблійного дива

    4 Листопада, 2025

    Вчені знайшли спосіб перетворити куряче пір’я на чисту електроенергію

    4 Листопада, 2025
    Наука

    Вчені показали, як виглядатиме пересічна людина до 2050 року

    By Андрій Неволін3 Листопада, 2025
    Наука

    Вчені пояснили, чому смерть має такий характерний запах

    By Андрій Неволін30 Жовтня, 2025
    Наука

    Вчені визначили найнебезпечніших хижаків, яких не здатна перемогти людина

    By Андрій Неволін31 Жовтня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.