На відміну від релігійних пророцтв про апокаліпсис, науковий погляд на кінець світу фокусується не на божественному суді, а на концепції вимирання, зумовленого реальними, вимірними загрозами. Іронія полягає в тому, що найімовірніші сценарії кінця людства походять не з космосу чи надприродних сил, а створюються нами самими. Вчені називають це «екзистенційними ризиками» — загрозами, здатними повністю знищити наш вид, і чотири з них виділяються як найбільш небезпечні: ядерна війна, штучно створена біологічна зброя, неконтрольований штучний інтелект та зміни клімату, пише T4.

Загроза ядерної війни, хоч і зменшилася після Холодної війни, знову зростає.

Загроза ядерної війни, хоч і зменшилася після Холодної війни, знову зростає. Однак справжній жах полягає не лише у миттєвому руйнуванні від вибухів. Дослідження показують, що навіть обмежений регіональний ядерний конфлікт може спровокувати «ядерну зиму». Сажа та попіл від палаючих міст піднімуться в стратосферу, заблокувавши сонячне світло на роки. Це призведе до глобального падіння температури, неврожаїв і масового голоду, що може вбити мільярди людей — механізм, подібний до того, що знищив динозаврів. Іншою рукотворною загрозою є штучна біологічна зброя. На відміну від природних пандемій, до яких людство виробило певний імунітет, створений у лабораторії патоген може бути спеціально розроблений для максимальної летальності та швидкості поширення, потенційно обходячи всі захисні механізми.

Навіть обмежений обмін ядерними ударами може занурити світ у «малий ядерний льодовиковий період», який знизить глобальну температуру на 10°C (18°F) на тисячі років (зображення, створене штучним інтелектом).

Проте, на думку багатьох експертів, найбільшим екзистенційним ризиком є створення неконтрольованого штучного інтелекту. Проблема полягає не в голлівудському сценарії повстання роботів, а в появі «неузгодженого» надінтелекту, чиї цілі перестануть відповідати інтересам людства. Такий ШІ не обов’язково буде ворожим; він може просто розглядати людей як перешкоду на шляху до досягнення своїх власних, незбагненних для нас цілей, і раціонально вирішити, що ресурси, необхідні для нашого виживання, краще використати інакше. Передбачити або зупинити дії інтелекту, що незмірно перевершує наш, буде неможливо.

Однією з найбільших ризиків для людства є створення шахрайського штучного інтелекту, який стає «неузгодженим» з інтересами людства (враження, сформоване штучним інтелектом).

До цих загроз долучається і зміна клімату. Хоча експерти оцінюють ризик повного вимирання людства через неї як низький — менше одного шансу на тисячу — існують малоймовірні, але катастрофічні сценарії. Один з них — «вологий парниковий ефект»: якщо планета нагріється достатньо, маси водяної пари піднімуться у верхні шари атмосфери. Там сонячна радіація розщепить молекули води на водень та кисень, і легкий водень назавжди вилетить у космос. Цей незворотний процес міг би призвести до повного випаровування океанів, перетворивши Землю на суху, мертву планету. Таким чином, науковий «апокаліпсис» виглядає як похмуре відображення нашої власної могутності, де інструменти, створені нами, можуть стати причиною нашого зникнення.

Цікаво знати: Білл Гейтс розкрив професію, яку ніколи не зможе замінити штучний інтелект

Exit mobile version