Ілон Маск вважає, що штучний інтелект (ШІ) може стати смертельною небезпекою для людства.
На спеціальному саміті він заявив, що ймовірність апокаліпсису через ШІ, що вийшов з-під контролю, становить приблизно 10-20%.
При цьому Маск переконаний, що переваги цієї технології переважують мінуси. Але не уточнює, як дійшов своїх розрахунків.
Експерти вважають, що Маск навіть зменшує масштаб ризику. Деякі називають цифри до 99%. Окрім цього, спільнота вчених виступає проти створення просунутого ШІ, оскільки його неможливо контролювати.
Сам Маск, хоч і заснував компанію xAI для розвитку ШІ, виступає за жорстке регулювання цієї сфери.
Він порівняв створення ШІ з народженням супергеніальної дитини (начебто бога) і заявив, що такого «малюка» треба виховувати з упором на правдивість та цікавість, але ніяк не на брехню.