Джеффрі Хінтон, провідний вчений у галузі штучного інтелекту, якого називають його “хрещеним батьком”, знову забив на сполох. Він стверджує, що ймовірність знищення людства штучним інтелектом в найближчі 30 років становить від 10 до 20 відсотків. Це дуже високий показник, враховуючи стрімкий розвиток технології.
Чому ШІ може стати небезпечним?
Хінтон пояснює, що штучний інтелект вже зараз демонструє здатність до самостійного навчання та розвитку. Він побоюється, що з часом ШІ може стати розумнішим за людей і вийти з-під контролю.
“Ми ніколи раніше не мали справи з речами, розумнішими за нас самих”, – зазначає вчений.
Які ризики несе ШІ?
Джеффрі Хінтон, експерт зі штучного інтелекту, застерігає про потенційні загрози, пов’язані з ШІ, такі як: втрата контролю над ШІ, який може почати діяти всупереч інтересам людства; зловживання технологією з боку “поганих акторів” для створення зброї чи маніпулювання людьми; а також поглиблення соціальної нерівності через масове безробіття, спричинене автоматизацією.
Що робити?
Хінтон закликає до обережності та продуманого підходу до розробки штучного інтелекту. Він вважає, що необхідно створити чіткі правила та обмеження, щоб запобігти зловживанням і забезпечити безпеку людства.
Заклик до відповідальності
Попередження Хінтона – це серйозний сигнал для всього світу. Штучний інтелект має величезний потенціал, але він також несе в собі небезпеку. Нам потрібно усвідомити цю небезпеку і вжити заходів, щоб запобігти катастрофі. Відповідальність за майбутнє людства лежить на нас.
Читайте також: Штучний інтелект намалював автопортрет: як він себе уявляє