Четвер, 12 Вересня

Страхи перед повстанням машин, що живляться науковою фантастикою, виявилися перебільшеними, принаймні на даний момент. Нове дослідження, проведене вченими з Технічного університету Дармштадта та Університету Бата, показало, що сучасні великі мовні моделі (LLM), такі як ChatGPT, не здатні до самостійних дій та виходу з-під контролю.

Обмеження сучасного ШІ

Хоча ШІ може призводити до негативних наслідків, таких як поширення фейкових новин та цифрове забруднення, дослідження показало, що ці моделі занадто обмежені у своїх алгоритмах і не здатні навчатися без втручання людини.

“Наше дослідження демонструє, що страх перед небажаними та непередбачуваними діями моделей не обґрунтований”, – зазначив Харіш Тайяр Мадабуші, один з авторів дослідження.

LLM, безсумнівно, стали складнішими і можуть вести зв’язкові розмови, але їм бракує критичних навичок, необхідних для оцінки інформації та прийняття самостійних рішень.

Людський фактор – головна загроза

Дослідження підтвердило, що доки моделі діють у рамках заданого програмування, немає підстав для побоювань. Проте, вчені зазначають, що людський фактор може становити велику загрозу, враховуючи зростання використання ШІ та пов’язаних із цим проблем.

“Нам потрібно зосередитися на ризиках, які можуть виникнути через використання цих технологій, а не на їх потенційні загрози як самостійні системи”, – підкреслила Ірина Гуревич, керівник дослідження.

Це дослідження дає нам підстави для оптимізму. ШІ, принаймні на даному етапі розвитку, не становить екзистенційної загрози для людства. Однак, це не означає, що ми можемо ігнорувати потенційні ризики, пов’язані з його використанням. Нам необхідно відповідально підходити до розвитку та впровадження ШІ, щоб він служив на благо людства, а не проти нього.

Читайте також: Unitree показала, на що здатний гуманоїд вартістю $16 тис

Exit mobile version