Понеділок, 1 Липня

Напередодні звільнення гендиректора OpenAI кілька штатних дослідників направили раді директорів листа з попередженням про потужне відкриття у сфері штучного інтелекту, який, за їхніми словами, може загрожувати людству. Про це повідомили два джерела Reuters.

Джерела назвали цей лист одним із факторів у довгому списку скарг ради директорів, які призвели до звільнення Альтмана. Видання Reuters не змогло ознайомитись із копією листа. Автори документа не відповіли на запит про коментар.

За словами одного із співрозмовників агентства, творець ChatGPT досяг прогресу в розробці Q* (вимовляється як Q-Star), яка, на думку деяких усередині компанії, може стати проривом у пошуку стартапом надінтелекту, також відомого як загальний штучний інтелект (AGI). OpenAI визначає AGI як системи штучного інтелекту, які розумніші за людей.

Нова модель спромоглася вирішити деякі математичні завдання. Незважаючи на те, що Q* виконує математику лише на рівні учнів початкової школи, сам факт успішної роботи ШІ з математикою сигналізує про прорив.

На відміну від калькулятора, який може виконувати обмежену кількість операцій, AGI може узагальнювати, навчатися та розуміти.

Reuters пояснює, що дослідники вважають математику передовим кордоном розвитку генеративного ШІ. Освоєння цієї здібності передбачає, що штучний інтелект має здатність до міркування, що нагадує людський інтелект.

Нагадаємо, що рада директорів OpenAI звільнила засновника компанії Сема Альтмана 17 листопада. За ним зібралися йти 95% співробітників. Відставка Альтмана тривала п’ять днів – 22 листопада було досягнуто згоди щодо його повернення до OpenAI.

Exit mobile version