Ідея про те, що штучний інтелект колись зможе пам’ятати кожну деталь нашого життя, одночасно захоплює та викликає занепокоєння. Саме таке бачення майбутнього ChatGPT нещодавно озвучив генеральний директор OpenAI Сем Альтман на заході Sequoia Capital, спровокувавши жваву дискусію в технологічній спільноті. За його словами, ідеальним сценарієм розвитку стане створення мініатюрної, але надзвичайно потужної моделі штучного інтелекту, здатної оперувати трильйонами токенів контексту, що дозволить їй зберігати та обробляти всю інформацію про життя користувача. Уявіть собі систему, яка має доступ до кожного вашого електронного листа, прочитаної книги, написаного листа та відвіданої веб-сторінки, а також до всіх зовнішніх джерел даних, до яких ви підключені. Причому ця база знань постійно поповнюватиметься, формуючи детальну цифрову копію вашого досвіду, пише T4.
Альтман також наголосив, що подібні можливості будуть доступні не лише окремим користувачам, а й компаніям, які зможуть інтегрувати всі свої дані в єдину систему на базі ChatGPT. Він зауважив, що молоде покоління вже сьогодні активно використовує штучний інтелект як своєрідну операційну систему, завантажуючи файли, підключаючи джерела інформації та формулюючи складні запити для прийняття важливих життєвих рішень. За його спостереженнями, якщо старші люди частіше сприймають подібні моделі як вдосконалену версію пошукової системи, то для 20-30-річних вони стають персональними радниками у найрізноманітніших аспектах життя.

Потенційні можливості такого всеосяжного штучного інтелекту справді вражають. Теоретично, він зможе самостійно запланувати технічне обслуговування автомобіля, обрати та придбати подарунок на весілля друга або замовити наступну книгу з улюбленої серії. Однак за цим райдужним майбутнім ховається серйозне питання про доцільність довіри технологічній корпорації настільки глибоке знання про наше особисте життя.
Історія розвитку великих IT-компаній рясніє прикладами далеко не завжди бездоганної поведінки. Нещодавня антимонопольна справа проти Google у США та випадки дивних висловлювань чат-ботів від xAI та інших компаній є яскравими ілюстраціями потенційних ризиків. Навіть ChatGPT у квітні цього року демонстрував надмірну “догідливість”, що миттєво стало об’єктом інтернет-мемів.
Усе це свідчить про те, що, незважаючи на величезний потенціал всезнаючого штучного інтелекту, його розробка та впровадження вимагають особливої обережності. У стрімкому розвитку технологій не слід забувати про фундаментальні питання приватності, безпеки даних та ризиків маніпуляції, які можуть виникнути при наданні технологічним гігантам доступу до найінтимніших деталей нашого життя. Майбутнє, в якому штучний інтелект пам’ятає “все наше життя”, може бути ідеальним, але водночас і тривожно близьким.
Раніше ми повідомляли, що OpenAI так і не наважилась відкрити доступ до лякаючої функції ChatGPT.