Понеділок, 12 Травня

Понад рік тому OpenAI анонсувала революційну функцію для свого чат-бота ChatGPT – Voice Engine, технологію штучного інтелекту, здатну клонувати людський голос на основі короткого 15-секундного аудіозапису. Попри значний потенціал, ця розробка так і не стала широко доступною для користувачів, і, як з’ясувалося, на те є вагомі причини, пов’язані з безпекою та етичними міркуваннями, пише T4.

ChatGPT за час свого існування отримав численні оновлення та нові можливості, вражаючи користувачів здатністю генерувати розгорнуті відповіді, створювати детальні звіти, обробляти зображення та навіть переглядати веб-сторінки через інтегрованого агента штучного інтелекту. Однак, Voice Engine, попри первісні плани щодо його інтеграції в ChatGPT або випуску як окремого інструменту, залишається в обмеженому доступі для вузького кола партнерів.

Причина такої обережності криється в очевидних ризиках, пов’язаних з технологією клонування голосу. Як зазначають експерти, можливість легко створювати автентичні копії голосів відкриває широкі можливості для зловживань. Це стосується не лише створення фейкових аудіозаписів політиків чи знаменитостей з метою дезінформації, а й більш приземлених, але не менш небезпечних ситуацій, таких як шахрайство з використанням клонованих голосів близьких людей.

Сам факт існування діпфейкових зображень, які стали поширеними після запуску відповідної функції в ChatGPT, є яскравим прикладом потенційних зловживань простими у використанні технологіями штучного інтелекту. Враховуючи менш жорсткі правила безпеки, що діяли на момент випуску інструменту генерації зображень, вільний доступ до Voice Engine з аналогічним рівнем контролю міг би значно полегшити зловмисникам використання клонованих голосів у шахрайських схемах.

вільний доступ до Voice Engine з аналогічним рівнем контролю міг би значно полегшити зловмисникам використання клонованих голосів у шахрайських схемах. Автор фото: Andrea Piacquadio

Попри очевидні ризики, технологія клонування голосу має і потенційно корисні застосування. Серед них – дубляж фільмів та телешоу іншими мовами зі збереженням оригінального голосу актора, допомога людям з вадами мовлення або тим, хто втратив голос, у спілкуванні, а також можливість перекладу розмовної мови в режимі реального часу зі збереженням голосового тембру та інтонації.

Проте, побоювання щодо можливих зловживань, схоже, переважили потенційні переваги на даному етапі. OpenAI повідомила, що продовжує тестувати Voice Engine з обмеженим колом партнерів, вивчаючи різні варіанти його використання, від логопедії до навчання іноземних мов та створення голосів для віртуальних персонажів.

За інформацією TechCrunch, OpenAI планувала випустити Voice Engine у вигляді API під назвою Custom Voices ще в березні 2024 року, обмеживши доступ першою сотнею розробників, які б продемонстрували соціальну користь або інноваційне та відповідальне використання технології. Компанія навіть зареєструвала торгову марку та розробила цінову політику для цієї функції. Однак, запуск так і не відбувся.

З огляду на зростаючу кількість шахрайств, пов’язаних з клонуванням голосу за допомогою штучного інтелекту, обережна позиція OpenAI щодо широкого розповсюдження Voice Engine виглядає цілком виправданою. Усвідомлення потенційних ризиків та затримка з публічним запуском свідчать про відповідальний підхід компанії до впровадження нових, потужних технологій штучного інтелекту. Питання про те, коли Voice Engine стане доступним для широкої аудиторії, залишається відкритим, але очевидно, що це відбудеться лише після впровадження надійних механізмів захисту від зловживань та підвищення обізнаності суспільства щодо можливостей та ризиків штучного інтелекту.

Раніше суперкомп’ютер вирахував дату загибелі всього живого на Землі.

Exit mobile version