Нещодавній інцидент з 66-річною Луїзою Літтлджон з Шотландії викликав хвилю обговорень щодо точності та етичності використання штучного інтелекту в повсякденному житті. Жінка, яка отримала звичайне голосове повідомлення від автосалону, була шокована, коли система Visual Voicemail на її iPhone, що використовує ШІ для транскрипції, перетворила нешкідливе запрошення на захід на образливий текст з непристойними виразами. Як повідомляє BBC News, повідомлення містило запитання сексуального характеру та образливі вирази, що, звичайно, викликало обурення у місіс Літтлджон, пише T4.
Справжнє повідомлення від гаража Lookers Land Rover у Мазервеллі містило запрошення на подію, де згадувалося “шосте березня”. Однак, ШІ помилково розпізнав фразу як “змогли зайнятися сексом”. Інші слова, такі як “не соромтеся”, були перетворені на непристойні вирази, що свідчить про серйозні недоліки в роботі системи. Експерти припускають, що проблеми могли виникнути через шотландський акцент працівника гаража, фоновий шум або недостатню різноманітність даних, на яких навчався ШІ.
Цей випадок підкреслює проблему “галюцинацій” ШІ, коли системи вигадують інформацію або інтерпретують її неправильно. Подібні інциденти вже траплялися раніше, зокрема з системою Apple, яка помилково транскрибувала слово “расист” як “Трамп”. Це викликає питання про відповідальність розробників за якість та етичність своїх продуктів.
Попри те, що Apple визнає, що точність транскрипції залежить від якості запису, вони не прокоментували конкретний інцидент. Експерти наголошують на необхідності впровадження гарантій для запобігання подібним помилкам у майбутньому. Цей випадок став ще одним прикладом того, як ШІ, незважаючи на свій потенціал, все ще потребує вдосконалення та більш ретельного контролю.
Раніше ми повідомляли, що ядерний арсенал США запропонували передати під контроль ШІ