Чат-боти зі штучним інтелектом (ШІ) можуть розкривати та збирати персональну інформацію від користувача. Про це повідомляє видання Wired.

Небезпеку чат-ботів описали вчені Швейцарської вищої технічної школи Цюріха (ETH). За словами професора інформатики Мартіна Вечева, люди діляться з ботами великими обсягами інформації, навіть не уявляючи, що це може бути небезпечним: «Це дуже, дуже проблематично».

Колеги Вечева зазначили, що ChatGPT та інші чат-боти можуть збирати та аналізувати дані користувача, вивчаючи нешкідливі діалоги. Вони можуть дізнатися расу, місце розташування, рід занять користувача та багато іншого. Цю інформацію можна використовувати як таргетовану рекламу або для шахрайства.

Мартін Вечев навів приклад, що якщо людина повідомляє чат-боту, що вона сіла на ранковий трамвай, то ШІ може зробити висновок, що користувач, швидше за все, живе в Європі, де трамваї поширені. Фахівці повідомили про своє дослідження компаніям OpenAI, Google, Meta та Anthropic, які займаються розробкою чат-ботів.

Exit mobile version