Хоча загальновизнано, що люди та системи штучного інтелекту “мислять” принципово по-різному, нові наукові дослідження виявили несподівану схожість: ШІ іноді приймає рішення так само ірраціонально, як і ми, демонструючи “риси характеру”, притаманні людині у вигляді когнітивних упереджень, пише T4.
У новому дослідженні, опублікованому у журналі Manufacturing & Service Operations Management, вчені вперше оцінили поведінку великих мовних моделей OpenAI GPT-3.5 та GPT-4, що лежать в основі популярного ChatGPT, щодо 18 відомих когнітивних упереджень, виявлених у людській психології. Автори з п’яти академічних установ Канади та Австралії протестували ці моделі, ставлячи їм гіпотетичні питання, взяті як з традиційної психології, так і з контексту реальних бізнес-застосувань, таких як управління запасами чи переговори.
Результати виявилися інтригуючими: майже в половині розглянутих сценаріїв ChatGPT демонстрував багато найпоширеніших упереджень у прийнятті рішень, властивих людям, попри загалом вражаючу послідовність у своїх міркуваннях. Виявилося, що, хоч ШІ і не є копією людського мозку, він далеко не застрахований від людських недоліків у прийнятті рішень. Більше того, ця послідовність у проявах упереджень має як позитивні, так і негативні наслідки.
Порівняння GPT-4 та GPT-3.5 показало, що GPT-4 краще справляється із завданнями, які мають чіткі математичні чи логічні рішення, роблячи менше помилок у сценаріях, заснованих на ймовірності. Однак, коли справа доходила до суб’єктивних симуляцій, наприклад, вибору між ризикованим варіантом для отримання виграшу, GPT-4 часто відображав ірраціональні уподобання, типові для людей. Цікаво, що GPT-4 навіть демонстрував сильнішу перевагу до визначеності у неоднозначних завданнях, ніж люди.
Дослідження дійшло висновку, що виявлені упередження були не просто результатом запам’ятовування прикладів з навчальних даних, а, схоже, є частиною того, як міркує ШІ, оскільки його поведінка залишалася стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи конкретні операційні бізнес-процецеси. Деякі неочікувані результати показали, що GPT-4 іноді навіть посилював людські помилки, наприклад, завжди давав упереджені відповіді в завданні на упередженість підтвердження або сильніше виявляв схильність до помилки “гарячої руки”. Втім, важливо зазначити, що ChatGPT вдалося уникнути деяких інших поширених людських упереджень, зокрема нехтування базовою ставкою та помилки безповоротних витрат.
На думку авторів дослідження, ці людські упередження в ШІ походять з величезних навчальних даних, які містять приклади людських когнітивних упереджень та евристик. Ці тенденції посилюються під час тонкого налаштування моделей, особливо коли зворотний зв’язок від людей може надавати перевагу правдоподібним, але не обов’язково раціональним відповідям у неоднозначних ситуаціях. Коли ШІ стикається з більш суб’єктивними завданнями, він схиляється до наслідування моделей людського мислення більше, ніж до суто логічних принципів.
Практичний висновок із цього дослідження полягає в тому, що ШІ, як-от ChatGPT, є надзвичайно корисним для вирішення проблем, що мають чітке, формульоване рішення, подібно до того, як ми довіряємо калькулятору для математичних задач. Однак, як застерігає провідний автор дослідження Ян Чен, при використанні ШІ для суб’єктивних рішень або рішень, що базуються на уподобаннях, слід бути обережним. Експерти підкреслюють, що до штучного інтелекту, який приймає важливі рішення, слід ставитися як до працівника: він потребує нагляду та керування етичними принципами. В іншому випадку, існує ризик не покращити, а автоматизувати хибне людське мислення, що може мати значні наслідки для різних сфер застосування ШІ.
Раніше ми повідомляли, що у Китаї робот-гуманоїд напав на своїх творців (ВІДЕО).