Close Menu
    Facebook X (Twitter) Instagram
    Вівторок, 24 Березня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    У штучного інтелекту виявили «риси характеру», притаманні людині

    Андрій НеволінАндрій Неволін5 Травня, 2025
    Facebook Twitter Telegram

    Хоча загальновизнано, що люди та системи штучного інтелекту “мислять” принципово по-різному, нові наукові дослідження виявили несподівану схожість: ШІ іноді приймає рішення так само ірраціонально, як і ми, демонструючи “риси характеру”, притаманні людині у вигляді когнітивних упереджень, пише T4.

    У новому дослідженні, опублікованому у журналі Manufacturing & Service Operations Management, вчені вперше оцінили поведінку великих мовних моделей OpenAI GPT-3.5 та GPT-4, що лежать в основі популярного ChatGPT, щодо 18 відомих когнітивних упереджень, виявлених у людській психології. Автори з п’яти академічних установ Канади та Австралії протестували ці моделі, ставлячи їм гіпотетичні питання, взяті як з традиційної психології, так і з контексту реальних бізнес-застосувань, таких як управління запасами чи переговори.

    Результати виявилися інтригуючими: майже в половині розглянутих сценаріїв ChatGPT демонстрував багато найпоширеніших упереджень у прийнятті рішень, властивих людям, попри загалом вражаючу послідовність у своїх міркуваннях. Виявилося, що, хоч ШІ і не є копією людського мозку, він далеко не застрахований від людських недоліків у прийнятті рішень. Більше того, ця послідовність у проявах упереджень має як позитивні, так і негативні наслідки.

    Майже в половині розглянутих сценаріїв ChatGPT демонстрував багато найпоширеніших упереджень у прийнятті рішень, властивих людям, попри загалом вражаючу послідовність у своїх міркуваннях

    Порівняння GPT-4 та GPT-3.5 показало, що GPT-4 краще справляється із завданнями, які мають чіткі математичні чи логічні рішення, роблячи менше помилок у сценаріях, заснованих на ймовірності. Однак, коли справа доходила до суб’єктивних симуляцій, наприклад, вибору між ризикованим варіантом для отримання виграшу, GPT-4 часто відображав ірраціональні уподобання, типові для людей. Цікаво, що GPT-4 навіть демонстрував сильнішу перевагу до визначеності у неоднозначних завданнях, ніж люди.

    Дослідження дійшло висновку, що виявлені упередження були не просто результатом запам’ятовування прикладів з навчальних даних, а, схоже, є частиною того, як міркує ШІ, оскільки його поведінка залишалася стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи конкретні операційні бізнес-процецеси. Деякі неочікувані результати показали, що GPT-4 іноді навіть посилював людські помилки, наприклад, завжди давав упереджені відповіді в завданні на упередженість підтвердження або сильніше виявляв схильність до помилки “гарячої руки”. Втім, важливо зазначити, що ChatGPT вдалося уникнути деяких інших поширених людських упереджень, зокрема нехтування базовою ставкою та помилки безповоротних витрат.

    На думку авторів дослідження, ці людські упередження в ШІ походять з величезних навчальних даних, які містять приклади людських когнітивних упереджень та евристик. Ці тенденції посилюються під час тонкого налаштування моделей, особливо коли зворотний зв’язок від людей може надавати перевагу правдоподібним, але не обов’язково раціональним відповідям у неоднозначних ситуаціях. Коли ШІ стикається з більш суб’єктивними завданнями, він схиляється до наслідування моделей людського мислення більше, ніж до суто логічних принципів.

    Практичний висновок із цього дослідження полягає в тому, що ШІ, як-от ChatGPT, є надзвичайно корисним для вирішення проблем, що мають чітке, формульоване рішення, подібно до того, як ми довіряємо калькулятору для математичних задач. Однак, як застерігає провідний автор дослідження Ян Чен, при використанні ШІ для суб’єктивних рішень або рішень, що базуються на уподобаннях, слід бути обережним. Експерти підкреслюють, що до штучного інтелекту, який приймає важливі рішення, слід ставитися як до працівника: він потребує нагляду та керування етичними принципами. В іншому випадку, існує ризик не покращити, а автоматизувати хибне людське мислення, що може мати значні наслідки для різних сфер застосування ШІ.

    Раніше ми повідомляли, що у Китаї робот-гуманоїд напав на своїх творців (ВІДЕО).

    Підписуйся на наш Telegram-канал

    ChatGPT чат-бот ШІ штучний інтелект

    Читайте також

    Скарб у пластиковому корпусі: скільки золота насправді міститься у старому ноутбуці

    24 Березня, 2026

    Фахівці назвали головну помилку, яка знищує ресурс акумулятора смартфона

    23 Березня, 2026

    Nothing та CMF: майбутнє дизайну та вибір між преміальністю та доступністю

    7 Березня, 2026
    Нове

    Вчені розповіли, яке приміщення може врятувати життя під час ядерного вибуху

    24 Березня, 2026

    Вчені назвали ціну, яку Homo sapiens заплатив за білі очі

    24 Березня, 2026

    В Антарктиді виявили загадкові споруди, схожі на єгипетські піраміди Гізи (ФОТО)

    24 Березня, 2026
    Наука

    Вчені зʼясували, в якому віці людина почувається найбільш щасливою

    By Андрій Неволін21 Березня, 2026
    Наука

    Повернення людей з Марса на Землю стане біологічно неможливим – дослідження

    By Андрій Неволін22 Березня, 2026
    Наука

    Вчені розповіли, яке приміщення може врятувати життя під час ядерного вибуху

    By Андрій Неволін24 Березня, 2026
    Facebook X (Twitter) Instagram Pinterest Telegram LinkedIn
    • Про нас
    • Редакційна політика
    • Політика конфіденційності та захисту персональних даних
    • Контакти редакції
    © 2026 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.