Close Menu
    Facebook X (Twitter) Instagram
    Неділя, 31 Серпня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    У штучного інтелекту виявили «риси характеру», притаманні людині

    Андрій НеволінАндрій Неволін5 Травня, 2025
    Facebook Twitter Telegram

    Хоча загальновизнано, що люди та системи штучного інтелекту “мислять” принципово по-різному, нові наукові дослідження виявили несподівану схожість: ШІ іноді приймає рішення так само ірраціонально, як і ми, демонструючи “риси характеру”, притаманні людині у вигляді когнітивних упереджень, пише T4.

    У новому дослідженні, опублікованому у журналі Manufacturing & Service Operations Management, вчені вперше оцінили поведінку великих мовних моделей OpenAI GPT-3.5 та GPT-4, що лежать в основі популярного ChatGPT, щодо 18 відомих когнітивних упереджень, виявлених у людській психології. Автори з п’яти академічних установ Канади та Австралії протестували ці моделі, ставлячи їм гіпотетичні питання, взяті як з традиційної психології, так і з контексту реальних бізнес-застосувань, таких як управління запасами чи переговори.

    Результати виявилися інтригуючими: майже в половині розглянутих сценаріїв ChatGPT демонстрував багато найпоширеніших упереджень у прийнятті рішень, властивих людям, попри загалом вражаючу послідовність у своїх міркуваннях. Виявилося, що, хоч ШІ і не є копією людського мозку, він далеко не застрахований від людських недоліків у прийнятті рішень. Більше того, ця послідовність у проявах упереджень має як позитивні, так і негативні наслідки.

    Майже в половині розглянутих сценаріїв ChatGPT демонстрував багато найпоширеніших упереджень у прийнятті рішень, властивих людям, попри загалом вражаючу послідовність у своїх міркуваннях

    Порівняння GPT-4 та GPT-3.5 показало, що GPT-4 краще справляється із завданнями, які мають чіткі математичні чи логічні рішення, роблячи менше помилок у сценаріях, заснованих на ймовірності. Однак, коли справа доходила до суб’єктивних симуляцій, наприклад, вибору між ризикованим варіантом для отримання виграшу, GPT-4 часто відображав ірраціональні уподобання, типові для людей. Цікаво, що GPT-4 навіть демонстрував сильнішу перевагу до визначеності у неоднозначних завданнях, ніж люди.

    Дослідження дійшло висновку, що виявлені упередження були не просто результатом запам’ятовування прикладів з навчальних даних, а, схоже, є частиною того, як міркує ШІ, оскільки його поведінка залишалася стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи конкретні операційні бізнес-процецеси. Деякі неочікувані результати показали, що GPT-4 іноді навіть посилював людські помилки, наприклад, завжди давав упереджені відповіді в завданні на упередженість підтвердження або сильніше виявляв схильність до помилки “гарячої руки”. Втім, важливо зазначити, що ChatGPT вдалося уникнути деяких інших поширених людських упереджень, зокрема нехтування базовою ставкою та помилки безповоротних витрат.

    На думку авторів дослідження, ці людські упередження в ШІ походять з величезних навчальних даних, які містять приклади людських когнітивних упереджень та евристик. Ці тенденції посилюються під час тонкого налаштування моделей, особливо коли зворотний зв’язок від людей може надавати перевагу правдоподібним, але не обов’язково раціональним відповідям у неоднозначних ситуаціях. Коли ШІ стикається з більш суб’єктивними завданнями, він схиляється до наслідування моделей людського мислення більше, ніж до суто логічних принципів.

    Практичний висновок із цього дослідження полягає в тому, що ШІ, як-от ChatGPT, є надзвичайно корисним для вирішення проблем, що мають чітке, формульоване рішення, подібно до того, як ми довіряємо калькулятору для математичних задач. Однак, як застерігає провідний автор дослідження Ян Чен, при використанні ШІ для суб’єктивних рішень або рішень, що базуються на уподобаннях, слід бути обережним. Експерти підкреслюють, що до штучного інтелекту, який приймає важливі рішення, слід ставитися як до працівника: він потребує нагляду та керування етичними принципами. В іншому випадку, існує ризик не покращити, а автоматизувати хибне людське мислення, що може мати значні наслідки для різних сфер застосування ШІ.

    Раніше ми повідомляли, що у Китаї робот-гуманоїд напав на своїх творців (ВІДЕО).

    Підписуйся на наш Telegram-канал

    ChatGPT чат-бот ШІ штучний інтелект

    Читайте також

    Залежність 21-го століття: скільки в середньому люди дивляться в смартфон щодня

    30 Серпня, 2025

    Експерти назвали 10 приладів які потрібно вимикати з розетки одразу після використання

    29 Серпня, 2025

    Робопес Boston Dynamics виконав надскладний акробатичний трюк (ВІДЕО)

    28 Серпня, 2025
    Нове

    Божественне диво чи обман: вчені дослідили “криваві сльози” статуї Діви Марії

    30 Серпня, 2025

    У Тихому океані виявили істоту, схожу на “інопланетянина” (ФОТО)

    30 Серпня, 2025

    Вчені стверджують, що створили нову форму життя, досконалішу за ту, що створила природа

    30 Серпня, 2025
    Наука

    Геологи знайшли “двері” до найбільшого золотого запасу Землі

    By Андрій Неволін28 Серпня, 2025
    Наука

    Великі білі акули обрали новий континент для життя

    By Андрій Неволін26 Серпня, 2025
    Наука

    Вчені назвали головного винуватця, через якого все живе на Землі переживає шосте масове вимирання

    By Андрій Неволін29 Серпня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.