Close Menu
    Facebook X (Twitter) Instagram
    Субота, 17 Травня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    У штучного інтелекту виявили «риси характеру», притаманні людині

    Андрій НеволінАндрій Неволін5 Травня, 2025
    Facebook Twitter Telegram

    Хоча загальновизнано, що люди та системи штучного інтелекту “мислять” принципово по-різному, нові наукові дослідження виявили несподівану схожість: ШІ іноді приймає рішення так само ірраціонально, як і ми, демонструючи “риси характеру”, притаманні людині у вигляді когнітивних упереджень, пише T4.

    У новому дослідженні, опублікованому у журналі Manufacturing & Service Operations Management, вчені вперше оцінили поведінку великих мовних моделей OpenAI GPT-3.5 та GPT-4, що лежать в основі популярного ChatGPT, щодо 18 відомих когнітивних упереджень, виявлених у людській психології. Автори з п’яти академічних установ Канади та Австралії протестували ці моделі, ставлячи їм гіпотетичні питання, взяті як з традиційної психології, так і з контексту реальних бізнес-застосувань, таких як управління запасами чи переговори.

    Результати виявилися інтригуючими: майже в половині розглянутих сценаріїв ChatGPT демонстрував багато найпоширеніших упереджень у прийнятті рішень, властивих людям, попри загалом вражаючу послідовність у своїх міркуваннях. Виявилося, що, хоч ШІ і не є копією людського мозку, він далеко не застрахований від людських недоліків у прийнятті рішень. Більше того, ця послідовність у проявах упереджень має як позитивні, так і негативні наслідки.

    Майже в половині розглянутих сценаріїв ChatGPT демонстрував багато найпоширеніших упереджень у прийнятті рішень, властивих людям, попри загалом вражаючу послідовність у своїх міркуваннях

    Порівняння GPT-4 та GPT-3.5 показало, що GPT-4 краще справляється із завданнями, які мають чіткі математичні чи логічні рішення, роблячи менше помилок у сценаріях, заснованих на ймовірності. Однак, коли справа доходила до суб’єктивних симуляцій, наприклад, вибору між ризикованим варіантом для отримання виграшу, GPT-4 часто відображав ірраціональні уподобання, типові для людей. Цікаво, що GPT-4 навіть демонстрував сильнішу перевагу до визначеності у неоднозначних завданнях, ніж люди.

    Дослідження дійшло висновку, що виявлені упередження були не просто результатом запам’ятовування прикладів з навчальних даних, а, схоже, є частиною того, як міркує ШІ, оскільки його поведінка залишалася стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи конкретні операційні бізнес-процецеси. Деякі неочікувані результати показали, що GPT-4 іноді навіть посилював людські помилки, наприклад, завжди давав упереджені відповіді в завданні на упередженість підтвердження або сильніше виявляв схильність до помилки “гарячої руки”. Втім, важливо зазначити, що ChatGPT вдалося уникнути деяких інших поширених людських упереджень, зокрема нехтування базовою ставкою та помилки безповоротних витрат.

    На думку авторів дослідження, ці людські упередження в ШІ походять з величезних навчальних даних, які містять приклади людських когнітивних упереджень та евристик. Ці тенденції посилюються під час тонкого налаштування моделей, особливо коли зворотний зв’язок від людей може надавати перевагу правдоподібним, але не обов’язково раціональним відповідям у неоднозначних ситуаціях. Коли ШІ стикається з більш суб’єктивними завданнями, він схиляється до наслідування моделей людського мислення більше, ніж до суто логічних принципів.

    Практичний висновок із цього дослідження полягає в тому, що ШІ, як-от ChatGPT, є надзвичайно корисним для вирішення проблем, що мають чітке, формульоване рішення, подібно до того, як ми довіряємо калькулятору для математичних задач. Однак, як застерігає провідний автор дослідження Ян Чен, при використанні ШІ для суб’єктивних рішень або рішень, що базуються на уподобаннях, слід бути обережним. Експерти підкреслюють, що до штучного інтелекту, який приймає важливі рішення, слід ставитися як до працівника: він потребує нагляду та керування етичними принципами. В іншому випадку, існує ризик не покращити, а автоматизувати хибне людське мислення, що може мати значні наслідки для різних сфер застосування ШІ.

    Раніше ми повідомляли, що у Китаї робот-гуманоїд напав на своїх творців (ВІДЕО).

    Підписуйся на наш Telegram-канал

    ChatGPT чат-бот ШІ штучний інтелект

    Читайте також

    Apple натякнула на швидкий вихід AirTag 2: чим він особливий

    16 Травня, 2025

    Samsung потролила Apple новим смартфоном (ФОТО)

    15 Травня, 2025

    Новий ШІ може відтворити обличчя людини, аналізуючи фрагменти ЇЇ ДНК

    14 Травня, 2025
    Нове

    Вчені назвали трьох “загарбників”, які можуть захопити Землю до 2100 року

    16 Травня, 2025

    Один на мільйон: у Колорадо помітили лося з незвичайним забарвленням (ФОТО)

    16 Травня, 2025

    Під льодами Гренландії виявили секретну військову базу часів Холодної війни

    16 Травня, 2025
    Наука

    Науковці виявили одне з найбільших у світі родовищ золота, срібла та міді

    By Андрій Неволін15 Травня, 2025
    Наука

    Крадіжка століття: науковці з’ясували, куди з Антарктиди зникає лід

    By Андрій Неволін12 Травня, 2025
    Наука

    Вчені показали унікальний камінь, який видобувають в Україні

    By Андрій Неволін12 Травня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.