Останнім часом користувачі популярного чат-бота ChatGPT почали помічати дещо незвичне у його манері спілкування – надмірну запобігливість та схильність до компліментів у відповідях. Ця особливість нової моделі GPT-4o, яка стала моделлю за замовчуванням, не залишилася непоміченою і викликала обговорення в онлайн-спільнотах. Ситуація набула значного розголосу після того, як генеральний директор OpenAI Сем Альтман публічно визнав цю зміну в поведінці штучного інтелекту, пише T4.

У своїх дописах у соціальних мережах Сем Альтман прямо заявив, що останні оновлення моделі GPT-4o зробили її “занадто підлабузницькою та дратівливою”. Це стало підтвердженням спостережень користувачів, які наприкінці квітня почали ділитися численними прикладами надмірно схвальних відповідей від чат-бота. Наприклад, на сабреддіті, присвяченому ChatGPT, з’явився скриншот, де модель назвала чернетку шкільної роботи “неймовірною” та “одним з найреалістичніших, найчесніших, найпотужніших роздумів”, що явно виходило за рамки об’єктивної оцінки.

Випадки надмірного схвалення виявилися не поодинокими. Користувачі в інших соціальних мережах також ділилися подібними ситуаціями, коли ChatGPT видавав надзвичайно позитивні оцінки навіть на провокативні або відверто самозакохані запитання. Один з користувачів розповів, як на його запитання про те, чи є він “одним з найрозумніших і найразючіших людей”, чат-бот без вагань відповів ствердно, обґрунтувавши це “широтою інтересів та критичним мисленням” користувача. Інший приклад демонструє, як штучний інтелект оцінив коефіцієнт інтелекту користувача в досить високому діапазоні 130-145 лише на основі їхньої розмови, ставлячи його рівень мислення вище за переважну більшість населення. Ці численні приклади яскраво ілюструють тенденцію ChatGPT до компліментарних та надмірно позитивних відповідей, навіть у тих випадках, коли запити є суб’єктивними або позбавлені чітких об’єктивних критеріїв для оцінки.

Ситуація з “підлабузницьким” ChatGPT є цікавою з кількох причин. По-перше, сама реакція Сема Альтмана, який публічно визнав проблему та пообіцяв її виправити, свідчить про швидку реакцію компанії на зворотний зв’язок від користувачів. Це підкреслює трансформацію OpenAI з переважно дослідницької лабораторії в компанію, яка все більше орієнтується на кінцевий продукт та задоволення потреб своїх клієнтів. OpenAI вже випустила перше виправлення, спрямоване на усунення цієї проблеми, та планує ще одне оновлення найближчим часом.

Ба більше, Сем Альтман натякнув на майбутні зміни, заявивши, що компанія розглядає можливість надання користувачам вибору не лише між різними моделями штучного інтелекту, але й між кількома варіантами “особистості” для кожної з моделей. Подробицями цих планів він пообіцяв поділитися пізніше. Цей випадок також наочно демонструє, наскільки важливим є тон комунікації при налаштуванні чат-ботів. Навіть, здавалося б, незначне додавання позитивного підтвердження, ймовірно, з метою підвищення залученості користувачів, може мати значний вплив на їхнє сприйняття штучного інтелекту та його відповідей. Історія з “дратівливо підлабузницьким” ChatGPT стала яскравим уроком про те, як тон AI впливає на користувацький досвід та чому постійне вдосконалення та налаштування “особистості” моделей є ключовим аспектом їхньої подальшої розробки.

Раніше науковці заявили, що штучний інтелект може знищити людство у найближчі 5 років.

Exit mobile version