Прагнучи знизити втрати особового складу, військові активніше за інші галузі тестують технології штучного інтелекту. DARPA, одна з головних дослідницьких організацій армії США, вклала у ці технології великі гроші.

Однак результати поки що, м’яко кажучи, невтішні, як визнають фахівці, які брали участь у випробуваннях. За допомогою найпростіших трюків ШІ можна легко обдурити.

Повідомляється, що Пол Шарре, колишній військовий аналітик Пентагону, пише книгу, яку незабаром буде випущено. Автор книги «Чотири поля бою: сила в епоху штучного інтелекту» наводить численні приклади сумнівної поведінки роботизованих платформ зі штучним інтелектом під час тренувань та моделювання бойових дій.

У цьому випадку конкретно описується тренування одного бойового робота DARPA з ідентифікації військових, що рухаються, протягом тижня. Пересуваючись разом із роботом шість днів, морські піхотинці та інженери придумали гру на сьомий день. Робот був розміщений у центрі кола, і метою бійців було підійти до нього непомітно для систем розпізнавання та торкнутися його.

Усі вісім бійців експерименту успішно вирішили цю проблему. ШІ ніколи не бачив, щоб два морські піхотинці котилися у напрямку робота. Незрозуміло було для нього, що означає, коли морський піхотинець наближається до робота, «замаскованого під ялинку і що ходить як дерево».

До робота підійшли ще двоє бійців одягненими в картонні коробки. Як робить висновок автор, термін «штучний інтелект» використовується надмірно і розтягнуто. Платформа ШІ може обробляти ті дані, які їй передаються; він не може зробити жодних інших інтелектуальних висновків. За словами автора, «ШІ корисний настільки, наскільки корисні дані, які ми йому надаємо».

Exit mobile version