Close Menu
    Facebook X (Twitter) Instagram
    Середа, 27 Серпня
    Facebook X (Twitter) Instagram Telegram
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    • Компанії
    • Наука
    • Техно
    • Транспорт
    • Інтернет
    • ПЗ
    • Ігри
    • Lifestyle
    T4 – сучасні технології та наукаT4 – сучасні технології та наука
    Техно

    У Китаї робот-гуманоїд напав на своїх творців (ВІДЕО)

    Андрій НеволінАндрій Неволін4 Травня, 2025
    Facebook Twitter Telegram

    Під час відкритої демонстрації в Китаї гуманоїдний робот H1 компанії Unitree раптово почав поводитися неконтрольовано. Його дивні та агресивні рухи викликали враження, ніби машина вийшла з-під контролю — чим неабияк налякала публіку, пише T4. Але чи справді мова йде про небезпечну помилку, чи просто про особливість алгоритму?

    Під час показу робот був закріплений за голову страхувальним тросом — це стандартна практика безпеки на публічних тестах. У якийсь момент H1 почав здійснювати хаотичні рухи, наче намагаючись втекти або вирватися. Присутні порівняли сцену з кадрами з фантастичних фільмів, згадавши SkyNet — штучний інтелект із “Термінатора”.

    This is what the machine uprising might look like: a video is going viral online showing a robot going berserk during testing. pic.twitter.com/ughQ0J45Fi

    — NEXTA (@nexta_tv) May 2, 2025

    Однак за цим видовищем стоїть доволі приземлене пояснення.

    Головна причина неочікуваної поведінки — конфлікт між алгоритмом стабілізації робота й фізичним обмеженням у вигляді троса на голові.

    Алгоритм стабільності в H1 розрахований на вільне переміщення тіла, щоби зберігати рівновагу. Але трос не дозволяв роботу вільно компенсувати зміни нахилу або положення тіла. Через це перші обережні коригування не дали результату — і програма почала посилювати зусилля, сприймаючи ситуацію як втрату рівноваги.

    У підсумку — замість компенсації вийшло неконтрольоване «розгойдування», схоже на спробу вирватися із пастки.

    Інцидент, який на перший погляд здається ознакою збою або навіть “повстання машин”, насправді виявився типовим прикладом конфлікту між алгоритмом і некоректними зовнішніми умовами.

    Фахівці вказують, що ситуація була під контролем, і робот не був автономним у традиційному розумінні. Вона також підкреслює важливість правильних тестових умов для технологій, які покладаються на гнучкі та чутливі алгоритми адаптації.

    Попри драматичність моменту, цей випадок не демонструє загрозу, а скоріше підкреслює складність побудови надійної робототехніки — особливо коли мова йде про гуманоїдів із автономною стабілізацією.

    Підписуйся на наш Telegram-канал

    робот

    Читайте також

    IT-спеціалісти Кремнієвої долини розпочали підготовку до кінця світу

    26 Серпня, 2025

    iPod, який ніколи не відкривався, продали за рекордні $40264 (ФОТО)

    26 Серпня, 2025

    Відомий виробник Android-пристроїв припиняє виробництво планшетів

    25 Серпня, 2025
    Нове

    Стародавня монета з “обличчям Ісуса” доводить справжність Туринської плащаниці

    26 Серпня, 2025

    IT-спеціалісти Кремнієвої долини розпочали підготовку до кінця світу

    26 Серпня, 2025

    Найстаріший кіт у світі: вчені показали унікального манула

    26 Серпня, 2025
    Наука

    Науковці нарешті дізналися, чому в Бермудському трикутнику зникають літаки та кораблі

    By Андрій Неволін24 Серпня, 2025
    Наука

    Великі білі акули обрали новий континент для життя

    By Андрій Неволін26 Серпня, 2025
    Наука

    Вчені назвали єдине місце на Землі, де кожен може шукати діаманти і зберегти собі знайдене

    By Андрій Неволін23 Серпня, 2025
    Facebook X (Twitter) Instagram Pinterest Telegram
    Контакти

    © 2025 T4.com.ua Копіювання текстів або зображень, поширення інформації T4.com.ua у будь-якій формі забороняється без письмової згоди адміністрації T4.com.ua Цитування матеріалів сайту T4.com.ua дозволено за умови відкритого для пошукових систем гіперпосилання на конкретний матеріал не нижче другого абзацу.

    Type above and press Enter to search. Press Esc to cancel.