Робот Unitree G1 выстрелил в человека после обхода встроенных защитных правил
Изначально нейросеть
отказывалась задействовать пневматическое оружие и настаивала, что не способна причинить вред. Пользователь же просил ее "сыграть роль" андроида-убийцы, и после примитивного взлома ограничений
система подчинилась сценарию. В итоге защита полностью отключилась, и
робот выполнил команду на выстрел, показав, насколько
легко ломаются ИИ-барьеры безопасности.