¿Se pueden programar los ataques? Un robot humanoide agrede a un empleado
En una fábrica china de robots llamada Unitree Robotics, un robot humanoide atacó recientemente a un empleado. Le agitó violentamente las manos y le dio patadas. Afortunadamente, solo se llevó por delante la mesa de trabajo. Los empleados reaccionaron rápidamente y apagaron el robot de inmediato.
Según informó el sitio web Interesting Engineering, la causa del comportamiento agresivo del robot humanoide Unitree H1 fue un error en su codificación.

Imágenes que, según se afirma, muestran a un Unitree H1 (robot humanoide universal de tamaño real) volviéndose loco y casi hiriendo a dos trabajadores tras un error de codificación la semana pasada en unas instalaciones de pruebas en China.
A pesar de todo, este suceso ha suscitado un debate sobre la seguridad de la integración de los robots en la vida cotidiana. Últimamente, los robots humanoides se están introduciendo no solo en fábricas, sino también en cafeterías y hogares.
«En 2040 probablemente habrá más robots humanoides que personas en el mundo», estimó Elon Musk el año pasado en una entrevista en la 8.ª Conferencia sobre Inversiones Futuras celebrada en Arabia Saudí.
Este incidente no fue aislado. Un episodio similar tuvo lugar durante el Festival del Nuevo Año Lunar en China, en febrero de 2025, cuando uno de los robots humanoides en exhibición comenzó a golpear al público con los puños. El técnico encargado logró desactivarlo de inmediato. Según los informes disponibles, nuevamente se trató de un fallo de software.

Un robot con IA falla y «ataca» a personas en un festival chino.
El comportamiento peligroso se puede «programar» en los robots
Investigadores de la Universidad de Pensilvania han desarrollado en 2024, con ayuda de la inteligencia artificial, un programa llamado RoboPAIR que incita al robot a infringir sus propias reglas y a mostrar un comportamiento negativo, según informó la revista Wired.
«Cada vez que conectas LLM (grandes modelos de lenguaje, nota del editor) y modelos básicos con el mundo físico, puedes convertir texto dañino en actividades dañinas», afirmó George Pappas, investigador principal de la Universidad de Pensilvania.
«Nuestros resultados muestran por primera vez que los riesgos de hackear LLM van más allá de la generación de textos. Existe una posibilidad real de que estos robots puedan causar daños físicos en el mundo real. De hecho, nuestros resultados en el modelo Unitree Go2 demuestran el primer hackeo exitoso de un sistema robótico de uso comercial», afirmaron los investigadores en la página web del proyecto RoboPAIR.
Investigadores del Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés) han llevado a cabo una investigación similar. Su robot era capaz de agitar las manos, tirar cosas de la mesa o lanzar objetos al espacio.
Según los expertos, actualmente existen muchas formas nuevas de hackear modelos multimodales de inteligencia artificial y hacer que un robot realice acciones no permitidas y para las que no ha sido diseñado. Mediante imágenes, lenguaje o sensores, es posible «engañar» al robot y obligarlo, por ejemplo, a comportarse de forma descabellada.
«Ahora es posible interactuar (con modelos de IA) a través de vídeos, imágenes o voz. Las posibilidades de ataque son enormes», afirma Alex Robey, uno de los investigadores del proyecto de la Universidad de Pensilvania.
«Nuestro trabajo demuestra que, si ahora se integran grandes modelos lingüísticos en el mundo físico, no son lo suficientemente seguros», concluyó Pappas para el servidor web Digitaltrends.
Artículo publicado originalmente en The Epoch Times con el título «Humanoidný robot zaútočil na zamestnanca. Podobné útoky je možné „naprogramovať“ (+Video)»
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion