Humanoid robot head can see, hear, and stand still when it detects a presence/Cabeza de robot humanoide puede ver, oír y pararse cuando detecta una presencia

in #science2 days ago

image.png

Source

Every day, humanoid robots look more and more like humans, not only in their physical appearance but also in their increasingly harmonious and precise movements. But one thing gives them away: they are unaware of the world around them. They don't react like humans to the presence of other humans or robots, such as identifying the source of a voice and orienting themselves toward people while analyzing what they see with integrated cameras. But this could change thanks to the latest creation born in Silicon Valley.

Cada día que pasa el aspecto de los robots humanoides es más parecido al de los humanos, no solo por el aspecto físico sino también por sus movimientos cada vez más armoniosos y precisos. Pero hay una cosa que los delata, que no son conscientes del mundo que los rodea. No reaccionan como los humanos ante la presencia de humanos o de otros robots, como por ejemplo identificar de dónde viene la voz y orientarse hacia las personas mientras analiza lo que ve con cámaras integradas. Pero esto puede cambiar gracias a esta última creación nacida en Silicon Valley.

This is the 360° Awareness Humanoid Robotic Head, a prototype developed in collaboration between Infineon Technologies AG (a leading German semiconductor company) and HTEC (an engineering firm based in Silicon Valley, California). It was unveiled in October 2025 at OktoberTech™ Silicon Valley 2025, a technology forum focused on innovation in robotics and sensors. This device won the Partner Innovation Award for its 360-degree multisensory awareness capabilities, which enable safe and natural interactions between humans and robots.

Se trata de 360° Awareness Humanoid Robotic Head, un prototipo desarrollado en colaboración entre las empresas Infineon Technologies AG (una empresa alemana líder en semiconductores) y HTEC (una firma de ingeniería con sede en Silicon Valley, California). Fue presentado en octubre de 2025 durante el evento OktoberTech™ Silicon Valley 2025, un foro tecnológico enfocado en innovación en robótica y sensores. Este dispositivo ganó el Partner Innovation Award por su capacidad de conciencia multisensorial de 360 grados, que permite interacciones seguras y naturales entre humanos y robots.



Source

This isn't a complete robot, but rather a modular robotic head designed for integration into humanoid robots or autonomous systems. Its primary purpose is to enhance environmental perception for applications such as elderly care robots, autonomous delivery systems, smart home devices, and advanced security. The idea is to create robots that "understand" their surroundings in a way similar to humans, detecting presences, sounds, and visual cues without physical contact, thus reducing risks in shared environments.

No se trata de un robot completo, sino de una cabeza robótica modular diseñada para integrarse en robots humanoides o sistemas autónomos. Su propósito principal es mejorar la percepción ambiental para aplicaciones como robots de cuidado para ancianos, sistemas de entrega autónoma, dispositivos inteligentes para el hogar o seguridad avanzada. La idea es crear robots que "entiendan" su entorno de manera similar a los humanos, detectando presencias, sonidos y visuales sin necesidad de contacto físico, lo que reduce riesgos en entornos compartidos.

The head operates using an integration of advanced Infineon sensors, processed by microcontrollers and AI algorithms to create real-time, multimodal perception. It uses radar for precise 360° spatial awareness. This sensor emits high-frequency radio waves that detect human movement (even through obstacles like clothing or thin walls) up to several meters away, without invading privacy like cameras. It also carries depth perception sensors, which measure the exact distance to objects or people using laser pulses, creating a 3D map of the environment.

La cabeza opera mediante una integración de sensores avanzados de Infineon, procesados por microcontroladores y algoritmos de IA para crear una percepción multimodal en tiempo real. Usa un radar para una conciencia espacial precisa a 360°. Este sensor emite ondas de radio de alta frecuencia que detectan movimientos humanos (incluso a través de obstáculos como ropa o paredes delgadas) hasta varios metros de distancia, sin invadir la privacidad como las cámaras. También lleva sensores para percepción de profundidad, miden la distancia exacta a objetos o personas mediante pulsos de luz láser, creando un "mapa 3D" del entorno.



Source

It incorporates high-performance digital microphones that capture audio with extreme clarity and locate the sound source using triangulation (analyzing time and volume differences between multiple microphones). Upon hearing a sound (such as a voice or a call), the head automatically turns toward the source, combining this with AI to recognize commands or emotions in the audio. It also has integrated cameras that process images to identify details such as faces, gestures, or objects. The AI ​​merges this data with radar and audio for "multimodal understanding."

Incorpora micrófonos digitales de alto rendimiento, que capturan audio con claridad extrema y localizan la fuente sonora mediante triangulación (analizando diferencias de tiempo y volumen entre micrófonos múltiples). Al oír un sonido (como una voz o un llamado), la cabeza gira automáticamente hacia la fuente, combinando esto con IA para reconocer comandos o emociones en el audio. Lleva también cámaras integradas que procesan imágenes para identificar detalles como rostros, gestos u objetos. La IA fusiona estos datos con radar y audio para una "comprensión multimodal"

For now, this device is nothing more than a demonstration prototype, first presented in October 2025. Therefore, there are still no official announcements regarding a specific date for its large-scale deployment or commercialization, for integration into commercial robots for widespread use in industries such as elderly care, autonomous deliveries, or smart homes. However, in the most optimistic scenario, we could see it operating on an industrial scale around 2027. More realistic estimates, however, suggest we will have to wait until the end of the decade.

Por el momento este artilugio no es más que un prototipo de demostración, presentado por primera vez en octubre de 2025. Por ello todavía no hay anuncios oficiales de una fecha específica para su despliegue o comercialización a gran escala, para integrarlo en robots comerciales para uso amplio en industrias como el cuidado de ancianos, entregas autónomas u hogares inteligentes pero, en el escenario más optimista, podríamos verlo funcionando a escala industrial hacia el año 2027. Aunque los considerados más realistas hablan de tendremos que esperar hasta el final de la década.

More information/Más información
https://interestingengineering.com/ai-robotics/humanoid-robot-head-with-360-degree-awareness

https://www.eluniverso.com/larevista/sociedad/cual-es-la-cabeza-de-robot-que-puede-escuchar-y-ver-nota/