Former Apple employees create a system that could revolutionize the vision of robots/Exempleados de Apple crean un sistema que podría revolucionar la visión de los robots

Source
To make a robot capable of "seeing" a camera is not enough. In humans, the eyes, which would be the camera, all they do is collect the photons that bounce off the environment and convert them into electrical impulses that are sent to our brain. That's where the magic happens, combining those electrical impulses with those sent by the rest of our senses and mixing these with all the know-how of our brain to finally give shape to what we call reality on a daily basis.
Para conseguir que un robot sea capaz de "ver" no es suficiente con una cámara. En los humanos los ojos, que vendrían a ser la cámara, lo único que hacen es recoger los fotones que rebotan en el entorno y convertirlos en impulsos eléctricos que son enviados a nuestro cerebro. Allí es donde se produce la magia, juntando esos impulsos eléctricos con los enviados por el resto de nuestros sentidos y mezclando estos con todo el know-how de nuestro cerebro para finalmente dar forma a lo que cotidianamente llamamos realidad.
Now a group of three former Apple engineers have created a startup called Lyte. Founded in 2021 in Mountain View (California), this startup has designed a system called LyteVision, presenting it as a “visual brain” for robots. A perception unit that integrates sensors, proprietary chips, optics and software to package all visual and spatial information on a single platform. LyteVision combines three types of sensors in a single system, something key compared to other more fragmented architectures.
Ahora un grupo de tres ingenieros ex-trabajadores de Apple han creado un startup llamada Lyte. Fundada en 2021 en Mountain View (California), esta startup ha diseñado un sistema llamado LyteVision presenta docomo un “cerebro visual” para robots. Una unidad de percepción que integra sensores, chips propios, óptica y software para empaquetar toda la información visual y espacial en una sola plataforma. LyteVision combina tres tipos de sensores en un solo sistema, algo clave frente a otras arquitecturas más fragmentadas.

Source
This "brain" is made up of a camera that provides the classic visual information, textures, colors and details of the scene, necessary to detect objects, signs, people, etc. An inertial sensor that measures accelerations and rotations (IMU), helping to estimate the robot's own movement and stabilize perception even with vibrations or sudden turns and a “4D” distance and speed sensor that not only measures the distance to objects, but also how they move in time, providing more dynamic spatial information (the “4D”: 3D + time).
Este "cerebro" está compuesto por una cámara que aporta la información visual clásica, texturas, colores y detalles de la escena, necesaria para detectar objetos, señales, personas, etc. Un sensor inercial que mide aceleraciones y rotaciones (IMU), ayudando a estimar el movimiento propio del robot y estabilizar la percepción incluso con vibraciones o giros bruscos y un sensor “4D” de distancia y velocidad que no solo mide la distancia a los objetos, sino también cómo se mueven en el tiempo, proporcionando información espacial mas dinámica (las “4D”: 3D + tiempo).
The operation is based on the fusion of data from all these sensors in the same perception “pipe”, the data from the camera, the IMU and the 4D sensor are combined to build a coherent representation of the environment, so that the system knows where the robot is, what is around it and how objects are moving. Lyte develops its own microchips and optics, aiming for high-speed, low-power processing, critical for robots that must react in milliseconds.
El funcionamiento se basa en la fusión de datos de todos esos sensores en una misma “tubería” de percepción, los datos de la cámara, la IMU y el sensor 4D se combinan para construir una representación coherente del entorno, de modo que el sistema sabe dónde está el robot, qué hay alrededor y cómo se están moviendo los objetos. Lyte desarrolla sus propios microchips y óptica, lo que apunta a un procesamiento de alta velocidad y bajo consumo, algo crítico para robots que deben reaccionar en milisegundos.

Source
What is new is not just the hardware, but the approach of an “integrated visual brain”, instead of treating each sensor as an isolated module, the system is designed from the ground up so that data is generated, synchronized and processed as a single coherent perception. Instead of having separate modules (a camera on one side, a LiDAR on the other, an IMU on another subsystem), LyteVision delivers already aligned and processed output for tasks like obstacle avoidance, trajectory planning, and maintaining safety. The company has raised about 107 million dollars to bring this technology to production and deploy it in different types of robots, not as a laboratory experiment
Lo novedoso no es solo el hardware, sino el enfoque de un “cerebro visual integrado”, en lugar de tratar cada sensor como un módulo aislado, el sistema está diseñado desde cero para que los datos se generen, sincronicen y procesen como una sola percepción coherente. En lugar de tener módulos separados (una cámara por un lado, un LiDAR por otro, una IMU en otro subsistema), LyteVision entrega una salida ya alineada y procesada para tareas como evitar obstáculos, planificar trayectorias y mantener la seguridad. La empresa ha levantado unos 107 millones de dólares para llevar esta tecnología a producción y desplegarla en distintos tipos de robots, no como un experimento de laboratorio.
Although the company has not made its customers public, it has indicated target applications such as humanoid robots that need very rich perception to move in complex human environments without colliding or putting people at risk. Mobile robots (warehouses, logistics, etc.) that would improve navigation, manipulation of objects and operation in changing spaces or robotaxis and autonomous vehicles. The combination of camera + IMU + 4D sensor could complement or replace configurations based on multiple cameras and LiDAR, with a more unified view of the dynamic environment.
Aunque la empresa no ha hecho públicos sus clientes, sí ha indicado las aplicaciones objetivo como robots humanoides que necesitan percepción muy rica para moverse en entornos humanos complejos sin chocar ni poner en riesgo a las personas. Robots móviles (almacenes, logística, etc.) que mejorarían navegación, manipulación de objetos y operación en espacios cambiantes o los robotaxis y vehículos autónomos. La combinación de cámara + IMU + sensor 4D podría complementar o sustituir configuraciones basadas en múltiples cámaras y LiDAR, con una visión más unificada del entorno dinámico.
More information/Más información
https://www.latimes.com/business/story/2026-01-06/former-apple-engineers-launch-california-startup-to-give-robots-visual-brain