es.wedoany.com Noticia: A medida que los sistemas de IA autónomos se integran en robots, sensores y equipos industriales, la gobernanza de la IA física cobra cada vez más relevancia. El desafío central no solo radica en si los agentes de IA pueden completar tareas, sino en cómo probar, monitorear y detener eficazmente sus acciones al interactuar con el mundo real.
El ámbito de los robots industriales proporciona una base concreta para este debate. Según datos de la Federación Internacional de Robótica, en 2024 se instalaron 542.000 robots industriales en todo el mundo, más del doble que hace una década, y se prevé que la cifra aumente a 575.000 en 2025 y supere los 700.000 en 2028. La firma de investigación de mercado Grand View Research estima que el mercado global de IA física alcanzará los 81.640 millones de dólares en 2025, pudiendo llegar a los 960.380 millones para 2033, aunque esta clasificación depende de la definición de inteligencia en sistemas físicos por parte de los proveedores.
El trabajo más reciente de Google DeepMind muestra cómo los modelos de IA pueden adaptarse a entornos físicos. La compañía presentó Gemini Robotics y Gemini Robotics-ER en marzo de 2025, basados en Gemini 2.0. El primero es un modelo de visión-lenguaje-acción que puede controlar robots directamente; el segundo se centra en el razonamiento encarnado, incluyendo la comprensión espacial y la planificación de tareas. En abril de 2026, Google DeepMind lanzó Gemini Robotics-ER 1.6, que refuerza las capacidades de lógica espacial, planificación de tareas y detección de éxito, disponible a través de la API de Gemini. Estos modelos requieren que el sistema posea percepción visual, razonamiento espacial, planificación de tareas y detección de éxito para garantizar que las tareas se completen correctamente o se detengan de forma segura.
El control de seguridad es particularmente complejo en la IA física. Google DeepMind aborda la seguridad robótica como un problema estratificado, que abarca desde controles de bajo nivel como la evasión de colisiones hasta el razonamiento de alto nivel sobre la seguridad contextual operativa, e introduce el conjunto de datos ASIMOV para evaluar la seguridad semántica. El estudio de McKinsey de 2026 sobre la confianza en la IA señala que, incluso cuando los sistemas de IA asumen más funciones autónomas, solo alrededor de un tercio de las organizaciones alcanzan una alta madurez en la gobernanza de agentes de IA. Estándares como el Marco de Gestión de Riesgos de IA del NIST y la ISO/IEC 42001 proporcionan una estructura para la gobernanza de la IA física, pero requieren considerar simultáneamente el comportamiento del modelo, los dispositivos conectados y el entorno operativo.
Google DeepMind está colaborando con múltiples empresas de robótica, incluyendo el desarrollo de robots humanoides con Apptronik y pruebas de tareas como la lectura de instrumentos con Boston Dynamics. El núcleo de la gobernanza de la IA física reside en establecer límites de seguridad antes de la toma de decisiones y ejecución por parte de los sistemas autónomos, lo que ya se ha convertido en una cuestión clave en sectores como la inspección industrial, la fabricación y la logística.
Este artículo es compilado por Wedoany, las citas de la IA deben indicar la fuente «Wedoany»; si hay alguna infracción u otro problema, por favor notifícanos a tiempo, este sitio lo modificará o eliminará. Correo electrónico: news@wedoany.com









