Las empresas se están moviendo rápidamente para adoptar inteligencia artificial basada en agentes (sistemas de inteligencia artificial que operan sin guía humana), pero han tardado mucho más en establecer una gobernanza para supervisarlos, según muestra una nueva investigación. Ese desajuste es una fuente importante de riesgo en la adopción de la IA. En mi opinión, también es una oportunidad de negocio.
Soy profesor de sistemas de información de gestión en la Facultad de Negocios LeBow de la Universidad de Drekel y recientemente encuesté a más de 500 profesionales de datos a través de su Centro de Inteligencia Artificial Aplicada y Análisis de Negocios. Descubrimos que el 41% de las organizaciones utilizan inteligencia artificial basada en agentes en sus operaciones diarias. No se trata sólo de proyectos piloto o pruebas puntuales. Son parte de los flujos de trabajo habituales.
Al mismo tiempo, la gobernanza está rezagada. Sólo el 27% de las organizaciones afirma que sus marcos de gobernanza son lo suficientemente maduros para monitorear y gestionar eficazmente estos sistemas.
En este contexto, la gobernanza no es regulación ni reglas innecesarias. Esto significa tener políticas y prácticas que permitan a las personas influir claramente en cómo funcionan los sistemas autónomos, incluido quién es responsable de las decisiones, cómo se controla el comportamiento y cuándo las personas deben involucrarse.
Este desajuste puede convertirse en un problema cuando los sistemas autónomos operan en situaciones del mundo real antes de que alguien pueda intervenir.
Por ejemplo, durante el reciente corte de energía en San Francisco, los robotaxis autónomos se atascaron en las intersecciones, bloqueando los vehículos de emergencia y confundiendo a otros conductores. La situación demostró que incluso cuando los sistemas autónomos se comportan “según lo diseñado”, condiciones inesperadas pueden conducir a resultados indeseables.
Esto plantea una gran pregunta: cuando algo sale mal con la IA, ¿quién es el responsable y quién puede intervenir?
Por qué la gestión es importante
Cuando los sistemas de IA actúan por sí solos, la responsabilidad ya no recae en quienes las organizaciones esperan que lo haga. Las decisiones todavía se toman, pero la propiedad es más difícil de rastrear. Por ejemplo, en los servicios financieros, los sistemas de detección de fraude funcionan cada vez más en tiempo real para bloquear actividades sospechosas antes de que un ser humano revise el caso. Los clientes a menudo se enteran sólo cuando su tarjeta ha sido rechazada.
¿Y qué pasa si el sistema de inteligencia artificial rechaza su tarjeta por error? En esa situación, el problema no es la tecnología en sí -funciona según lo diseñado- sino la responsabilidad. La investigación sobre la gestión humana y de la IA muestra que los problemas ocurren cuando las organizaciones no definen claramente cómo los humanos y los sistemas autónomos deben trabajar juntos. Esta falta de claridad hace que sea difícil saber quién es el responsable y cuándo intervenir.
Sin una gestión diseñada para la autonomía, los pequeños problemas pueden crecer silenciosamente. El monitoreo se vuelve esporádico y la confianza se debilita, no porque los sistemas fallen por completo, sino porque la gente lucha por explicar o respaldar lo que hacen los sistemas.
Cuando la gente entra en el circuito demasiado tarde
En muchas organizaciones, las personas están técnicamente “al tanto”, pero sólo después de que los sistemas autónomos ya están implementados. La gente tiende a involucrarse cuando un problema se hace visible: cuando un precio parece incorrecto, se marca una transacción o un cliente se queja. En ese momento, el sistema ya ha sido decidido y la revisión humana se vuelve correctiva en lugar de supervisión.
La intervención tardía puede limitar las consecuencias de las decisiones individuales, pero rara vez aclara quién es el responsable. Los resultados pueden corregirse, pero la rendición de cuentas sigue sin estar clara.
Directrices recientes muestran que cuando la autoridad no está clara, la supervisión humana se vuelve informal e inconsistente. El problema no es la participación humana, sino el tiempo. Sin una gestión premeditada, las personas actúan como válvulas de seguridad en lugar de tomadores de decisiones responsables.
Cómo la gobernanza determina quién sale adelante
La IA del agente a menudo ofrece resultados rápidos y tempranos, especialmente cuando las tareas se automatizan por primera vez. Nuestra investigación ha demostrado que muchas empresas están viendo estos primeros beneficios. Pero a medida que los sistemas autónomos crecen, las organizaciones suelen agregar verificaciones manuales y pasos de aprobación para gestionar el riesgo.
Con el tiempo, lo que alguna vez fue simple se vuelve poco a poco más complicado. La toma de decisiones se ralentiza, aumentan las soluciones alternativas y los beneficios de la automatización se desvanecen. Esto no sucede porque la tecnología deje de funcionar, sino porque la gente nunca confía plenamente en los sistemas autónomos.
Esta desaceleración no tiene por qué ocurrir. Nuestra investigación muestra una diferencia clara: muchas organizaciones ven beneficios tempranos de la IA autónoma, pero aquellas con una gobernanza más sólida tienen más probabilidades de traducir esos beneficios en resultados a largo plazo, como una mayor eficiencia y un crecimiento de los ingresos. La diferencia clave no es la ambición ni las habilidades técnicas, sino la voluntad.
La buena gobernanza no limita la autonomía. Lo hace viable al aclarar quién es el dueño de las decisiones, cómo se monitorean los sistemas y cuándo las personas deben intervenir. Las directrices internacionales de la OCDE (la Organización para la Cooperación y el Desarrollo Económicos) enfatizan este punto: la rendición de cuentas y la supervisión humana deben integrarse en los sistemas de IA desde el principio, no agregarse más tarde.
En lugar de sofocar la innovación, la gobernanza crea la confianza que las organizaciones necesitan para ampliar la autonomía en lugar de retirarla silenciosamente.
La siguiente ventaja es una gestión más inteligente
La próxima ventaja competitiva en IA no vendrá de una adopción más rápida, sino de una gestión más inteligente. A medida que los sistemas autónomos asuman más responsabilidad, el éxito recaerá en organizaciones que definan claramente la propiedad, la supervisión y la intervención desde el principio.
En la era de la IA agente, la confianza la ganarán las organizaciones que mejor se gestionen, no solo las primeras en adoptarla.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

