La inteligencia artificial ya está tomando decisiones, el problema es que muchas organizaciones no saben cuáles.

Introducción

La adopción de inteligencia artificial en las organizaciones ya no es una tendencia. Es una realidad operativa.

Modelos que aprueban transacciones, automatizan procesos, priorizan clientes o generan recomendaciones están cada vez más presentes en el día a día del negocio.

Sin embargo, hay una pregunta que pocas organizaciones están respondiendo con claridad:

¿Quién entiende realmente cómo se están tomando esas decisiones?

El problema no es la tecnología

En la mayoría de las organizaciones ya existen: modelos funcionando, datos disponibles y procesos automatizados.

Pero cuando se intenta responder:

¿por qué se tomó esta decisión? ¿qué variables influyeron? ¿qué pasa si el modelo falla?

La conversación se vuelve difusa, y no por falta de capacidad técnica, sino por falta de estructura organizacional.

La nueva capa de riesgo

La inteligencia artificial introduce una categoría distinta de riesgo: decisiones opacas, dependencia de modelos, falta de trazabilidad, responsabilidad difusa.

De acuerdo con Gartner, uno de los principales retos en la adopción de IA no es el desarrollo de modelos, sino la gobernanza de las decisiones que estos generan.

Casos recientes (2023–2026): cuando la IA decide mal

UnitedHealth Group (2023–2024)

https://images.openai.com/static-rsc-4/sPMpsJPHJtQNyATSxn4H7D-SA-6KpQZBiDwacdhWTxlsrkDmJt1sjXD05cF62qHTiAINLRjHEhhoOKrbD3AFkOWD-vEzsoUsjCD-QkINSgWJJFF1SP1u17vbi-MtYE7leLij3g9ZtyZy3gnfWyPAmwUOe6-hDmJuncGVNjlSXFg7HXChFkCweDmM1R0fYh15?purpose=fullsize
El uso de algoritmos para evaluar cobertura médica generó controversia al detectar rechazos sistemáticos de tratamientos necesarios.

Cuando la IA decide, el impacto deja de ser técnico – Se vuelve humano.

Fuente: STAT News (2023)
https://www.statnews.com/2023/11/14/health-insurance-ai-algorithms-deny-care/

Air Canada (2024)

https://images.openai.com/static-rsc-4/M2tmDZAGwgQiQvpGgmPwXMrj_rrBZhxJ-5iranPYkNwwFo_OnIRA_ZlIFpPp9ko0fVzLWXXxF1pTbD7Zq0wYiQGLFpGw_sMMU2HOpX7jo9NjS3eAVCX2N8TPuxum76XaI219LOCvX8tyGGfk5WhqOMc6TVY6cmvM6BCf4D9sBO0oC1ZFvCWQxeqhOjsXumFX?purpose=fullsize
Un chatbot de IA proporcionó información incorrecta a un cliente sobre políticas de reembolso.

La empresa argumentó que el chatbot no era responsable… pero el tribunal falló en contra.

La organización siempre es responsable de las decisiones de su IA.

Fuente: Tribunal Civil de Canadá / reportado por BBC (2024)
https://www.bbc.com/news/world-us-canada-68434591

Microsoft / OpenAI (2023–2024)

Modelos generativos como chatbots han generado respuestas incorrectas o inventadas (“hallucinations”), incluso en entornos corporativos.

La IA no siempre se equivoca por fallas técnicas, sino por falta de control sobre sus respuestas.

Fuente: The New York Times / múltiples reportes 2023–2024
https://www.nytimes.com/2023/02/16/technology/bing-chatbot-errors.html

Samsung Electronics (2023)

https://images.openai.com/static-rsc-4/80Hc9PrWyeCZzdQUG69CJS293aH_pQPeCCyFp80b1qdKKo0vQbCFRrm38yis0aZzHT7kaFdf-_CfgdJFtr7Sg5_PIHLjTwRFHeykd25sFJLZb1QBO5F0WAP9Ien_UHUT2svmzWkUG6VU9Z__7UAeJRZMHq9RJqphbGL9LNgjxb1NFrBsTpsi6vlEBRDopqF-?purpose=fullsize
Ingenieros compartieron información confidencial con un modelo de IA generativa, generando una filtración de datos internos.

El riesgo no siempre está en el modelo, sino en cómo se usa.

Fuente: Bloomberg (2023)
https://www.bloomberg.com/news/articles/2023-04-03/samsung-bans-chatgpt-after-sensitive-code-leak

Google (2024)

https://images.openai.com/static-rsc-4/S5OY215ooBjxKAAtK5r_1b-ONPmZ_LTbNFCrMXFF9pW8cA32R1FMwqO2qE2nS9akN7U2m6-bYDiUIIFu4Q0DyspGHodDw6Dn2SZI_gIW3Cm3KbeUmDTuU8jpodNjpJeGkKWayY5Sug5Vl6cl9GHQ4hkvdBBZ6Xa1wngrCV061nG5j6Q-XFPlvT1E6zbRLA22?purpose=fullsize
Herramientas generativas generaron contenido visual históricamente inexacto, provocando críticas públicas y ajustes del sistema.

La IA también impacta reputación, no solo operación.

Fuente: The Verge / BBC (2024)
https://www.theverge.com/2024/2/22/google-gemini-ai-image-generation-controversy

El patrón es claro

En todos los casos recientes, no fue falta de tecnología o falta de datos. Fue falta de gobernanza, falta de supervisión, falta de claridad en decisiones, falta de responsabilidad.

De tecnología a gobierno

Tradicionalmente, la seguridad se enfocaba en proteger sistemas, asegurar infraestructura y cumplir controles. Pero con IA el activo ya no es el sistema es la decisión.

El rol de ISO/IEC 42001

Este estándar introduce un cambio clave: Gobernar sistemas de inteligencia artificial

Es el primer estándar internacional que establece requisitos para un Sistema de Gestión de Inteligencia Artificial (SGIA). Proporciona un marco para que las organizaciones desarrollen y utilicen la IA de manera ética, responsable y transparente, gestionando riesgos y mejorando la gobernanza.

La pregunta clave

¿Estamos usando IA para automatizar decisiones… o para mejorar cómo decidimos?

Cierre

La inteligencia artificial no va a reemplazar la toma de decisiones, pero sí va a transformar cómo ocurren.

Las organizaciones que lideren no serán las que adopten más IA, serán las que desarrollen la capacidad de entender, cuestionar y gobernar las decisiones que esa tecnología genera.

Si esta conversación ya está presente en tu organización:

Revisa nuestra guía ejecutiva para abrir esta discusión y evaluar el estado actual.

https://47280643.hs-sites.com/ai-governance

Te acompañamos a realizar sin costo tu Diagnóstico

https://www.hkmexico.com/contacto/

Usamos Cookies

En usamos cookies para mejorar la experiencia de uso en este sitio web.