Hace pocos días se veía en los telediarios de todo el mundo el amerizaje de la cápsula Orion en las costas de California, que ponía el broche de oro a la misión Artemis II de la NASA. Y la pregunta que surge inmediatamente a tanto éxito tecnológico es si esta misión integraba la IA como parte esencial del proyecto. Y sí que la incorporación de la IA ha sido un componente clave para la navegación, el diagnóstico de sistemas y la seguridad de la tripulación.
La IA procesa en tiempo real miles de datos de sensores, incluyendo el control térmico de la nave Orion, para asegurar condiciones óptimas dentro de la cabina (21-24ºC) incluso durante el reingreso a la atmósfera.
Además, en cuanto a la asistencia y seguridad de los astronautas, los sistemas de IA actuaron ayudando en la toma de decisiones y anticipando eventos peligrosos como la radiación solar con horas de antelación.
Dejemos el espacio y pasemos a la tierra
El error habitual es pensar que la IA hace magia. Y esto no es así, ya que su verdadero poder y seguridad radican en la calidad, integridad y gobernanza de los datos que la alimentan.
Si lo que se dice sobre ella respecto a su nivel de consciencia, es preciso aclarar que la Inteligencia Artificial (IA) actual no tiene conciencia propia. Aunque los sistemas de IA pueden simular conversaciones humanas, entender emociones y resolver tareas complejas, no experimentan sensaciones, no tienen un mundo interior ni son conscientes de su propia existencia. No cuentan con un contexto ético, ni motivación propia.
Ese mito que se sigue escribiendo como un guion de película en que la IA lo sabe todo y que ella misma es capaz de tomar cualquier tipo de decisión por sí misma, se desinfla solo con exponer cuál es su realidad: es una herramienta estadística muy avanzada con la capacidad de procesar grandes volúmenes de datos y la particularidad de identificar patrones. Y es en este punto donde nos aflora un primer aspecto crítico: que su resultado en la aplicación está directamente limitado por la calidad de sus datos de entrenamiento.
Esto nos lleva a una primera conclusión: si los datos son sesgados, incorrectos o incompletos, producirá resultados poco fiables e incluso peligrosos porque puede llevar a equivocarse a la persona que en ese instante está en el proceso decisorio con la responsabilidad de tomar la decisión correspondiente, lo cual puede ser un simple error subsanable o, peor aún, asumir un riesgo que la organización no está en condiciones de afrontar, no tanto por el coste (resultado negativo de la acción), sino por las consecuencias que tal acción traen aparejadas, como ser desmotivación del equipo, pérdidas de tiempo por verse obligados a empezar de cero, etc.
Limitación derivada de la calidad de sus datos
En el campo de la inteligencia artificial y el aprendizaje automático (machine learning), existe un principio fundamental conocido como “Garbage In, Garbage Out – GIGO” (“basura entra, basura sale), que establece que la calidad, precisión y fiabilidad de un modelo de IA están intrínsecamente ligadas a la calidad de los datos utilizados para entrenarlo. ¿Es esto clave en el “proceso de razonamiento” que tiene la IA? Por supuesto que sí, ya que un modelo de IA solo puede aprender patrones, reglas y relaciones que estén presentes en sus datos de entrenamiento.
En consecuencia, si por alguna razón los datos fueran incompletos, o también directamente erróneos, los resultados obtenidos no serán fiables. Del mismo modo, ocurre cuando se confía en datos que por pereza o falta de tiempo se han incorporado como buenos, pero resultaron ser obsoletos (un mal casi endémico en el tiempo actual). Más aún se agrava cuando en esta recogida de información la IA ha procesado datos sesgados, lo que dará resultados inexactos, independientemente de lo avanzada que sea su arquitectura.
Por tanto, si se quiere estar seguro que la implementación que se está haciendo de la IA nos lleva a resultados fiables, deben ser datos verificados, porque es la única base para que los modelos sean precisos y efectivos. Por contrario, cuando no están verificados, se producirán situaciones que lleven no solo a errores operativos, sino también a la pérdida de confianza y una consecuencia muy delicada como es la responsabilidad legal por decisiones automatizadas sesgadas que nunca debieron de haberse tomado, ni siquiera haberlas propuesto.
De ahí que esos cimientos de datos verificados y seguros cuánto más sólidos sean, más confiable será su capacidad de procesamiento. O sea que, los cimientos tienen que ver con la seguridad y la gobernanza estricta, que hace que las personas responsables directas del proceso decisorio y desde ya en la alta dirección, tengan un celo exquisito para la implementación de políticas sobre qué información se entrega a la IA y qué no, especialmente en licitaciones o información pública sensible.
Un futuro de IA colaborativa, no autonomía total
Cuando miramos hacia el futuro, es un error pensar que la IA es una solución única que reemplazará a los humanos, ya que es justamente lo contrario, porque funcionará mucho mejor si sigue siendo aumentada por personas. Lo que se conoce como “Human-in-the-loop” (intervención humana) porque es la inteligencia humana la que aporta contexto, ética y visión, mientras todo proceso de automatización lo que aporta es velocidad y análisis de datos.
El valor soberano de la IA
En un documento corporativo del grupo Fujitsu del corriente año, se señala al respecto de la soberanía de la IA lo siguiente:
“La IA está pasando rápidamente de la fase experimental a convertirse en un componente fundamental para las organizaciones de todo el mundo. A medida que crece su influencia, también lo hace la importancia estratégica de la soberanía de la IA: la capacidad de los gobiernos y las empresas para controlar la IA que controla sus negocios. De hecho, según IDC, para 2028, el 60 % de las empresas multinacionales distribuirán sus plataformas de IA entre zonas soberanas”. IDC FutureScape son predicciones de estrategias empresariales impulsadas por la IA a nivel mundial para 2026.
Y a continuación se aclara que a pesar de ser un “concepto crucial suele malinterpretarse, lo que genera una aprensión innecesaria sobre su viabilidad en una cadena de suministro global interconectada”. De ahí que afirma que hay que desmentir los mitos comunes sobre la soberanía de la IA.
En cuanto al mito sobre el entrenamiento de los modelos de IA desde cero, es una afirmación que no solo está bastante extendida, sino que es errónea, ya que cuando se crean modelos de base de vanguardia, es excesivamente costoso, además de que sea un proceso complejo para cualquier organización. Claro está que hay excepciones, por supuesto, para unos pocos colosos tecnológicos globales con capacidad única tanto financiera como de investigación. Por ello, lo que deben comprender los líderes es que la auténtica influencia en la soberanía no reside en la creación de modelos, sino en dónde y cómo se ejecuta la inferencia de modelos de IA sobre los datos. Si se implementan o modelos de terceros o de código abierto dentro de una infraestructura segura propia, se obtiene control total sobre la inferencia de la IA, la gobernanza de datos y los flujos de datos, todo ello sin el inmenso coste de pre-entrenar todo internamente.
Hay que distinguir entre soberanía y aislamiento
Este mito de que la “soberanía significa aislamiento de la innovación global” queda desmontado porque cuando los líderes creen que buscar la soberanía implica aislar a su organización de los mejores ecosistemas globales en la nube e IA, frenando así la innovación, en realidad no se trata de aislamiento, sino de autonomía selectiva. ¿Qué es lo que significa? Que hay que decidir estratégicamente qué cargas de trabajo deben ejecutarse en infraestructura soberana y cuáles son aceptables para servicios públicos.
Es obvio que desde esta focalización del problema permite aprovechar potentes herramientas globales, al tiempo que garantizar que sus cargas de trabajo más sensibles permanezcan dentro de límites de confianza claramente definidos.
Preocupación en los ámbitos públicos
Otra cuestión a tener en cuenta en cuanto a la soberanía de la IA y que es uno de los desafíos estratégicos más reales y complejos de la década actual, corresponde a su interpretación de lo que significa dependiendo de si hablamos del sector público (naciones y gobiernos) o del privado (empresas). Para clarificar esta cuestión es conveniente determinar si es una preocupación legítima o un ideal inalcanzable, siendo conveniente para su análisis considerar las tres partes constitutivas que son: infraestructura (chips/nube), datos y talento/algoritmos.
En el ámbito público hay que distinguir entre lo que es una real necesidad nacional de lo que es un mito. Porque para cualquier líder político que tienen la obligación de responder a un amplio electorado, la soberanía de la IA es una cuestión de seguridad nacional y autonomía estratégica. Y desde ya que deja de ser un mito, desde el momento en que un país depende totalmente de modelos de lenguaje o infraestructura de una potencia extranjera (principalmente Estados Unidos o China), ya que queda expuesto a una situación de vulnerabilidad en relación a cambios en las políticas de exportación, sesgos culturales integrados en los algoritmos y riesgos de espionaje o sabotaje.
Es normal que la clase política tenga esta preocupación en cuanto no solo a la soberanía de los datos, sino también los valores, ya que los modelos de IA reflejan los valores de donde fueron creados. Un país que quiera proteger su lengua, su cultura y sus normas éticas necesita “modelos nacionales” o, al menos, control sobre cómo se aplican en su territorio.
En cuanto a la autonomía económica y tecnológica
En primer lugar, sí se produce una clara dependencia económica de aquellos países que solo consumen IA externa, sin desarrollarla, porque se convertirán en “colonias digitales”, pagando rentas perpetuas a las grandes tecnológicas. Y hay que ver la realidad tal cual es: ningún país excepto Estados Unidos y China puede ser actualmente 100% soberano en IA, ya que la cadena de suministro de chips (como los de NVIDIA) es global y altamente concentrada.
En el ámbito privado, ¿puede afirmarse que pasa a ser una importantísima preocupación para los CEO’s y las juntas directivas? Desde ya que para los responsables de las organizaciones privadas la soberanía de la IA se traduce en control sobre la propiedad intelectual y continuidad del negocio. Las empresas que dependen de APIs externas (como OpenAI o Google) para sus procesos críticos corren el riesgo de que el proveedor cambie los precios, cierre el acceso o utilice sus datos para entrenar modelos que luego ayuden a la competencia. Pero la preocupación real pasa por la protección de secretos comerciales, que se corresponde al miedo a que datos sensibles se “filtren” a través de modelos de IA públicos. Esto ha llevado al auge de la IA on-premise (en servidores propios) o modelos de código abierto (Open Source) adaptados.
La inteligencia artificial (IA) no es solo un campo de conocimiento en el que se mezcla ciencia y tecnología que está “viajando a la velocidad del rayo”, sino que, a su vez, en sí misma tiene tal fuerza de gravedad que asume el potencial de revolucionar a otros muchos ámbitos del conocimiento e impactar directamente nuestras vidas, no solo la de países y organizaciones. Aunque no todo son ventajas, siempre ante cualquier nuevo desarrollo por más disruptivo que sea, surgen las desventajas que habrá que considerar, tales como ciertas limitaciones que puede ser al día de hoy importantes, como la falta de sentido común, transparencia, creatividad, emoción, seguridad y consideraciones éticas.
¿Qué es lo que pueden obstaculizar estas limitaciones? Fundamentalmente, el rendimiento y la eficacia de los sistemas de IA y limitar sus aplicaciones, especialmente en ámbitos tan diversos y complejos como son la toma de decisiones, la atención médica, el transporte, las finanzas, etc. No cabe duda que es vital comprender y atender estas limitaciones para que se pueda aprovechar al máximo el potencial de la IA.
Sabemos que los sistemas de IA tienen una comprensión limitada del contexto y de los matices del lenguaje y la comunicación humanos. A pesar que suelen entrenarse con grandes cantidades de datos de texto y son capaces de identificar patrones y hacer predicciones basadas en esos datos, se caracterizan por una carencia importante: la capacidad de comprender los matices y sutilezas del lenguaje y la comunicación humanos. Esto incluye la dificultad para entender el sarcasmo o la ironía, así como la incapacidad de focalizar correctamente el contexto en el que se utiliza el lenguaje. Todo ello puede provocar errores, sumado a la dificultad manifiesta para entender las referencias culturales e idiomáticas de cualquier país y/o región, aunque cuanto más se entrena y más se expone, mejor terminará gestionando este tipo de lenguajes.
Actualmente, los sistemas de IA carecen de la capacidad de aplicar el razonamiento de sentido común a situaciones nuevas. Solo pueden realizar predicciones y tomar decisiones basándose en los datos con los que han sido entrenados, lo que significa que no pueden aplicar su conocimiento de forma flexible a situaciones nuevas. Esta falta de sentido común puede hacer que los sistemas de IA sean propensos a errores, especialmente al enfrentarse a situaciones novedosas.
Por ejemplo, un sistema de IA entrenado para identificar objetos en imágenes podría no ser capaz de reconocer un objeto que no haya visto antes, lo que significa que seguirá necesitando la intervención humana para introducirle el nuevo elemento y programarlo para experiencias futuras.
La falta de creatividad
Es un debate que recientemente se ha tenido en diversos ámbitos, respecto a cuáles son las auténticas capacidades creativas de la IA. Y la verdad es que aún carece de creatividad.
Los sistemas de IA se basan en algoritmos y modelos matemáticos, que les permiten reconocer patrones y realizar predicciones a partir de grandes cantidades de datos. Sin embargo, estos sistemas no son capaces de crear ideas o conceptos nuevos. Por ejemplo, no puede concebir algo completamente nuevo como lo haría un artista (ser humano) que crea una nueva pintura.
Beneficios del buen uso de la IA
La IA se ha transformado en un catalizador esencial para la productividad y la cohesión dentro de las organizaciones ya que permite que se haga óptima la colaboración profesional y en tiempo real. Porque de su buena implementación permite automatizar tareas administrativas tediosas, como la programación de reuniones y la generación de resúmenes automáticos de videoconferencias, lo que libera tiempo para que los equipos se focalicen en la innovación y la resolución creativa de problemas.
Además, las herramientas de IA facilitan una comunicación más fluida mediante la traducción instantánea y el análisis de datos compartidos, lo que ayuda a alinear objetivos y a tomar decisiones colectivas basadas en evidencia y no solo en intuiciones. Actúa como un “miembro adicional” que agiliza los flujos de trabajo, reduce los malentendidos y potencia el talento humano al permitir que cada colaborador aporte su máximo valor estratégico.
Si lo que preocupa es -como muchas personas piensan por desconocimiento-, que un agente de IA es como una persona imaginaria que está ocupando un puesto de trabajo, rotundamente no es así. No se trata de una persona imaginaria, sino de un sistema de software autónomo diseñado para ejecutar tareas específicas y resolver problemas siguiendo objetivos predefinidos.
Lo que lleva a confusión es que se utiliza la metáfora de un “miembro del equipo” por su capacidad para interactuar y completar flujos de trabajo de forma independiente, pero el agente de IA es en realidad una herramienta digital avanzada que procesa información y toma decisiones lógicas dentro de un marco técnico.
Desde ya que no ocupa un puesto de trabajo en términos humanos, legales o sociales, sino que funciona como una extensión de las capacidades operativas del grupo, actuando como un asistente inteligente que agiliza procesos sin poseer consciencia ni identidad.
En definitiva, la IA puede optimizar la colaboración en tiempo real de los miembros de un equipo de trabajo, porque actúa como un núcleo de información inteligente que elimina las barreras de comunicación y gestión de forma instantánea.
Mediante funciones como la transcripción y el resumen automático de reuniones mientras estas ocurren, la traducción lingüística inmediata y la actualización dinámica de documentos compartidos, garantiza que todos los integrantes del equipo tengan acceso a la misma versión de la realidad operativa simultáneamente. Además, al analizar los flujos de trabajo en vivo, la IA puede detectar cuellos de botella, sugerir ajustes en la asignación de tareas según la disponibilidad de cada miembro y centralizar el conocimiento disperso, lo que permite que el grupo tome decisiones colectivas más rápidas, precisas y alineadas sin interrupciones ni pérdida de contexto.
Gestión del conocimiento
La IA centraliza el conocimiento disperso mediante la indexación y el análisis semántico de grandes volúmenes de datos no estructurados, como correos electrónicos, hilos de chat, minutas de reuniones y repositorios de documentos, transformando silos de información aislados en una “memoria corporativa” unificada.
Al utilizar modelos de procesamiento de lenguaje natural, es capaz de conectar ideas relacionadas, categorizar automáticamente el contenido y permitir que los miembros del equipo realicen consultas en lenguaje sencillo para encontrar respuestas precisas en segundos, sin importar dónde se originó el dato. De esta manera, la IA elimina la dependencia de la memoria individual y evita la duplicación de esfuerzos, garantizando que el saber técnico y la experiencia acumulada del departamento estén siempre accesibles, actualizados y al servicio de la toma de decisiones colectiva.
¿Significa que el esfuerzo y capacidad de la IA para centralizar el conocimiento disperso reemplaza la actividad humana que se realiza a través de la poderosa herramienta que es KM (Knowledge management)? Desde ya que la IA no reemplaza la disciplina que es la gestión del conocimiento (KM), sino que la transforma al automatizar sus procesos más arduos y técnicos, permitiendo que la actividad humana se desplace hacia niveles de mayor valor estratégico. El tiempo que es costoso, especialmente en personal altamente preparado y en equipos de alto rendimiento, mientras la IA se encarga de la captura, indexación y recuperación instantánea de información a una escala imposible para las personas, el factor humano sigue siendo indispensable para definir el propósito del conocimiento, validar su veracidad en contextos complejos, fomentar la cultura de compartir experiencias y convertir los datos brutos en sabiduría aplicada.
En esencia, la IA actúa como el motor operativo que potencia el KM, pero la dirección, el juicio crítico y la gestión de la cultura organizacional siguen siendo responsabilidades exclusivas del talento humano para asegurar que el conocimiento impulse una verdadera innovación.
La IA no opera en un vacío ético, sino que funciona como un espejo matemático de los datos que los seres humanos recolectamos y le proporcionamos. Al ser sistemas diseñados para el reconocimiento de patrones, los algoritmos de aprendizaje automático y aprendizaje profundo no distinguen entre hechos objetivos y prejuicios históricos; simplemente identifican y replican las tendencias presentes en los datos de entrenamiento. Si esos datos reflejan desigualdades sociales, raciales o de género, el modelo codifica estos sesgos como reglas lógicas de decisión, lo que genera un ciclo donde la tecnología no solo hereda los errores humanos, sino que los escala y automatiza bajo una apariencia de neutralidad técnica, perpetuando resultados injustos si no se aplican medidas rigurosas de auditoría y mitigación.
De ahí la importancia de establecer una estrategia de gobernanza de la IA que abarque marcos, políticas y procesos que guíen el desarrollo y uso responsable de las tecnologías de IA.
Crear prácticas que promuevan la equidad, como incluir conjuntos de datos de entrenamiento representativos, formar equipos de desarrollo diversos, integrar métricas de equidad e incorporar la supervisión humana mediante juntas o comités de revisión ética de la IA. También implementar procesos de mitigación de sesgos a lo largo del ciclo de vida de la IA, lo que implica elegir el modelo de aprendizaje adecuado, procesar los datos con criterio y monitorear el rendimiento en el mundo real.
Artículo coordinado por José Luis Zunni, presidente y CEO del Instituto Europeo Ecofin de Liderazgo (IEEL), director de ecofin.es, vicepresidente de Foro ECOFIN y autor del libro recién publicado ‘El Cubo del Líder’ (Ed. Kolima; disponible a la venta pinchando aquí), en colaboración con Salvador Molina, presidente de Foro ECOFIN y presidente honorario del Instituto Europeo Ecofin de Liderazgo (IEEL) y también autor del libro ‘El Cubo del Líder’; y Antonio Alonso, presidente de la AEEN (Asociación Española de Escuela de Negocios) y vicepresidente segundo de EUPHE (European Union of Private Higher Education).














