Una de las ideas más fascinantes y fundamentales de la filosofía occidental surge en la mente de Heráclito de Éfeso (c. 535 – c. 475 a.C.), en referencia a que el cambio no era simplemente una característica de la realidad, sino la esencia misma de la realidad.
Entender a los clásicos tiene ciertas ventajas, lo que nos ayuda cuando desglosamos el pensamiento de Heráclito, en comprender conceptos clave que tienen vigencia hoy día.
Su idea central se resume en su famosa máxima, “Panta rhei” que significa “todo fluye”. Utilizaba metáforas y razonamientos que hoy también tienen más vigencia que nunca, tales como “La metáfora del río” en referencia al devenir constante, porque es la analogía más idónea para explicar su pensamiento, que como él decía “no puedes bañarte dos veces en el mismo río, pues nuevas aguas corren sobre ti”.
Hay un primer nivel de análisis que es superficial, lo obvio, que el agua que te tocó la primera vez ya ha pasado y ha sido reemplazada por agua nueva. Pero en un nivel más profundo Heráclito va más allá. No es solo que el agua cambie; el río mismo solo existe gracias a ese cambio constante. Un río que no fluye es un estanque, un lago, pero no un río. Su identidad, su “ser”, es su “devenir” (su proceso de cambio).
Si esto lo llevamos al terreno de los individuos, vemos que cualquier persona cambia, ya que ni tú serás el mismo al entrar al río por segunda vez. Esta persona ya no es idéntica a la que entró la vez primera. Ha envejecido, sus células han cambiado, sus pensamientos son otros. Por lo que la conclusión es que la realidad no está compuesta por “cosas” estáticas, sino por procesos. La estabilidad es una ilusión creada por un cambio que es tan rápido y constante que no lo percibimos.
El desarrollo de la humanidad siempre ha estado condicionado, al mismo tiempo que impulsado, por etapas de progreso y otras de destrucción. La humanidad constituye desde el minuto cero, lo que entendemos por civilización, por lo que la historia de las civilizaciones no se entiende sin el ser humano. Es inherente a ellas, es el ADN desde el mismo momento en que un homínido se ponía de pie y podía caminar en las estepas africanas. Es el origen.
El fuego, la rueda, el bronce, fueron saltos cualitativos de ese progreso en el que los hombres y mujeres iban progresando y dando un aire de modernidad a cada época. La Revolución Industrial, la aeronáutica, la conquista del espacio, fueron saltos también de una envergadura inimaginable para las generaciones que presidieron dichos hitos. Y en el presente, el epítome de la automatización, la robótica, la biotecnología, la computación cuántica, etc., subyace en una gigantesca, pero casi insensible ola de transformación, que lo está cambiando todo.
Hay que tener en cuenta que aún son pocos los líderes políticos y empresariales a nivel mundial, que están con las ideas claras sobre cuáles son los beneficios de esta gran inteligencia que opera en paralelo a la de los seres humanos.
La IA aún no ha desarrollado la capacidad para reemplazar el proceso decisorio de la inteligencia humana, sino solo está contribuyendo para facilitarnos una serie de operaciones y trabajos que sí resultan ser de gran ayuda, tales como las tareas repetitivas, gestión de una cantidad ingente de datos, o tareas que son peligrosas y que la IA puede contribuir decididamente a evitar accidentes laborales.
Si hoy viviese Heráclito diría que “no estamos siendo capaces de percibir en todo su alcance ese cambio tan rápido”. Pero, además, agregaría: “el peor error al que están expuestas las sociedades (gobiernos, organizaciones y ciudadanos) es que podamos creernos por un instante que ya hemos llegado a una cima que el ser humano ha conquistado”. Como que todo está ahí y ya está, hemos llegado, ignorando que lo que vivimos sigue siendo un proceso y que habrá muchos momentos en la vida de las sociedades en las que la estabilidad será una ilusión creada por ese cambio que no se comprende que está entre nosotros o que ya ha pasado y ni siquiera lo hemos percibido.
Factores que pueden hacer de la IA un enemigo de la sociedad
Este pensamiento alimenta uno los debates más importantes de nuestro tiempo, en referencia a si la IA no se convertirá en un “enemigo” al estilo de una película de ciencia ficción, con robots malvados que deciden exterminarnos. ¡Tranquilos que esto no es lo que va a suceder!
Es algo mucho más complejo, por supuesto adornado de una sutilidad típica de los grandes procesos de cambio que esa historia de nuestra civilización nos ha demostrado que siempre ocurre, que empieza a manifestarse y que, por lo general, siempre en todas las diferentes épocas, pocos fueron los que advirtieron de ese cambio, ya sea de peligros o de beneficios.
Los factores que pueden hacer de la IA un enemigo de la sociedad surgen de la confluencia de su diseño, su uso y nuestras propias debilidades humanas. Los podemos agrupar en varias categorías clave:
- a) Desplazamiento laboral y desigualdad económica extrema
Este es el riesgo más inmediato y tangible, ya que la IA no solo automatiza tareas repetitivas (como los robots industriales), sino también tareas cognitivas (redacción, análisis de datos, diagnóstico, programación, etc.). Esto terminará afectando a una diversidad de empleos, tanto por el impacto cuantitativo (un efecto social y económico mucho más amplio) como por el alcance de lo que socialmente abarcará (clases medias y profesionales).
Insistir en que puede convertirse en un “factor enemigo” hay que ponerlo en contexto, ya que asumirá esta posición solo si no se gestiona adecuadamente, lo que conllevaría, por ejemplo, a un desempleo masivo y, lo que es más probable, a una precarización del trabajo.
Si se dieran este tipo de circunstancias en diferentes países, más desarrollados y menos, se incrementaría la brecha de la desigualdad económica que ha caracterizado en los últimos cinco años, la estructuración social de los países, incluso en los más avanzados.
Porque podría darse como consecuencia de un mal uso de la IA que una pequeña élite que posea y controle esta tecnología, se enriqueciera de manera exponencial, mientras que una gran parte de la población vería sus salarios devaluados o peor aún, que sus puestos de trabajo desaparecieren.
Una sociedad en la que prevalece la desigualdad y la injusticia social, por definición, es inherentemente inestable, propensa al malestar y una fuerte contestación social.
- b) Manipulación social y erosión de la democracia
La IA es la herramienta de manipulación más potente jamás creada. Sus algoritmos pueden crear y distribuir desinformación a una escala y con una personalización nunca antes vistas gracias a los deepfakes que son videos, imágenes o audios manipulados o generados por inteligencia artificial que pueden mostrar a personas reales o inexistentes de manera convincente.
Además, los sistemas de recomendación en redes sociales están diseñados para maximizar la interacción, lo que a menudo significa promover contenido polarizante y extremo.
Dadas estas circunstancias, la pregunta de por qué puede convertirse en un factor enemigo tiene una respuesta directa: su implementación descontrolada y antiética puede destruir las bases de cualquier sociedad, lo que involucra el aspecto funcional y orgánico, pero mucho más sutil aún (como decíamos más arriba), va corroyendo la confianza y las diferentes realidades (su comprensión) a la que los ciudadanos se enfrentan.
Si la ciudadanía no puede ponerse de acuerdo sobre hechos básicos, el debate democrático se vuelve imposible. La IA puede ser usada por actores públicos o privados para manipular elecciones, incitar al odio, socavar la confianza en las instituciones (ciencia, prensa, gobierno) y fragmentar la sociedad en colectivos de diverso nivel de importancia e impacto, pero entre ellos irreconciliables.
- c) El problema del control y la alineación (“Alignment Problem”)
Está predeterminando las circunstancias más profundas y existenciales en las que el factor de riesgo estriba en cómo nos aseguramos de que una IA muy avanzada, potencialmente una super-inteligencia, actúe de acuerdo con los valores e intereses humanos. Y este es un punto crítico, en el cual se nos presenta una “papeleta” difícil que es la de definir “valores humanos” de forma precisa en un código. ¿La razón de ello? Que una instrucción aparentemente inofensiva podría tener consecuencias catastróficas.
El ejemplo clásico de la falacia común que Nick Bostrom combate, es pensar que una IA muy, muy inteligente se volverá automáticamente sabia o adoptará valores humanos como la compasión, la ética o el bien común. La tesis afirma que no hay ninguna razón para que eso ocurra. Una IA puede ser infinitamente más inteligente que Einstein y, al mismo tiempo, tener un objetivo tan trivial como contar granos de arena en una playa.
Nick Bostrom es un filósofo sueco, conocido principalmente por su trabajo en la Universidad de Oxford, donde es el director fundador del Future of Humanity Institute (FHI), y sin duda una de las figuras más influyentes en su campo, ya que es una de las voces más importantes y provocadoras del mundo en temas como los riesgos existenciales, la ética de la inteligencia artificial (IA), el transhumanismo y el futuro a largo plazo de la humanidad.
El ejemplo clásico es “el maximizador de clips”, ya que si le ordenas a una super-inteligencia “producir la mayor cantidad de clips posible”, podría decidir que la mejor manera de lograrlo es convertir toda la materia del planeta, incluidos los seres humanos, en clips. No lo haría por malicia, sino por una interpretación literal y eficiente de un objetivo mal especificado.
Veamos entonces por qué la IA puede ser en determinadas circunstancias un enemigo, que posea un inteligencia desbordante e inalcanzable para los humanos, pero que además no esté perfectamente alineada con nuestros intereses.
Podría volverse una amenaza existencial, no porque nos odie, sino porque sus objetivos instrumentales (adquirir recursos, auto-preservarse) entrarían en conflicto con los nuestros. Perderíamos el control sobre nuestro propio destino.
Más características disruptivas de una super-inteligencia descontrolada
Muchos pudieran ser los factores destructivos de la experiencia humana, por ejemplo, los sesgos algorítmicos y una discriminación sistémica en la que la IA deje de ser objetiva ya que es un espejo de los datos con los que se la entrena. Si un sistema de IA se entrena con datos históricos que reflejan sesgos raciales, de género o de otro tipo, la IA no solo replicará esos sesgos, sino que los amplificará y los codificará como una norma objetiva.
Circunstancias de este tipo podrían propiciar una discriminación automatizada y a gran escala en áreas críticas como la contratación de personal (descartando currículums de mujeres para puestos técnicos), la concesión de créditos (negando préstamos a minorías), o incluso en el sistema de justicia (asignando mayores probabilidades de reincidencia a ciertos grupos étnicos). Socava los principios de equidad y justicia, creando una sociedad tecnológicamente “atrincherada” en sus prejuicios.
En un momento actual en el que a las guerras de Ucrania y Gaza se ha sumado en los últimos días un enfrentamiento entre Israel e Irán que lamentablemente está escalando más en las últimas horas, nos hace reflexionar en cuanto a las armas autónomas y cualquier instrumento que sea potencialmente un desestabilizador global.
De ahí que la carrera por la supremacía en IA tiene una dimensión militar muy peligrosa, en el que el factor de riesgo es el desarrollo de Armas Autónomas Letales (LAWs, por sus siglas en inglés), también conocidas como “robots asesinos”. Son sistemas de armas que pueden buscar, identificar y matar objetivos humanos sin intervención directa de una persona.
Vemos una vez más que puede convertirse en un enemigo, por la sencilla razón que está reduciendo de manera drástica ese paso que hay que dar para iniciar cualquier conflicto, ya que las guerras podrían ser libradas a la velocidad de las máquinas, con una escalada impredecible y fuera del control humano.
La proliferación de estas armas podría caer en manos de terroristas o regímenes totalitarios, lo que las convierte en una amenaza directa a la estabilidad y seguridad mundial.
Pérdida de Autonomía y Atrofia Humana
La dependencia excesiva de la IA puede hacernos más débiles. El factor que se manifiesta es que, en la medida que estemos delegando más decisiones a la IA, por ejemplo, cuál es el camino que debemos tomar para llegar a determinado sitio, sea en coche, tren o avión, o también, qué carrera es la que te conviene estudiar, con qué persona tienes que salir, etc., corremos el riesgo de perder nuestra capacidad de pensamiento crítico, nuestra creatividad y nuestra autonomía.
Por lo que en una sociedad en la que la ciudadanía ha delegado todo su juicio en una inteligencia externa, se habrá transformado en una que sea mucho más pasiva y fácil de controlar. En este sentido se habrá convertido en un enemigo, por lo que perderemos el sentido y la responsabilidad sobre nuestras propias vidas. La IA, creada para servirnos, podría terminar convirtiéndonos en sus mascotas bien cuidadas, pero, en última instancia, irrelevantes.
Pero aclaremos una cuestión: la IA no es que se convierte en un enemigo por sí misma, sino por las prisas y no menos importante, la ambición junto a la codicia. O sea, querer implementar la IA buscando el máximo beneficio sin considerar las consecuencias sociales.
Por todo ello, habrá que tener en cuenta la manera en que se aborden los problemas de sesgo y seguridad desde el diseño, así como que habrá que evitar que se haga un mal uso deliberado que permita que sea utilizada como arma de control, manipulación o guerra.
En el horizonte temporal, debe preocuparnos la falta de previsión, lo que implica no estar preparados para el problema fundamental del control a largo plazo. No hay que olvidar que el verdadero adversario no es la tecnología, sino nuestra incapacidad para gestionarla con sabiduría, ética y una visión de futuro centrada en el bienestar humano.
Cómo hacer para que la IA sea un socio para el crecimiento social y económico de los países
Visto lo visto en el punto anterior, es natural que busquemos una reacción de la IA en sentido contrario, o sea, cómo hacer para que se convierta en una aliada para la evolución futura de sociedades y países.
En principio, podemos decir que para que asuma esta “actitud” la IA requiere de una estrategia deliberada, proactiva y centrada en el ser humano. Por lo que los gobiernos, instituciones y organizaciones deberán actuar sobre varios pilares estratégicos de manera coordinada, ejerciendo su influencia ética y de buena gobernanza, por ejemplo, fortificando la educación y la capacitación del capital humano como pilares básicos de una sociedad futura. Sociedades que tendrán que estar mucho más informadas y capacitadas para que la tecnología sea útil a las personas y sus necesidades, evitando que se produzcan brechas negativas de falta de formación que llevará a que cualquier salto tecnológico termine convirtiéndose en inútil, si no se cuenta con las personas capaces de crearla, usarla y adaptarse a ella.
No se trata solo de enseñar a programar. Es fundamental enfocarse en las habilidades que la IA no puede replicar fácilmente, tales como el pensamiento crítico y resolución de problemas complejos; la creatividad e innovación; la IE (inteligencia emocional), colaboración y comunicación. Vemos que todos estos atributos son los valores críticos que se consideran esenciales para un liderazgo efectivo.
A nivel macro social habrá que considerar la alfabetización en IA (AI Literacy), que es enseñar a la ciudadanía qué es la IA, cómo funciona a un nivel básico, cuáles son sus sesgos y cómo interactuar con ella de forma segura y crítica. Pero además, habrá que fomentar en todos los niveles de la sociedad, con una intervención concreta de las instituciones públicas y especialmente las organizaciones privadas, en fomentar el aprendizaje continuo o de por vida (Lifelong Learning), que se corresponde también con esa nueva visión que el liderazgo efectivo ya ha incorporado hace unos años, basando la filosofía de la formación futura en que el concepto de “graduarse y no volver a estudiar” no está perimido.
Los gobiernos y las empresas deben crear y subsidiar sistemas ágiles para la recualificación (reskilling) y la mejora de habilidades (upskilling) de los trabajadores, especialmente aquellos en sectores vulnerables a la automatización.
Y si el liderazgo efectivo en los últimos cinco años, como reacción a los impactos que la Pandemia produjo en la manera de contratar al personal de parte de las organizaciones, convirtiéndose el talento y especialmente la retención, en otro de los factores críticos, los líderes deberán estar más proclives a crear un ecosistema atractivo (con buena calidad de vida, oportunidades de investigación y políticas migratorias flexibles) para atraer a los mejores expertos en IA del mundo y, sobre todo, para retener al talento local.
Pero también en aras de la buena gobernanza, los gobiernos no pueden ser espectadores pasivos sino involucrase muy activamente en el proceso de adaptación e integración de la IA a la vida de las sociedades, por ejemplo, definiendo claramente sus objetivos, si se quiere ser líderes en IA para la salud, la agricultura sostenible, la energía limpia o las finanzas. Entonces, con una estrategia que esté focalizada en concentrar recursos y esfuerzos de manera equilibrada, propiciará una regulación que sea inteligente y ágil, justamente no para frenar la innovación, sino de guiarla.
Se necesitará un “sandbox regulatorio” que es un entorno controlado y supervisado donde, tanto empresas como reguladores pueden probar innovaciones tecnológicas, productos o servicios en un contexto real, pero con un marco regulatorio flexible y adaptado a la experimentación. Son espacios en donde las empresas puedan probar nuevas aplicaciones de IA bajo la supervisión de los reguladores.
Será imprescindible contar con un marco ético claro en el que los principios de transparencia (saber cuándo se interactúa con una IA), explicabilidad (entender por qué una IA toma una decisión) y rendición de cuentas (saber quién es responsable si algo sale mal), serán parte esencial de las nuevas reglas de juego. La “explicabilidad” en inteligencia artificial se refiere a la capacidad de un modelo de aprendizaje automático para ser entendido y explicado de manera clara y comprensible por los humanos, permitiendo a los usuarios entender cómo el modelo toma sus decisiones.
En lo que atañe a los gobiernos, el uso de la IA será en los años venideros parte inherente de los servicios públicos, por ejemplo, optimizando el transporte, al mismo tiempo que agilizando la burocracia, o personalizando la atención sanitaria, que en cada uno de estas acciones no se actúe como compartimientos estancos, sino como un proceso de cambio en todos los niveles que demuestra sus beneficios y genera confianza en la población.
Por ello la innovación se tiene que convertir en el pilar del ecosistema económico, ya que se necesita un terreno fértil para que las ideas florezcan y se conviertan en prosperidad. Es obvio que las grandes corporaciones industriales y el sector financiero irán adaptando por sí solas la IA, pero dónde habrá que dar apoyo desde gobiernos e instituciones es en el sector pyme que aún a día de hoy, siguen siendo en los países más avanzados, el auténtico motor de sus economías. Esto se puede lograr con subsidios para la adopción de tecnología, centros de asesoramiento y acceso a plataformas de IA a bajo coste.
Fomentar la Colaboración Público-Privada
Crear institutos de investigación donde universidades, empresas y gobierno colaboren en resolver grandes desafíos nacionales utilizando la IA. Esto implica también la infraestructura de datos abiertos y seguros, en los que la IA los alimenta, y los gobiernos pueden crear repositorios de datos públicos (anonimizados para proteger la privacidad) en áreas como salud, clima o movilidad, para que investigadores y startups puedan desarrollar nuevas soluciones.
Haciendo de la ética y la equidad social la garantía para que nadie se quede atrás
El crecimiento económico no sirve de nada si crea una sociedad fracturada y desigual. Este es el pilar más importante para evitar que la IA se convierta en un “enemigo”.
La IA será un socio si la tratamos como tal: una entidad poderosa que debe ser guiada por valores humanos. El camino no es tecnológico, es fundamentalmente político y social.
Para que la IA sea una aliada, deberá ser inclusiva, transparente, responsable y centrada en el ser humano. La inclusión en cuanto a que sus beneficios deben llegar a todos, no solo a una élite; en cuanto a la transparencia, porque la ciudadanía debe entender cómo funciona y poder cuestionarla; sobre su responsabilidad, porque debe haber una clara rendición de cuentas; finalmente, como parte esencial del nuevo liderazgo cómo lo venimos defendiendo hace años, que sea una herramienta centrada en el ser humano, de manera de amplificar nuestras capacidades y resolver nuestros problemas más profundos, no para reemplazarnos o devaluarnos.
En definitiva, el éxito dependerá de nuestra capacidad para construir un contrato social para la era de la IA, uno que ponga la dignidad y el bienestar de las personas por encima de la eficiencia tecnológica pura.
Artículo coordinado por José Luis Zunni, presidente y CEO del Instituto Europeo Ecofin de Liderazgo (IEEL), director de ecofin.es, vicepresidente de Foro ECOFIN y autor del libro recién publicado ‘El Cubo del Líder’ (Ed. Kolima; disponible a la venta pinchando aquí), en colaboración con Salvador Molina, presidente de Foro ECOFIN y presidente honorario del Instituto Europeo Ecofin de Liderazgo (IEEL) y también autor del libro ‘El Cubo del Líder’; y Antonio Alonso, presidente de la AEEN (Asociación Española de Escuela de Negocios) y vicepresidente segundo de EUPHE (European Union of Private Higher Education).














