La manera como este minorista global aborda la ética de la IA tiene en cuenta que los protocolos formales tienen sus limitaciones. Los directivos se centran en fortalecer la brújula moral de todos los implicados para que se tomen buenas decisiones, a base de tener muchas conversaciones.
Caso Lecciones del Grupo H&M sobre la estrategia ética de la IA
Casos prácticos


Business Review (Núm. 358) · TIC · Septiembre 2025
La inteligencia artificial cambia la manera de trabajar de las organizaciones, y ese es uno de los motivos por los que pone a prueba nuestra ética: ¿quién tiene que asumir la responsabilidad de las decisiones y acciones automatizadas? ¿Qué grado de agencia deben tener los algoritmos? ¿Cómo debemos organizar las interacciones entre las mentes y las máquinas? ¿Cómo afecta esta tecnología a los empleados? ¿Qué sesgos han sido integrados en el sistema?
Las empresas, los reguladores y los responsables políticos buscan principios éticos sólidos que les ayuden a navegar por estos laberintos morales. Siguen lo que parece una estrategia lógica: primero, identificar valores universales (como la transparencia, la equidad, la autonomía humana o la explicabilidad); a continuación, definir las aplicaciones de esos valores (como la toma de decisiones o los procesos de contratación asistidos por IA), y por último, formalizarlos en códigos de conducta. La idea es que los códigos de conducta para la IA prevalezcan sobre el código informático de la IA.
Pero tal vez este planteamiento lineal sea demasiado simplista. El filósofo alemán de la tecnología Günther Anders advirtió acerca de la “brecha prometeica” que se abre entre nuestro poder para imaginar e inventar nuevas tecnologías y nuestra capacidad ética para entender y gestionar esas tecnologías1. En el caso de la IA, la brecha prometeica se ensancha hasta convertirse en un abismo. Los rápidos avances y las disrupciones que conlleva la IA se adelantan a las deliberaciones éticas acerca de las reglas que deberían regir su aplicación.
Una ética estática y basada en reglas no puede seguir el ritmo de las tecnologías de la IA, que cambian rápidamente, porque estas ponen en entredicho los fundamentos mismos de nuestros valores y de la propia humanidad, según los autores de un informe del Edmond & Lily Safra Center for Ethics de la Universidad de Harvard2. Estos autores sugieren que una “ética de la experimentación” (en vez de un planteamiento basado en reglas) es el “único tipo de marco que puede ser considerado viable dadas las realidades del momento”. Para las organizaciones que utilizan la IA, esto plantea el interrogante de cómo puede funcionar en la práctica una “ética de la experimentación de la IA”. ¿Y cómo pueden las empresas salvar la brecha prometeica entre la imaginación moral y el poder tecnológico de la IA?
Para obtener respuestas pragmáticas y realistas, nos...
Martin Kornberger
Profesor de Ética en la Universidad de Economía y Empresa de Viena, profesor invitado en la Escuela Noruega de Economía y profesor asociado en la Escuela de Negocios UNSW de Australia ·
Elmira van den Broek
Profesora adjunta en la Escuela de Economía de Estocolmo e investigadora afiliada al Programa Wallenberg de Inteligencia Artificial, Sistemas Autónomos y Software - Humanidad y Sociedad (WASP-HS) en Suecia ·
Stephan Leixnering
Subdirector del Instituto de Investigación sobre Gestión Urbana y Gobernanza de la Universidad de Economía y Empresa de Viena ·
Artículos relacionados
La empresa y la 'Web 2.0'
ED