¿Tiene ética la inteligencia artificial?

¿Tiene ética la inteligencia artificial? ¿Tiene ética la inteligencia artificial?

MG

Manel Guerris

Management & Innovation (Núm. 58) · TIC

Cada vez se habla más del papel de la inteligencia artificial, las máquinas, los robots y su creciente ritmo de incorporación a las empresas y a la sociedad. ¿Qué posibilidades de desarrollo que se abren con la inteligencia artificial? ¿Qué retos éticos plantea el nuevo escenario, dónde están los límites y cómo regularlos?

La inteligencia artificial (IA) en sus diversas categorías está cada vez más presente, directa o indirectamente, en nuestras vidas. Amazon, Google, Facebook, Tesla y Wall-Mart, por nombrar algunas empresas, o Trump y Obama, por citar algunos personajes, son ejemplos conocidos en los que la IA ha sido y es fuente de competitividad y diferenciación.

Encontramos aplicaciones de la IA en multitud de sectores. Algunas de las más curiosas son la empresa que predice localmente el tiempo, el cual está correlacionado con la mayor o menor venta de pinturas de interiores, o la que con la cámara del móvil y una app permite detectar las emociones de las personas y su intensidad a través del análisis de las expresiones faciales. También la que es capaz de predecir si una canción musical será un hit o la que es capaz de predecir la condena de un acusado en función de sus características personales y del delito que ha cometido, o incluso la que es capaz de detectar si un sonido estridente en la ciudad es debido a un disparo por arma de fuego, así como el número y el tipo de arma.

No obstante, la mayoría de aplicaciones de la IA se basan en encontrar modelos más o menos complejos subyacentes en los datos. Algo que, hasta hace unas décadas, debido a la insuficiencia de datos, la baja potencia computacional disponible y el coste elevado de la tecnología, eran solo proyectos de laboratorio desarrollados en universidades y centros tecnológicos. Generalmente, estos modelos se calculan en base a muchísimos casos etiquetados, en los que de cada caso tenemos sus inputs, o dimensiones, y outputs, o etiquetas. Por ejemplo, que el coche autónomo sea capaz de frenar cuando detecta la imagen y el color de un semáforo depende de un modelo que se ha construido a base del aprendizaje con muchísimos casos y situaciones en los que aparecía un semáforo en rojo. Los inputs son las imágenes y sus características, y los outputs son el semáforo y su color.

Y no solo en rojo, también en verde, en amarillo y sin color, y en condiciones lumínicas diversas, tanto favorables como desfavorables, de forma que el modelo es capaz de discernir cada uno de los colores en muchísimas situaciones diferentes. Pero todo esto no deja de ser más que una evolución en la utilización de técnicas matemáticas que aportan valor en cuanto a si existe y se descubre un modelo, porque nadie garantiza que realmente existan modelos en todos los datos. Así pues, no deja de ser una evoluc...


Manel Guerris

·

Profesor del Departamento de Márketing, Operaciones y Supply en EADA Business School

expand_less