¿Dónde poner el límite a la ia?

Advertorial

¿Dónde poner el límite a la ia? ¿Dónde poner el límite a la ia?

JG

Jorge González Carrera

Business Review (Núm. 316) · TIC

La inteligencia artificial (IA) es, sin duda, una de las grandes megatrends del mercado tecnológico. En España, el Gobierno maneja previsiones de inversión pública (Gobierno central junto a fondos europeos) y privada por valor de más de dos mil millones de euros. Con dicha inversión, se espera un multiplicador de riqueza directa y un crecimiento de más de tres mil millones en el PIB. Al mismo tiempo, se espera que se creen más de dieciséis mil puestos de trabajo vinculados a todos estos desarrollos tecnológicos.

Europa es el continente más preocupado y más avanzado en la ética aplicada a la IA y también el más concienciado para ello. Esto coloca claramente a Europa en una situación de desventaja competitiva frente a China, donde la IA está mucho más avanzada y donde no se presta atención a estos aspectos que “lastran” el desarrollo de la tecnología en Europa y, en menos medida, en EE. UU. En Europa están surgiendo asociaciones sin ánimo de lucro o actividades empresariales destinadas a auditar la calidad ética de los algoritmos.

Existen bastantes diferencias en la forma de tratar la tecnología y de establecer prioridades. Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC, lleva años sosteniendo que hay tres enfoques en la IA. China tiene el foco en demostrar al mundo su liderazgo y mostrar que no solo tiene el control económico, sino tecnológico. Por el contrario, EE. UU. tiene el foco pleno en hacer del uso de la IA un dinamizador económico que permita mejorar la rentabilidad, y Europa juega un papel clave en todo esto para regular el sector de una forma sostenible, según opinión del experto.

Ante el planteamiento de algunos dilemas es muy difícil responder; ¿dónde ponemos el límite? Por ejemplo, la aplicación de la IA y el Big Data en el sector salud hace que podamos tener una mejora sobre la calidad de las decisiones médicas que se toman, una mejor prevención y potenciales mejores diagnósticos. Ahora bien, ¿estamos preparados para que un algoritmo “decida” si se han de invertir recursos públicos en operar a unas personas con una enfermedad grave? ¿Está esto dentro de los límites razonables? ¿Es ético y jurídicamente admisible que, con los datos médicos, se creen perfiles y patrones sobre los enfermos y se usen para determinar dónde invertir de forma más eficiente en salud?

Hay decisiones aparentemente positivas según el criterio a emplear, pero pueden ser nefastas por la no aplicación de inteligencia humana o valores morales. Este es un ejemplo claro: ante una persona enferma que tiene tres órganos que donar y que salvarían tres vidas, ¿cuál sería la decisión correcta? Son cuestiones sencillas si aplicamos criterios morales, pero algoritmos sin sentimientos y sin valores pueden perfectamente ver otras decisiones como óptimas o aprender otros caminos más eficientes de forma global.

Otro caso puede ser la concesión de un crédito o una subvención basada en IA que no evite sesgos por sexo, raza, religión o ideología fundamentados en la información que recogen algoritmos en redes sociales. ¿Se imaginan?

El desarrollo de esta tecnología cognitiva es, sin lugar a dudas, una de las esperanzas de generación de empleo, eficiencia empresarial y bienestar en la sociedad, pero, para que se pueda entrar en este círculo virtuoso, es muy importante que se puedan resolver problemas de carácter ético y moral. Es necesario que tengamos una regulación que proteja los derechos de los ciudadanos y consumidores, y que se tengan criterios globales, a nivel del mercado, de dónde están los límites en el empleo de esta tecnología. En esta línea está avanzando la Comisión Europea, con regulación de sistemas de vigilancia o la creación de organismos reguladores que supervisen que el uso de la IA no suponga un riesgo. Este es el camino para poder garantizar un uso adecuado de toda su capacidad.

Es fundamental que se llegue a un consenso global sobre los límites de la tecnología, que se planifiquen órganos reguladores y medidas de control, que se implanten sanciones en caso de incumplimiento y que se realicen formaciones y concienciaciones a tecnólogos. Existe una necesidad creciente de concienciación sobre los límites del uso de la tecnología y su aplicabilidad. Las auditorías con equipos expertos, externos a las organizaciones, sobre la ética y legalidad en el uso de IA empiezan a ser una necesidad de mercado.

 

 

¿Dónde poner el límite a la ia?

Jorge González Carrera

Director nacional de Randstad Technologies ·