Entrevista a BERKELEY J. DIETVORST. Cuando la gente no confía en los algoritmos

Entrevistas

Entrevista a BERKELEY J. DIETVORST. Cuando la gente no confía en los algoritmos Entrevista a BERKELEY J. DIETVORST. Cuando la gente no confía en los algoritmos

PM

Paul Michelman

Business Review (Núm. 273) · Estrategia
Management & Innovation (Núm. 8) · Estrategia

El profesor de la Universidad de Chicago Berkeley J. Dietvorst explica por qué no podemos dejar de lado el juicio humano (en nuestro propio detrimento…). Incluso cuando nos encontramos frente a la demostración de que un algoritmo arroja mejores resultados que el juicio humano, siempre elegimos seguir los criterios de nuestra propia mente. ¿Por qué?

¿Qué le motivó a investigar la aceptación (o la falta de aceptación) de los algoritmos en la toma de decisiones de la gente?

Cuando estaba doctorándome, algunos de mis artículos académicos favoritos eran viejos trabajos de Robyn Dawes (el desaparecido investigador en psicología y experto en investigación de decisiones de comportamiento), que muestran que los algoritmos superan a los humanos expertos al realizar ciertos tipos de predicciones. Los algoritmos que Dawes estaba usando eran muy simples, y muchas veces ni siquiera estaban calibrados adecuadamente. Muchos otros siguieron el trabajo de Dawes, y mostraron que los algoritmos superan a los humanos en muchos terrenos (de hecho, en la mayoría de los terrenos en los que se han hecho estudios). Tenemos todo este trabajo empírico que demuestra que los algoritmos son la mejor alternativa, pero la gente todavía no los usa.

Entonces tenemos esta desconexión entre lo que la evidencia dice que debería hacer la gente y lo que la gente está haciendo en realidad, y nadie estaba investigando por qué.

¿Puede poner un ejemplo de estos algoritmos simples que ya demostraban ser superiores?

Una de las áreas se dedicaba a predecir el rendimiento de los estudiantes durante una prueba de admisión. Dawes construyó un modelo simple: tomaba cuatro o cinco variables –el promedio de calificaciones, puntuación de exámenes, etc.–, les asignaba un mismo peso, sacaba un promedio en una escala numérica y usaba ese resultado como su predicción sobre la posición en la que se situarían los estudiantes entre sí en el rendimiento final real. Ese modelo –que ni siquiera intenta determinar el valor relativo de las diferentes variables– ya supera significativamente a los expertos en admisiones para predecir el rendimiento de un alumno.

¿Cuáles fueron los experimentos que realizó usted para dar con los motivos por los que nos resistimos a los algoritmos?

Realizamos tres tipos de experimentos. En el primero de ellos, el trabajo de los participantes era completar una tarea de predicción, y se les incentivó para obtener un buen resultado. Cuanto mejor fuera el resultado, más dinero ganarían en cada experimento. Hubo dos etapas: primero una ronda de ensayo –tanto para los humanos como para los algoritmos– y luego la fase en la que se pagaba a los participantes en función de la calidad de sus resultados.

...


Paul Michelman

·

Director de MIT Sloan Management Review.