11 diciembre, 2023
¿Qué objetivo persigue este paper?
Esto es una revisión sistemática de investigaciones previas que tienen relación con cómo los seres humanos usamos o no algoritmos como apoyo a distintas tareas. En este contexto hay un fenómeno comportamental llamado “aversión al algoritmo” en el que las personas muestran desconfianza o reticencia a seguir los “consejos” o decisiones dadas por algoritmos o sistemas de inteligencia artificial, especialmente en comparación con los consejos o decisiones humanas. En otras palabras, en iguales condiciones, la gente prefiere consejos de personas que de algoritmos. De esta forma, nuestra idea era examinar la literatura de manera sistemática, teniendo en cuenta hasta qué punto se encuentra aversión al algoritmo y también poniendo énfasis en el rol de las tareas para que se dé o no este fenómeno.
Entiendo que parte de las conclusiones muestran que hay un “75% de aversión” al algoritmo en tareas. ¿Cómo se podría explicar esta “desconfianza”?
Sí, de las 122 tareas revisadas (incluidos 44 papers), en el 75% se encontró evidencia de aversión al algoritmo. Hay varias razones de por qué se da esta aversión. Para algunas personas esto de los algoritmos es extraño o una “caja negra”, lo que especialmente en algunos tipos de tareas genera rechazo. Para otras personas la idea de “inteligencia artificial” o términos parecidos generan una alta expectativa de que las predicciones de un algoritmo son infalibles, por lo que al ver que cometen algún error, suelen perder rápidamente la confianza de que puedan hacer buenas predicciones (lo que ocurre bastante menos cuando las predicciones erradas vienen de personas). Para otros, un algoritmo no puede aprender, a diferencia de un humano, por lo que si hay algún error piensan que se repetirá con más frecuencia de si el mismo error viene de una persona. Y otras personas, especialmente en contextos laborales, sienten miedo de que los algoritmos los pueden reemplazar, por lo que, de una forma casi inconsciente, los rechazan.
Y en ese sentido, ¿hay algún tipo de tareas en que haya más aversión? O por el contrario, ¿hay espacios en donde haya más confianza por parte de los usuarios?
Un tema que analizamos es si había menos aversión al algoritmo para tareas más numéricas u “objetivas” (o “poco subjetivas”). Por ejemplo, una hipótesis podría ser que para tareas como predicción de valor de acciones, la gente tomara más en cuenta las recomendaciones de algoritmos que para tareas como selección de personas para trabajar en una empresa. No encontramos evidencia que apoye a esta hipótesis, al menos en los estudios que analizamos.
¿Cuál fue la metodología utilizada?
Esta investigación es distinta a otras, en el sentido de que es una “revisión sistemática de la literatura”. Este es un método sistemático para recopilar y analizar toda la literatura relevante sobre un tema específico o pregunta de investigación. En base a esto encontramos 44 investigaciones, con 122 tareas, y un total de 89.751 participantes en esos estudios.
En el abstract señalas que hay recomendaciones sobre la aceptación de algoritmos, ¿cuáles son las 3, por ejemplo, que te gustaría señalar y por qué?
Lo primero es aumentar la transparencia sobre los algoritmos: explicar claramente cómo funcionan los algoritmos para construir confianza. Lo segundo es demostrar efectividad de algoritmos: mostrar evidencia de su efectividad, pero tampoco exagerando sus capacidades con el fin de superar la desconfianza. Por último, involucrar a usuarios permitiría que los usuarios participen en el diseño y mejora de los algoritmos para aumentar su aceptación. Para evitar la aversión de algoritmos se recomienda aumentar la transparencia, comunicar claramente (y realistamente) su efectividad, y en lo posible involucrar a usuarios para ir mejorándolos.