22 abril, 2025
“Preventing algorithm aversion: People are willing to use algorithms with a Learning label” es el nombre de la investigación del profesor Edgar Kausel, Director de Acreditación Internacional de la Facultad de Economía y Administración UC, y sus coautores que aborda el fenómeno conocido como “aversión a los algoritmos, y se refiere a la tendencia de las personas a desconfiar o dejar de usar sistemas algorítmicos cuando cometen errores, incluso más que si esos errores provinieran de un ser humano. Nos interesaba estudiar cómo es posible mitigar esta aversión al algoritmo, un fenómeno que puede limitar seriamente el uso de tecnologías útiles en áreas clave como la salud, las finanzas o la educación”.
Edgar Kausel
Añade que, específicamente, querían ver “si etiquetar al algoritmo como un sistema que “aprende” podía hacer que las personas lo percibieran de manera más positiva y estuvieran más dispuestas a seguir usándolo, aun después de que haya cometido un error. La idea es que si uno utiliza un término que las personas asocian (correctamente) con un sistema en constante mejora —como “aprendizaje”—, aumenta la probabilidad de que le den una segunda oportunidad en lugar de descartarlo de inmediato”.
Respecto a sus resultados, el académico destaca: “En sectores como salud o finanzas, donde la confianza es clave, esto tiene implicancias prácticas importantes. Por ejemplo, si una aplicación financiera comete un error al recomendar una inversión, el usuario podría abandonarla de inmediato. Pero si se comunica de antemano que el sistema aprende con el tiempo, es más probable que la persona le dé otra oportunidad. En salud, donde los algoritmos están ayudando a diagnosticar o priorizar casos, mostrar que esos sistemas aprenden puede ayudar a que médicos y pacientes los integren mejor en sus decisiones”.
Según Kausel, “las organizaciones pueden aplicar estos hallazgos siendo más transparentes en cómo comunican el funcionamiento de sus algoritmos. No se trata solo de explicar que hay un algoritmo detrás, sino de decir explícitamente que ese algoritmo está aprendiendo y mejorando con la experiencia. Eso puede hacer una gran diferencia en la forma en que los usuarios lo perciben y se relacionan con él”.
Agrega que entre los sectores especialmente beneficiados “esto es especialmente útil en contextos donde la relación con el usuario es continua y el algoritmo tiene margen para mejorar con el tiempo: salud, educación personalizada, servicios financieros, e incluso plataformas de contrataciones. En todos esos casos, un error inicial puede generar rechazo, pero si la persona cree que el sistema va a mejorar, hay más disposición a seguir usándolo”.
También expresa que “esta investigación la comenzamos justo cuando los modelos de lenguaje como ChatGPT recién estaban empezando a popularizarse. Desde entonces, la presencia de estos sistemas en la vida cotidiana se ha vuelto mucho más visible, lo que abre nuevas preguntas. Sería interesante revisar estos hallazgos en este nuevo contexto, donde las personas interactúan de forma más directa, frecuente y diversa con sistemas que aprenden, se ajustan y responden de forma aparentemente “inteligente”…”
Asimismo, reconoce que también hay otras variables como “por ejemplo, ¿cuánto debe demostrar un algoritmo que está aprendiendo para que las personas realmente confíen en él? También nos interesa entender si ciertos tipos de usuarios —según su experiencia, edad o área de trabajo— responden de manera distinta a este tipo de etiquetas”.