Icono del sitio Blog de RISK-ACADEMY

Los gestores de riesgos, la IA los reemplazará si no...

Un estudio publicado en Annals of Oncology encontró que un algoritmo de aprendizaje profundo logró una tasa de precisión del 95% en la detección de melanoma a partir de imágenes de lesiones cutáneas, superando a un panel de 58 dermatólogos cuya precisión promedio fue del 86,6%.En otro estudio publicado en Nature, un sistema de aprendizaje profundo pudo identificar el cáncer de mama a partir de mamografías con mayor precisión que los radiólogos. El sistema de IA demostró una reducción del 1,2% (conjunto del Reino Unido) y del 5,7% (conjunto de EE.UU.) en falsos positivos, y del 2,7% (conjunto del Reino Unido) y del 9,4% (conjunto de EE.UU.) en falsos negativos. La investigación en la revista JAMA Network Open demostró que un algoritmo de IA fue capaz de diagnosticar metástasis en ganglios linfáticos en pacientes con cáncer de mama con una precisión del 99,5%. Esto superó el 96,9 % de precisión demostrado por los patólogos humanos. La investigación realizada por Siemens en 2019 demostró que las herramientas de mantenimiento predictivo impulsadas por IA podían predecir fallos en el equipo con hasta un 30% más de precisión que el personal de mantenimiento experimentado. Y según un estudio de 2021 de J.P. Morgan, los modelos de inteligencia artificial y aprendizaje automático redujeron los errores de predicción de incumplimiento en aproximadamente un 25% en comparación con los modelos estadísticos tradicionales.

Y sin embargo, cada vez que yo o uno de los miembros de mi equipo hacemos un seminario web sobre el uso de la IA para la gestión de riesgos, la única pregunta que la gente hace es "qué tan precisa es la IA". Cada maldito vez.

Así que déjame compartir una historia. En mis últimos 5 cargos como Jefe de Riesgos, tuve acceso tanto a un equipo de profesionales en riesgos cuantitativos de clase mundial como a diferentes modelos de IA, incluyendo los desarrollados internamente. Y sabes qué, he dedicado mucho más tiempo a verificar, revisar, corregir y validar los entregables de mi equipo de riesgo humano que el que dedico ahora a verificar RAW@IA entregables. Lo que solía tomar semanas a mi equipo hacer, ahora puede ser realizado por IA + Python en horas.

La IA no tiene que ser siempre correcta, solo tiene que ser menos incorrecta que los humanos

En mi opinión, para que la IA sea adoptada universalmente por los profesionales de riesgos, no necesita ser perfecta; solo necesita ser mejor que los humanos en cometer menos errores. Esto es algo que Douglas Hubbard llama la falacia de "vencer al oso". Imagina dos campistas enfrentados a un oso; no es necesario que el campista más rápido huya del oso para sobrevivir, solo necesita correr más rápido que el otro campista. De manera similar, la IA no tiene que ser perfecta; solo necesita superar las tasas de error humanas y la velocidad de análisis.

Los humanos son excelentes en muchas cosas, pero podemos cansarnos, pasar por alto detalles, tener puntos ciegos a ciertos riesgos y todos tenemos nuestros sesgos. Algunos gestores de riesgos provienen del ámbito de la contabilidad y tienen poca comprensión de las matemáticas del riesgo. Todas estas limitaciones hacen que los gestores de riesgos sean menos efectivos, especialmente al tratar con la teoría de la probabilidad, riesgos complejos e interrelacionados y decisiones. La IA, por otro lado, puede manejar conjuntos de datos enormes, grandes volúmenes de texto y cálculos complejos sin cansarse ni volverse demasiado sesgada. La IA todavía comete errores. Esa no es la pregunta. ¿Comete menos o más errores que una alternativa? Esa es la pregunta correcta.

Mi RAW@IA, por ejemplo, puede superar consistentemente a la mayoría de los consultores de riesgos de las Cuatro Grandes y a los gerentes de riesgos RM1. Pruébalo.

Cuantos más datos tengas, más la IA supera a los humanos

Los grandes volúmenes de datos son lo que le otorga a la IA su superpoder en gestión de riesgos. A diferencia de los humanos, la IA puede revisar rápidamente grandes cantidades tanto de datos estructurados (registros de riesgos, hojas de cálculo y bases de datos) como de datos no estructurados (informes de riesgos, transcripciones de entrevistas, informes anuales y artículos de investigación). Esta habilidad permite a la IA recopilar una visión amplia y actualizada de los riesgos potenciales y cuantificar la mayoría de los riesgos en el planeta. La mayoría de los gestores de riesgos, por supuesto, pueden hacer lo mismo, pero les tomará 10 veces más tiempo para lograr un nivel de calidad comparable.

El cerebro humano es increíblemente hábil para reconocer patrones familiares, pero le cuesta lidiar con la complejidad y sutileza de los patrones que se encuentran en el panorama de riesgos probabilísticos de hoy en día. La IA, por otro lado, destaca en encontrar relaciones complejas y no lineales dentro de conjuntos de datos masivos (destilar grandes textos en puntos clave, no tanto, pero es solo cuestión de tiempo).Esto puede revelar conexiones ocultas entre eventos o puntos de datos aparentemente dispares, destacando riesgos que de otro modo pasarían desapercibidos hasta que sea demasiado tarde. Según un informe de 2022 de IBM, los sistemas de IA detectaron y respondieron a las brechas de seguridad en un promedio de un 40 % más rápido que los equipos liderados por humanos.

Ya no necesitas un doctorado en matemáticas para hacer análisis de riesgo cuantitativo

En el pasado, cada vez que me unía a una empresa, me costaba encontrar quants que entendieran la gestión de riesgos y fueran capaces de pensar de manera abstracta para integrarlo en la toma de decisiones. Si alguna vez intentaste contratar a un cuant para gestión de riesgos, sabes a qué me refiero.

Bueno, la IA está cambiando las reglas del juego. Los modelos de IA con acceso al entorno de Python están poniendo herramientas cuantitativas poderosas al alcance de un mayor número de profesionales. Los modelos de IA se encargan de las matemáticas complejas, permitiendo que los gestores de riesgos se concentren en potenciar la toma de riesgos y en integrar el análisis de riesgos en la toma de decisiones. Así como las calculadoras hicieron accesibles a todos los cálculos complejos, la IA y SIPmath están haciendo lo mismo para la modelización de riesgos. No necesitas entender el funcionamiento interno de una calculadora para obtener la respuesta, y ya no necesitas ser un genio de las matemáticas para realizar análisis de riesgos sofisticados.

Aún necesitas poder verificar los cálculos, porque los errores de cálculo son frecuentes. ¿Pero sabes qué es aún más frecuente? Errores de cálculo por parte de los gestores de riesgos humanos. Mucho más frecuente :)) La pregunta no es si la IA transformará la gestión de riesgos. Es si mejorará sus habilidades lo suficientemente rápido para utilizar IA y guiar sus ideas, o su equipo será. reemplazado por la siguiente versión de RAW@IA.

Aprende cómo comenzar a usar modelos de IA en tu departamento de riesgos en #RAW2024.

Douglas Hubbard popularizó otro término: "aversión a los algoritmos". Describe el fenómeno en el que las personas prefieren el juicio humano sobre las soluciones algorítmicas o generadas por máquinas, incluso cuando el algoritmo funciona mejor o igual de bien. Esta aversión a menudo persiste incluso después de que la persona ha experimentado el rendimiento superior del algoritmo, generalmente debido a sesgos o falta de confianza en los sistemas automatizados. Solo mira algunos de los estudios sobre la aversión a los algoritmos, no es algo nuevo:

  1. Dietvorst, B. J., Simmons, J. P., y Massey, C. (2015). aversión a los algoritmos: las personas evitan erróneamente los algoritmos después de ver que cometen errores. Publicado en el Journal of Experimental Psychology: General, este estudio es una de las investigaciones fundamentales sobre la aversión a los algoritmos. Demonstró que las personas son menos propensas a usar un algoritmo después de verlo actuar de manera imperfecta, a pesar de que el algoritmo supera a los humanos en promedio.
  2. Logg, J. M., Minson, J. A., y Moore, D. A. (2019). Apreciación de algoritmos: las personas prefieren el juicio algorítmico al humano. Publicado en Organizational Behavior and Human Decision Processes, este estudio ofreció un contrapunto a los hallazgos típicos de la aversión a los algoritmos, sugiriendo que bajo ciertas condiciones, las personas podrían preferir o valorar más el consejo algorítmico que el consejo humano.
  3. Onkal, D., Goodwin, P., Thomson, M., Gönül, S., & Pollock, A. (2009). La influencia relativa del consejo de expertos humanos y de los métodos estadísticos en los ajustes de pronóstico. Este estudio en el Journal of Behavioral Decision Making exploró cómo los profesionales ajustan sus pronósticos en función del consejo de métodos estadísticos en comparación con expertos humanos, destacando un sesgo hacia el consejo humano incluso cuando se sabe que los métodos estadísticos son más precisos.
  4. Prahl, A., y van Swol, L. M. (2017). Comprendiendo la aversión a los algoritmos: ¿Cuándo se desestima el consejo de la automatización? Este artículo en el Journal of Forecasting analiza las condiciones bajo las cuales las personas pueden o no seguir consejos automatizados, identificando factores que pueden influir en la aceptación de la entrada algorítmica.
  5. Burton, J. W., Stein, M-K., y Jensen, T. B. (2020). Una revisión sistemática de la aversión a los algoritmos en la toma de decisiones aumentada. Esta revisión, publicada en el Journal of Behavioral Decision Making, consolida varios estudios sobre la aversión a los algoritmos, proporcionando una visión general completa de cómo y cuándo ocurre la aversión a los algoritmos en los procesos de toma de decisiones que involucran automatización.

Limitaciones importantes

 

Salir de la versión móvil