Un estudio publicado en Annals of Oncology encontró que un algoritmo de aprendizaje profundo logró una tasa de precisión del 95% en la detección de melanoma a partir de imágenes de lesiones cutáneas, superando a un panel de 58 dermatólogos cuya precisión promedio fue del 86,6%.En otro estudio publicado en Nature, un sistema de aprendizaje profundo pudo identificar el cáncer de mama a partir de mamografías con mayor precisión que los radiólogos. El AI El sistema demostró una reducción del 1,2% (conjunto del Reino Unido) y del 5,7% (conjunto de EE.UU.) en falsos positivos, y del 2,7% (conjunto del Reino Unido) y del 9,4% (conjunto de EE.UU.) en falsos negativos. La investigación en la revista JAMA Network Open demostró que un AI El algoritmo pudo diagnosticar la metástasis en los ganglios linfáticos en pacientes con cáncer de mama con una precisión del 99,5%. Esto superó el 96,9 % de precisión demostrado por los patólogos humanos. La investigación realizada por Siemens en 2019 demostró que AILas herramientas de mantenimiento predictivo impulsadas por inteligencia artificial podrían predecir fallos en el equipo con hasta un 30% más de precisión que el personal de mantenimiento experimentado. Y según un estudio de 2021 de J.P. Morgan, AI y los modelos de aprendizaje automático redujeron los errores de predicción de incumplimiento en aproximadamente un 25% en comparación con los modelos estadísticos tradicionales.
Y sin embargo, cada vez que yo o uno de los miembros de mi equipo hacemos un seminario web sobre el uso AI para gestión de riesgos, la única pregunta que la gente hace es “qué tan exacta es" AI”. Cada maldito vez.
Así que déjame compartir una historia. En mis últimos 5 cargos como Jefe de Riesgos, tuve acceso tanto a un equipo de profesionales en riesgos cuantitativos de clase mundial como a diferentes AI modelos, incluidos los desarrollados internamente. Y sabes qué, he dedicado mucho más tiempo a verificar, revisar, corregir y validar los entregables de mi equipo de riesgo humano que el que dedico ahora a verificar RAW@IA entregables. Lo que solía tomar semanas a mi equipo hacer, ahora puede ser hecho por AI + Python en horas.
AI no tiene que ser siempre correcto, solo tiene que ser menos incorrecto que los humanos
En mi mente, para AI Para ser adoptado universalmente por los profesionales de riesgos, no necesita ser perfecto; solo necesita ser mejor que los humanos en cometer menos errores. Esto es algo que Douglas Hubbard llama la falacia de "vencer al oso". Imagina dos campistas enfrentados a un oso; no es necesario que el campista más rápido huya del oso para sobrevivir, solo necesita correr más rápido que el otro campista. De manera similar, AI No tiene que ser perfecto; solo necesita superar las tasas de error humanas y la velocidad de análisis.
Los humanos son excelentes en muchas cosas, pero podemos cansarnos, pasar por alto detalles, tener puntos ciegos a ciertos riesgos y todos tenemos nuestros sesgos. Algunos gestores de riesgos provienen del ámbito de la contabilidad y tienen poca comprensión de las matemáticas del riesgo. Todas estas limitaciones hacen que los gestores de riesgos sean menos efectivos, especialmente al tratar con la teoría de la probabilidad, riesgos complejos e interrelacionados y decisiones. AI, por otro lado, puede manejar conjuntos de datos enormes, grandes volúmenes de texto y cálculos complejos sin cansarse ni estar demasiado sesgado. AI todavía comete errores. Esa no es la pregunta. ¿Comete menos o más errores que una alternativa? Esa es la pregunta correcta.
Mi RAW@IA, por ejemplo, puede superar consistentemente a la mayoría de los consultores de riesgos de las Cuatro Grandes y RM1 gestores de riesgos Pruébalo.
Cuanta más data tengas, más AI supera a los humanos
Grandes volúmenes de datos es lo que da AI su gestión de riesgos superpotencia. A diferencia de los humanos, AI puede revisar rápidamente grandes cantidades de datos tanto estructurados (registros de riesgos, hojas de cálculo y bases de datos) como no estructurados (informes de riesgos, transcripciones de entrevistas, informes anuales y artículos de investigación). Esta habilidad permite AI Obtén una visión amplia y actualizada de los riesgos potenciales y cuantifica la mayoría de los riesgos en el planeta. La mayoría de los gestores de riesgos, por supuesto, pueden hacer lo mismo, pero les tomará 10 veces más tiempo para alcanzar un nivel comparable de calidad.
El cerebro humano es increíblemente hábil para reconocer patrones familiares, pero le cuesta lidiar con la complejidad y sutileza de los patrones que se encuentran en el panorama de riesgos probabilísticos de hoy en día. AI, por otro lado, sobresale en encontrar relaciones complejas y no lineales dentro de conjuntos de datos masivos (destilar grandes textos en puntos clave, no tanto, pero es solo cuestión de tiempo).Esto puede revelar conexiones ocultas entre eventos o puntos de datos aparentemente dispares, destacando riesgos que de otro modo pasarían desapercibidos hasta que sea demasiado tarde. Según un informe de 2022 de IBM, AI los sistemas detectaron y respondieron a las brechas de seguridad en un promedio de un 40% más rápido que los equipos liderados por humanos.
Ya no necesitas un doctorado en matemáticas para hacer análisis de riesgo cuantitativo
En el pasado, cada vez que me unía a una empresa, me costaba encontrar analistas cuantitativos que entienden. gestión de riesgos y capaz de pensar de forma abstracta para integrarse en decisión haciendo. Si alguna vez has intentado contratar a un analista cuantitativo para gestión de riesgos, sabes a lo que me refiero.
Bueno, AI está cambiando el juego. AI Los modelos con acceso al entorno de Python están poniendo herramientas cuantitativas poderosas al alcance de un mayor número de profesionales. AI Los modelos se ocupan de las matemáticas complejas, permitiendo a los gestores de riesgo centrarse en empoderar la toma de riesgos y en integrar el análisis de riesgos en el decisión haciendo. Así como las calculadoras hicieron que los cálculos complejos fueran accesibles para todos, AI y SIPmath están haciendo lo mismo para la modelización de riesgos. No necesitas entender el funcionamiento interno de una calculadora para obtener la respuesta, y ya no necesitas ser un genio de las matemáticas para realizar análisis de riesgos sofisticados.
Aún necesitas poder verificar los cálculos, porque los errores de cálculo son frecuentes. ¿Pero sabes qué es aún más frecuente? Errores de cálculo por parte de los gestores de riesgos humanos. Mucho más frecuente :)) La pregunta no es si AI transformará gestión de riesgos. Es si tú mejorará sus habilidades lo suficientemente rápido para utilizar AI y guiar sus ideas, o su equipo será. reemplazado por la siguiente versión de RAW@IA.
Aprende cómo comenzar a usar modelos de IA en tu departamento de riesgos en #RAW2024.
Douglas Hubbard popularizó otro término: "aversión a los algoritmos". Describe el fenómeno en el que las personas prefieren el juicio humano sobre las soluciones algorítmicas o generadas por máquinas, incluso cuando el algoritmo funciona mejor o igual de bien. Esta aversión a menudo persiste incluso después de que la persona ha experimentado el rendimiento superior del algoritmo, generalmente debido a sesgos o falta de confianza en los sistemas automatizados. Solo mira algunos de los estudios sobre la aversión a los algoritmos, no es algo nuevo:
- Dietvorst, B. J., Simmons, J. P., y Massey, C. (2015). aversión a los algoritmos: las personas evitan erróneamente los algoritmos después de ver que cometen errores. Publicado en el Journal of Experimental Psychology: General, este estudio es una de las investigaciones fundamentales sobre la aversión a los algoritmos. Demonstró que las personas son menos propensas a usar un algoritmo después de verlo actuar de manera imperfecta, a pesar de que el algoritmo supera a los humanos en promedio.
- Logg, J. M., Minson, J. A., y Moore, D. A. (2019). Apreciación de algoritmos: las personas prefieren el juicio algorítmico al humano. Publicado en Comportamiento Organizacional y Humano Decisión Procesos, este estudio proporcionó un contrapunto a los hallazgos típicos de la aversión a los algoritmos, sugiriendo que bajo ciertas condiciones, las personas podrían preferir o apreciar el consejo algorítmico por encima del consejo humano.
- Onkal, D., Goodwin, P., Thomson, M., Gönül, S., & Pollock, A. (2009). La influencia relativa del consejo de expertos humanos y de los métodos estadísticos en los ajustes de pronóstico. Este estudio en el Journal of Behavioral Decisión Se exploró cómo los profesionales ajustan sus pronósticos basándose en el consejo de métodos estadísticos en comparación con los expertos humanos, destacando un sesgo hacia el consejo humano incluso cuando se sabe que los métodos estadísticos son más precisos.
- Prahl, A., y van Swol, L. M. (2017). Comprendiendo la aversión a los algoritmos: ¿Cuándo se desestima el consejo de la automatización? Este artículo en el Journal of Forecasting analiza las condiciones bajo las cuales las personas pueden o no seguir consejos automatizados, identificando factores que pueden influir en la aceptación de la entrada algorítmica.
- Burton, J. W., Stein, M-K., & Jensen, T. B. (2020). Una revisión sistemática de la aversión a los algoritmos en Augmented Decisión Haciendo.” Esta revisión, publicada en el Journal of Behavioral Decisión La elaboración consolida varios estudios sobre la aversión a los algoritmos, proporcionando una visión general exhaustiva de cómo y cuándo ocurre la aversión a los algoritmos en decisiónprocesos de fabricación que involucren automatización.
Limitaciones importantes
- Utilizando AI en gestión de riesgos Implica el manejo de datos sensibles, lo que puede plantear cuestiones de cumplimiento y privacidad. Algunos riesgos son demasiado sensibles para ser analizados por AI, a menos que sea un modelo cerrado interno.
- Usando AI para gestión de riesgos Probablemente se considerará una actividad de alto riesgo conforme a la UE. AI Actuará y requerirá controles de cumplimiento significativos.
- En casos donde AILas decisiones impulsadas pueden llevar a pérdidas financieras o incumplimientos, establecer la responsabilidad puede ser un desafío. Determinar si la falla está en los datos, el modelo, o decisiónEl proceso de fabricación requiere protocolos claros.
- Uso efectivo de AI en gestión de riesgos requiere habilidades especializadas que pueden no estar disponibles fácilmente dentro de los equipos de riesgo tradicionales. Al menos contratar o capacitar al personal para trabajar de manera efectiva con AI Las herramientas son más fáciles que encontrar un buen analista cuantitativo de riesgo que entienda. decisión la ciencia y la economía conductual.
Ver otros gestión de riesgos libros
RISK-ACADEMY ofrece cursos en línea
Toma de Riesgos Informada
Aprende 15 pasos prácticos para la integración. gestión de riesgos dentro de decisión creación, procesos de negocio, cultura organizacional y otras actividades!
ISO 31000 Integración Gestión de Riesgos
Alex Sidorenko, conocido por su gestión de riesgos blog http://www.riskacademy.blog, ha creado un programa de 25 pasos para integrar gestión de riesgos dentro de decisión la creación de los procesos centrales del negocio y de la cultura general de la organización.
Gobernanza de Riesgos Avanzada
Este curso ofrece orientación, motivación, información crítica y estudios de casos prácticos para ir más allá de la gobernanza tradicional del riesgo, ayudando a garantizar gestión de riesgos No es un proceso independiente, sino un motor del cambio para el negocio.
