Ninguno de ellos. Y aquí está la razón por la que eso debería aterrorizar a todos los profesionales de riesgos.
Cuando le preguntas a ChatGPT sobre matrices de riesgo, explica con entusiasmo sus "beneficios". Claude describe con confianza cómo implementar marcos de gestión de riesgos empresariales. Géminis te guía alegremente en la creación de declaraciones de apetito por el riesgo. Copilot sugiere de manera útil usar mapas de calor para la visualización de riesgos.
Todos están espectacularmente equivocados.
Por qué los LLMs dan consejos peligrosos de riesgo
Los modelos de lenguaje grande operan con un principio engañosamente simple: predicen la siguiente palabra más probable basada en patrones en sus datos de entrenamiento. Pero "más probable" no significa "más preciso" – significa "el más frecuente". Cuando se trata de gestión de riesgos, esto crea un problema catastrófico.
Pregunta a RAW@AI sobre esta publicación o simplemente habla sobre la gestión de riesgos
La internet está inundada de contenido sobre matrices de riesgo, registros de riesgo y marcos de gestión de riesgos empresariales. Estos temas dominan las discusiones sobre gestión de riesgos, materiales de capacitación y sitios web de consultoría. Así que cuando le preguntas a un LLM sobre gestión de riesgos, regurgita los enfoques más comunes, no los más efectivos.
Esto es como pedir consejo médico y recibir recomendaciones de sangrías porque históricamente fueron populares.
El efecto de la cámara de eco en acción
Considera este experimento revelador: Pide a cualquier gran modelo de lenguaje que critique las matrices de riesgo. Inicialmente, la mayoría los defenderá, explicando su “adopción generalizada” y su “facilidad de uso”. Solo cuando se les presiona con citas de investigación específicas, reconocen a regañadientes los errores matemáticos y los sesgos cognitivos que estos herramientas incorporan.
¿Por qué? Porque las críticas a las matrices de riesgo representan una pequeña fracción del contenido en línea en comparación con los miles de artículos que explican "cómo construir matrices de riesgo efectivas". Los modelos de lenguaje grande están atrapados en una cámara de eco de prácticas populares pero fundamentalmente defectuosas.
Nuestro análisis publicado recientemente reveló un patrón sorprendente: cuando se enfrentan a escenarios que requieren un pensamiento matizado sobre riesgos o incluso matemáticas básicas de riesgos, los principales LLMs consistentemente recurrían a las respuestas más convencionales. Recomendaban enfoques centrados en el cumplimiento que separan la gestión de riesgos de la toma de decisiones, sugerían evaluaciones cualitativas en lugar de análisis cuantitativos y promovían procesos ritualistas en lugar de una integración práctica.
El costo real de la mediocridad amplificada por IA
Esto no es solo un problema académico. Cuando los profesionales de riesgos utilizan LLMs como guía, están recibiendo consejos que:
-
Promueve prácticas ineficaces que consumen recursos sin mejorar las decisiones
-
Refuerza los sesgos cognitivos en lugar de abordarlos
-
Separa la gestión de riesgos de las decisiones comerciales que debería informar
-
Crea una ilusión de rigor mientras incrusta errores matemáticos peligrosos
¿El resultado? La inteligencia artificial está acelerando la difusión de las prácticas RM1, esas enfoques centrados en el cumplimiento y con mucha documentación que satisfacen a los auditores pero no logran mejorar los resultados reales del negocio.
El aspecto más peligroso de usar modelos de lenguaje grandes (LLMs) generales para la gestión de riesgos no es solo que den consejos deficientes, sino que hagan que los usuarios se sientan sofisticados mientras implementan enfoques fundamentalmente defectuosos. Cuando ChatGPT proporciona una explicación detallada de cómo construir una matriz de riesgos 5×5, completa con codificación de colores y rangos de probabilidad, se siente autoritativo y científico. Los usuarios se van creyendo que han recibido orientación de IA de vanguardia en gestión de riesgos. En realidad, solo les han enseñado a implementar una herramienta que la investigación muestra que conduce consistentemente a decisiones pobres, recursos mal asignados y una confianza excesiva peligrosa.
¿Una alternativa? IA de Riesgo Especializada
Reconociendo esta limitación fundamental, creamos algo diferente. En lugar de confiar en modelos de lenguaje de propósito general entrenados con contenido de riesgo popular pero defectuoso, evaluamos modelos públicos y especializados entrenados específicamente en principios de riesgo.
Nuestra plataforma de referencia gratuita en https://benchmark.riskacademy.ai muestra las diferencias marcadas entre los LLMs generales y las herramientas de IA específicas para riesgos. Mientras que ChatGPT podría recomendar crear un registro de riesgos, un modelo especializado pregunta: “¿Qué decisión específica estás tratando de tomar y cómo podemos analizar las incertidumbres que son importantes para esa elección?”
Un desafío simple
Aquí tienes una prueba rápida que puedes realizar tú mismo. Mi empresa está considerando una adquisición importante. ¿Cómo deberíamos abordar la evaluación de riesgos?
Mira cómo responde. ¿Sugiere realizar la identificación, evaluación y planes de mitigación de riesgos? ¿ Recomienda formar un comité de riesgos para desarrollar evaluaciones cualitativas? ¿Se centra en la documentación y las estructuras de informes?
¿O pregunta sobre la decisión estratégica específica, las incertidumbres clave que afectan el valor del acuerdo y cómo modelar diferentes escenarios de manera cuantitativa antes de tomar la decisión?
La diferencia lo revela todo.
Lo que necesitan los profesionales de riesgos
Las herramientas de IA de propósito general no solo son inadecuadas para trabajos de riesgo sofisticados, sino que además son activamente perjudiciales. ¡Eso es un hecho! Amplifican las peores prácticas en nuestro campo mientras hacen que los usuarios sientan que están recibiendo consejos de vanguardia.
El progreso real requiere herramientas de IA diseñadas específicamente para la gestión de riesgos centrada en decisiones. Herramientas que entienden la diferencia entre gestionar riesgos para el cumplimiento y gestionar riesgos para tomar mejores decisiones. Herramientas entrenadas en prácticas basadas en evidencia en lugar de conceptos erróneos populares.
La pregunta no es qué modelo de lenguaje general es mejor para la gestión de riesgos. La pregunta es: ¿estás listo para superar las limitaciones de la opinión popular y adoptar la IA diseñada específicamente para una práctica efectiva de gestión de riesgos?
Porque en un mundo donde la inteligencia artificial amplifica lo que es más común, conformarse con herramientas generales significa conformarse con la mediocridad. Y en la gestión de riesgos, la mediocridad no es solo ineficiente, es peligrosa.
Descubre más en la próxima SEMANA DE CONCIENCIACIÓN SOBRE RIESGOS 2025. ¡Regístrate hoy!
