Hace dos años me di cuenta de algo que me incomodó: cada vez que probaba una herramienta pública de IA para preguntas de gestión de riesgos, me daba consejos terribles. No es solo inútil. Activamente malo.
Le preguntaría a ChatGPT sobre matrices de riesgo, y ChatGPT explicaría con entusiasmo los beneficios de las matrices de riesgo. Claude me guiaría paso a paso para implementar marcos de gestión de riesgos empresariales. Gemini me ayudaría a construir declaraciones de apetito por el riesgo. Copiloto recomendaría mapas de calor coloridos para la visualización. Todos ellos estaban espectacularmente equivocados. El problema no era que no sabían lo suficiente. El problema era que sabían demasiado de las cosas equivocadas.
Qué significa realmente 'Lo más probable'
Los grandes modelos de lenguaje funcionan según un principio simple: predicen la siguiente palabra más probable basándose en los patrones de sus datos de entrenamiento. Pero “más probable” no significa “el más preciso.” Significa "el más frecuente." ¿Y qué es lo más frecuente en internet cuando se trata de gestión de riesgos? Miles de páginas explicando cómo construir registros de riesgos. Cientos de artículos de firmas de consultoría sobre declaraciones de apetito de riesgo. Plantillas infinitas para mapas de calor y marcos de cumplimiento. Los modelos están atrapados en una cámara de eco de prácticas populares pero profundamente defectuosas.
Probé esto repetidamente. Cuando pregunté sobre matrices de riesgo, las IA las defenderían inicialmente. Solo cuando me oponía con citas académicas específicas, se veían obligados a admitir lo obvio: las matrices de riesgo incorporan sesgos peligrosos y errores matemáticos que pueden conducir a decisiones terribles. Pero aquí está la cuestión: la mayoría de la gente no se va a oponer. Tomarán la primera respuesta, asumirán que la IA sabe de lo que habla y implementarán consejos que parecen sofisticados pero que, en realidad, están fundamentalmente mal.
Pregunta a RAW@AI sobre esta publicación o simplemente habla sobre la gestión de riesgos
Dos mundos, acelerándose al separarse
Esto captura perfectamente la división en nuestra profesión: RM1 versus RM2. RM1 es el mundo de los artefactos. Políticas, registros, declaraciones de apetito, mapas de calor. Satisfacen a los auditores y a los reguladores. Parecen impresionantes en las presentaciones ante la junta directiva. Pero rara vez afectan cómo se asigna realmente el capital o cómo se moldean las estrategias. RM2 integra métodos cuantitativos en decisiones comerciales reales. En lugar de producir informes de riesgo independientes, hace que la planificación, los presupuestos y las inversiones tengan en cuenta el riesgo. No pregunta “¿Cuál es nuestro apetito de riesgo?” Se pregunta: «¿Cómo cambian las incertidumbres la elección que estamos a punto de hacer?»
La IA está acelerando la divergencia entre estos dos mundos. Los modelos de lenguaje de propósito general potencian RM1. Generan registros de riesgos más rápido de lo que cualquier humano podría. Producen declaraciones de apetito pulidas en segundos. Ellos automatizan los informes de cumplimiento con facilidad. Pero todo este papeleo deja intactas las decisiones reales.
Por eso construí RAW@AI. No como otro chatbot, sino como una herramienta especializada entrenada en los principios de RM2, basada en las fuentes correctas y construida con barreras que evitan que caiga en la trampa popular pero equivocada. Durante dos años, mi equipo lo ha utilizado para el trabajo real de gestión de riesgos, el tipo de análisis y apoyo en la toma de decisiones que los equipos de riesgos necesitan ofrecer.
La diferencia no es sutil. Es la diferencia entre astrología y astronomía.
Esto es lo que me preocupa: si la IA ya puede producir registros y políticas más rápido que cualquier humano, ¿qué queda por hacer a los gestores de riesgos? La respuesta es interpretación. Convirtiendo modelos probabilísticos en conocimiento empresarial. Incorporar la incertidumbre en las conversaciones estratégicas. Hacer del análisis de riesgos un motor de decisiones, no solo un ejercicio de cumplimiento. El gestor de riesgos del futuro no es un custodio de documentos. Son arquitectos de decisiones. Pero no puedes llegar allí preguntándole a ChatGPT cómo gestionar el riesgo. Solo obtendrás una forma más rápida de hacer lo que no funciona.
Publicé un análisis comparativo en agosto de 2025 probando los principales LLMs en preguntas de gestión de riesgos. Los resultados fueron claros: ninguno de ellos era adecuado para su propósito. Aunque los modelos de pensamiento están mejorando.
Eso debería preocupar a cada profesional de riesgos que esté considerando usar IA en su trabajo. La IA genérica no solo da malos consejos sobre riesgos, sino que también amplifica las peores prácticas en nuestro campo, mientras da a los usuarios la ilusión de sofisticación. Hace que la mediocridad se sienta moderna. Y en la gestión de riesgos, la mediocridad no es inofensiva. Cuesta dinero. Asigna mal el capital. Fomenta la sobreconfianza en las decisiones que deberían ser cuestionadas. La elección no es si usar IA. La elección es si te conformas con herramientas que refuercen lo que es popular, o insistes en herramientas que entreguen lo que es correcto. Porque hay una diferencia. Y en nuestra profesión, esa diferencia se mide en millones.
Explora los resultados del Benchmark de Riesgo: https://benchmark.riskacademy.ai
Conoce RAW@AI, IA especializada en gestión de riesgos: https://riskacademy.ai
Vea cómo la IA está transformando RM2 en la Semana de Concienciación sobre Riesgos 2025, del 13 al 17 de octubre: https://2025.riskawarenessweek.com

Para romper este ciclo y avanzar hacia una gestión de riesgos basada en la ciencia, la gestión de riesgos debe estar integrada en el núcleo de la toma de decisiones.
Necesitamos utilizar la inteligencia artificial de forma responsable, bajo supervisión profesional, cambiar el enfoque del mero cumplimiento a la creación de valor real, diagnosticar riesgos utilizando métodos científicos en lugar de modelos prefabricados, y evaluar regularmente mientras se vinculan las acciones con los resultados reales.
Debemos construir una cultura de concienciación del riesgo, no una de miedo o formalidad.
Debemos entender que el peligro no está en la existencia de riesgos, sino en gestionarlos de manera ineficaz.**
ChatGPT en sí mismo no es el problema; el problema radica en usarlo sin una comprensión profunda o un marco metodológico claro.**
Tal uso indebido no protege a las instituciones ante crisis; retrasa su respuesta y engaña a los responsables de la toma de decisiones con indicadores falsos.
Lo que realmente necesitamos es un **sistema de riesgo científico** que emplee tecnología con conciencia y que mejore nuestra capacidad para enfrentar lo desconocido con **inteligencia y resiliencia genuina**.**
Que Dios proteja a todos.