El primer gran estudio sobre IA de la CNMV detecta riesgos de pérdidas para los inversores

El primer gran estudio de la Comisión Nacional del Mercado de Valores (CNMV) acerca de la capacidad de la IA para tomar decisiones de inversión en torno a empresas cotizadas concluye que la nueva tecnología puede ser útil para operar en el mercado, pero detecta “fallos, errores y alucinaciones” que, sin supervisión humana que los detecte, pueden provocar pérdidas económicas.

El estudio ha sido realizado por dos técnicos de la Dirección General de Estrategia y Asuntos Internacionales del supervisor Ricardo Crisóstomo y Diana Mykhalyuk, y consiste en un análisis empírico acerca de la forma con que ChatGPT, Gemini, DeepSeek y Perplexity toman decisiones de inversión.

Desde hace tiempo, la CNMV se encuentra muy interesada en analizar las nuevas corrientes que afectan a los mercados, lo que le ha llevado a analizar el comportamiento de los finfluencers o cómo se difunden posibles estafas en las redes sociales. Ahora pone énfasis en la IA, en la que algunos ven un revulsivo para los mercados y otros, un nuevo riesgo.

Entre las conclusiones que resalta la propia CNMV acerca del informe figura la de que “los errores detectados, en última instancia, pueden inducir a pérdidas para los inversores”. Los resultados cambian mucho cuando las órdenes a la IA se realizan de forma estructurada y con visión analítica, o cuando se manejan fuentes estandarizadas, en vez de dejar que la IA maneje cualquier información de la web.

La IA ya puede ser útil para invertir, pero si hay supervisión de expertos

Pese a las advertencias, la impresión de los investigadores es que la IA puede ofrecer una ventana al invertir. “En general, nuestra evidencia indica que es alcanzable un desempeño superior al del mercado con el uso de las actuales tecnologías LLM (modelos de lenguaje a gran escala)”, afirman los investigadores en su trabajo.

Sin embargo, hay muchos matices antes de llegar a esta conclusión. Uno de ellos es la forma de interactuar con la IA, que los propios investigadores clasifican en función de si es más naif o estructurada. El segundo tiene que ver con los errores y las alucinaciones de la IA.

Mezcla de ejercicios, confusión de sociedades y suma de divisas distintas

Al trabajar con las cotizadas del Ibex, la IA confunde empresas del mismo grupo, ofrece datos de cotización que no son reales, mezcla cifras de beneficio por acción del 2025 con las del 2024, cataloga sin fundamento algunos valores y mezcla datos en dólares y en euros.

“La persistencia y propagación de errores de razonamiento comprometen de forma material la credibilidad del despliegue autónomo”, aseguran los autores. Si no hay una supervisión humana, “los fallos de razonamiento quedan a menudo sin detección y se trasladan directamente a decisiones financieras erróneas, lo que degrada el resultado y amplía los riesgos y la inestabilidad”, añaden.

La CNMV concluye que la supervisión humana es un “componente crítico”. Por el momento, los LLM ganan eficacia cuando los expertos son capaces de aplicar alguna “capa de validación” que garantice que los resultados son al menos coherentes desde un punto de vista económico.

Iñaki De las Heras

Redactor de la sección de Economía y Empresas de La Vanguardia. Licenciado en Periodismo (UCM) y en Psicología (UNED). Ha trabajado en Europa Press y en Expansión

También te puede interesar