La inteligencia artificial (IA) ya es una herramienta más en sectores como el de la banca. Ante la transformación digital, las entidades han elegido sistemas de IA para desarrollar tareas que van desde la contratación de productos a la predicción de modelos económicos. Sin embargo, ante el auge de los sistemas de inteligencia generativa (que crea contenido, como ChatGPT), el Banco Central Europeo (BCE) advierte de los riesgos que puede suponer la IA.

Las advertencias forman parte del informe de estabilidad financiera del BCE y es que el supervisor considera que a medida que se generaliza el uso de la IA por parte de las entidades financieras, la IA puede suponer un riesgo para la estabilidad, no solo para las instituciones, sino también “para el sistema financiero en general”.

1. Sesgos y discriminación

El BCE plantea que los modelos de IA necesitan de un entrenamiento previo con datos, texto o imágenes que pueden terminar suponiendo el mantenimiento de sesgos o de discriminación, cuando se habla del trato a clientes, por ejemplo. “La forma en que se entrenan los modelos básicos significa que es más probable que "aprendan" y mantengan sesgos o errores inherentes a los datos con los que han sido entrenados. Por lo tanto, los modelos básicos pueden ser propensos a tener problemas de calidad de los datos”, apunta el supervisor.

    Si se trata de evaluar información, otro de los usos de la IA, el BCE también señala que pueden producirse sesgos si los modelos que se utilizan plantean desafíos y conclusiones similares. “La interpretación de la información puede volverse más uniforme si se utilizan ampliamente modelos cada vez más similares con los mismos desafíos y sesgos incorporados para comprender la dinámica del mercado financiero. Como resultado, la IA puede hacer que las conclusiones de los participantes del mercado estén sistemáticamente sesgadas, lo que lleva a precios de activos distorsionados, mayor correlación, comportamiento gregario o burbujas”, describe.

    La IA también se utiliza para ofrecer productos o servicios personalizados a los clientes, a partir de una serie de datos anonimizados. Sin embargo, el informe del BCE sugiere que “el sesgo algorítmico puede conducir a un trato discriminatorio al cliente y ser difícil de identificar y monitorear”.

    2. Desinformación 

    El supervisor pone la lupa sobre la información con la que se entrenan los modelos de IA y destaca que “como la IA puede no estar entrenada con la información más reciente disponible, sus capacidades pueden verse limitadas por una falta de conocimiento tecnológico”.

      Esta situación podría llevar a generar “alucinaciones”, si se presenta información falsa o engañosa como si fueran hechos y esto, a su vez, tiene consecuencias para las entidades porque “podrían hacer que las evaluaciones de riesgos de las instituciones que dependen de la IA sean menos confiables y sólidas”.

      3. Ciberseguridad

      Garantizar la privacidad de los datos que se utilizan y que su procesamiento es seguro es una prioridad para todos los bancos. La IA puede ayudar a alcanzar estos objetivos, identificando patrones poco habituales de los usuarios o creando barreras de acceso para ciberdelincuentes. 

        Sin embargo, es una realidad que los ciberataques están en auge. Por ello, el BCE considera que también existen riesgos. “La IA podría ayudar a reducir significativamente la barrera de entrada para los posibles piratas informáticos o aumentar la eficacia de los piratas informáticos profesionales al encontrar vulnerabilidades o ayudar a evadir la detección. Además, las herramientas de IA se pueden utilizar como vehículos para un ataque manipulando el resultado que proporcionan. Se pueden utilizar herramientas de inteligencia artificial con salida visual o de audio para crear deepfakes para ataques de ingeniería social”, resume.

        4. Imprevisibilidad

        Que la tecnología se vuelva en contra de sus creadores es una de las amenazas más recurrentes en la ciencia ficción, pero la imprevisibilidad de las conclusiones a las que llegue la IA es un riesgo en la vida real. El BCE asegura que “es difícil predecir y controlar ex ante cómo se desempeñará la IA en la práctica”. 

          Añade que “los sistemas de IA pueden desarrollar capacidades inesperadas y potencialmente dañinas cuando se aplican a nuevos casos de uso. Además, no es inconcebible que la IA pueda utilizarse indebidamente de manera perjudicial. Por ejemplo, los delincuentes podrían perfeccionar y estropear la IA, que de otro modo sería inofensiva”.

          5. Predicciones erróneas

          Algunos de los riesgos que ya se han mencionado pueden llegar a producir predicciones erróneas, que de ser tomadas como buenas tendrán consecuencias económicas. El BCE explica que “las alucinaciones, el sesgo algorítmico y la vulnerabilidad a problemas de calidad de los datos presentan riesgos para la precisión de las predicciones de la IA. Si las entidades financieras basan sus decisiones en predicciones erróneas de la IA que no se verifican, esto podría generar resultados que podrían generar pérdidas económicas o incluso movimientos desordenados del mercado”. 

            “Además, la complejidad de la IA podría dificultar identificar la causa raíz de los errores o explicar y justificar cualquier decisión basada en la IA”, añaden.