La inteligencia artificial (IA) es ya una de las grandes palancas de transformación de la banca, con capacidad para mejorar la eficiencia, personalizar servicios y reforzar la toma de decisiones. Pero, al mismo tiempo, su adopción introduce desafíos relevantes en ámbitos como la ciberseguridad, la regulación, la gestión del riesgo y la confianza del cliente. Entre la promesa de una banca más ágil y el temor a nuevos focos de vulnerabilidad, el sector financiero avanza en un equilibrio delicado que marcará su evolución en los próximos años. La IA ha dejado de ser una simple mejora tecnológica para convertirse en un factor estratégico para la banca. En BBVA, se concibe «como una herramienta capaz de transformar de forma estructural el modelo de negocio, desde la relación con el cliente hasta la organización interna», explica Petro Astarloa, responsable de estrategia y control de data del banco. Su aplicación «permite avanzar hacia propuestas de valor más personalizadas y eficientes, pero exige un cambio cultural profundo». La adopción, subraya, depende de «generar confianza y de explicar con claridad cuándo interviene la IA y cuáles son sus límites». La incorporación de la IA al negocio bancario plantea riesgos que no pueden abordarse de forma aislada, advierte Raúl Ramírez, responsable de transformación en IA de NTT DATA para el sector financiero. Los desafíos combinan factores tecnológicos, organizativos y ligados a la automatización de decisiones, dice. La seguridad, la calidad del dato y la fiabilidad de los modelos son determinantes, pero también lo es integrar la IA en los procesos y capacitar a los equipos. Para Ramírez, la supervisión humana y la explicabilidad resultan imprescindibles para que la tecnología refuerce a los profesionales sin sustituirlos. La adopción de IA —y especialmente de IA generativa — abre oportunidades claras de eficiencia en banca, pero también introduce nuevos riesgos en un sector donde el error y la pérdida de confianza tienen un coste muy alto, señala Francisco Rodríguez, director de estudios financieros de Funcas. A corto plazo, advierte de desafíos ligados a la fiabilidad de los sistemas, la protección de datos sensibles, el aumento de riesgos de ciberseguridad y el cumplimiento normativo en la relación con el cliente. A medio plazo, el reto será gestionar modelos cada vez más complejos, evitar sesgos en decisiones automatizadas, reforzar los controles internos y reducir dependencias excesivas de grandes proveedores tecnológicos. La IA permite detectar patrones anómalos y reforzar la defensa frente a fraudes y phishing, pero también está siendo utilizada para acelerar y escalar ataques cada vez más sofisticados, explica Hernández, de Accenture. Esta evolución incrementa el riesgo de fugas de datos y accesos no autorizados, lo que obliga a integrar la seguridad y la privacidad desde el diseño de los sistemas, explica. Para el equipo de tecnología y transformación digital e IA de Qaracter, el principal reto de la IA en banca ya no es digitalizar al cliente, sino reconfigurar cómo se trabaja dentro del banco. La banca es hoy digital por defecto, pero implantar IA exige evolucionar roles, gestionar el cambio e integrar IA generativa en procesos que requieren determinismo, trazabilidad y veracidad, apoyándose en controles, gobernanza y validaciones. «La confianza del cliente se erosiona rápidamente si la IA falla, por lo que defienden un modelo híbrido en el que lo digital sea lo habitual, pero exista intervención humana cuando la situación lo requiere, especialmente en decisiones sensibles», explican desde Qaracter. Astarloa subraya que el uso de la IA en banca debe apoyarse en un marco de control sólido que proteja los datos, la privacidad y los intereses del cliente. En BBVA, explica, la IA no solo impulsa nuevas propuestas de valor, sino que también rediseña procesos y eleva los niveles de control, seguridad y productividad. Su adopción, por lo tanto, depende de generar confianza y de comunicar de forma clara cuándo interviene la IA, para qué se utiliza y cuáles son sus límites. Además, defiende un modelo multicanal en el que convivan agentes digitales y gestores humanos, para ofrecer una experiencia de mayor valor sin dejar a nadie atrás. En el plano técnico, Ramírez, de NTT DATA, pone el foco «en la seguridad, la calidad del dato y la fiabilidad de los modelos; y, a nivel interno, en integrar la IA en los procesos y contar con equipos capacitados para gestionarla». La regulación, dice Rodríguez, de Funcas, ha avanzado y ofrece una base razonable, sobre todo en el Viejo Continente, pero todavía no es plenamente suficiente para un entorno de IA que cambia con rapidez. Por eso defiende un enfoque más adaptativo, centrado menos en reglas rígidas y más en exigir una gestión efectiva del riesgo, con pruebas continuas, trazabilidad y supervisión real de los proveedores tecnológicos. Por su parte, Patricia Pérez, directora del programa especializado en derecho digital e IA del IEB, enmarca el debate en la necesidad de reforzar los modelos de cumplimiento y gobernanza dentro de las estructuras ya existentes. El Reglamento (UE) 2024/1689 (RIA), recuerda, es reciente y de aplicación progresiva, y el debate regulatorio continúa abierto, como refleja la propuesta de un reglamento ómnibus digital para simplificar su aplicación. La implantación de la inteligencia artificial en la banca está reconfigurando la ciberseguridad y la experiencia del cliente, advierte José Antonio Marcos, vicedecano de business & tech de UAX. La tecnología actúa como una paradoja: multiplica la escala y sofisticación de los ataques —con phishing hiperrealista, deepfakes o malware adaptable—, pero también permite reforzar la defensa con detección y respuesta en tiempo real y análisis predictivo. Para el cliente, añade Marcos, «la adopción depende de la confianza, que se construye con seguridad y privacidad del dato, transparencia sobre el uso de la inteligencia artificial y una comunicación clara que evite que el servicio se perciba como opaco o invasivo». Desde la perspectiva de la ciberseguridad, Hernández advierte de que la inteligencia artificial generativa está acelerando y escalando ataques, elevando la presión sobre los equipos de detección y respuesta en banca. Al mismo tiempo, destaca que la inteligencia artificial es clave para la defensa al detectar comportamientos anómalos en tiempo real y automatizar la respuesta ante incidentes. Su despliegue debe apoyarse «en un marco sólido de gobernanza y en un enfoque de seguridad y privacidad por diseño, integrando principios de IA responsable desde las fases iniciales», dice. «El desarrollo de la inteligencia artificial debe abordarse desde un enfoque de seguridad y privacidad por diseño», asegura Hernández. En el sector bancario, puntualiza el experto de Accenture, la inteligencia artificial solo genera valor sostenible cuando avanza en equilibrio con la gestión del riesgo, las exigencias regulatorias y la confianza del cliente. En este contexto, la experiencia y la confianza del cliente se erosionan rápidamente cuando la inteligencia artificial falla, advierte el equipo de Qaracter, especialmente en servicios automatizados donde muchos usuarios perciben que no se entienden bien sus necesidades. Por eso defienden mantener un modelo híbrido, en el que lo digital sea lo habitual pero exista intervención humana cuando la situación lo requiere. Los datos, añaden, reflejan que una parte relevante de los clientes no contrataría sin intervención humana y prefiere un agente frente a un asistente virtual.