LEGAL

Compliance, la gran asignatura pendiente de los agentes de IA

El gran reto es garantizar que se cumpla totalmente la normativa vigente

steve-johnson-ZPOoDQc8yMw-unsplash (2)

Introducción: el impulso de los agentes de IA

En los últimos años, los agentes de inteligencia artificial han irrumpido con fuerza en el mundo de los seguros. Estas soluciones, capaces de ejecutar tareas de forma autónoma o semiautónoma, están transformando desde la gestión interna hasta la relación con los clientes. Un corredor de seguros puede hoy confiar en un agente de IA para resumir las coberturas de una póliza compleja, generar un email personalizado en cuestión de segundos o elaborar un informe de riesgos con un nivel de detalle impensable hasta hace poco. La promesa es clara: optimizar procesos de back-office, elevar la calidad de la atención al cliente y liberar a los profesionales de las tareas repetitivas, para que puedan dedicarse a lo verdaderamente estratégico.

Sin embargo, esta revolución tecnológica viene acompañada de un reto mayúsculo: garantizar que su uso respete la normativa vigente. En España y la Unión Europea, el RGPD y la recién aprobada Ley de Inteligencia Artificial (AI Act, agosto 2024) establecen requisitos estrictos en materia de protección de datos, transparencia y control de riesgos. Para los corredores de seguros, que manejan información especialmente sensible, entender estas reglas es tan importante como dominar cualquier técnica de venta o gestión de pólizas.

A continuación, recorreremos tres escenarios de implantación de agentes de IA, ordenados de menor a mayor grado de control y compliance. El objetivo es ofrecer una visión clara y accesible, que ayude a identificar qué prácticas son viables, cuáles entrañan riesgos y cómo aprovechar todo el potencial de la IA de forma segura.

1. Uso directo de herramientas públicas de IA

El primer nivel explica la situación más sencilla: usar herramientas abiertas al público, como versiones gratuitas o de bajo coste de ChatGPT, Make u otras plataformas de automatización, sin un filtro ni supervisión interna. La ventaja es inmediata: cualquier corredor, sin necesidad de grandes conocimientos técnicos, puede experimentar la generación de texto o la conexión entre aplicaciones en cuestión de minutos. La barrera de entrada es casi inexistente.

Sin embargo, este atajo encierra varios peligros. Al introducir datos de clientes —nombres, números de póliza, detalles de siniestros o cualquier información personal—, esos datos viajan a servidores de proveedores externos, a menudo fuera de la UE, y pueden quedar expuestos o incluso ser usados para entrenar futuros modelos. Además, los modelos genéricos pueden reproducir sesgos no deseados o generar información inexacta, lo que en un sector tan regulado y delicado como el asegurador puede dar lugar a errores graves o decisiones erróneas. Por otro lado, existe también el riesgo de infringir derechos de autor si se publican textos sin la revisión adecuada.

En definitiva, recurrir sin control a estas herramientas públicas es jugar con fuego: es fácil probar su potencial, pero también lo es incurrir en incumplimientos del RGPD o de la AI Act, que pueden traducirse en sanciones económicas y daños reputacionales. Por ello, cualquier corredor que quiera explorar la IA debe evitar el uso espontáneo de estas soluciones y, al menos, someterlas a las políticas internas de compliance antes de ponerlas en producción.

2. Plataformas cloud con garantías por parte del proveedor

El segundo nivel da un paso adelante: se trata de contratar servicios de inteligencia artificial en la nube —por ejemplo, Azure OpenAI Service, Amazon Bedrock o Google Vertex AI— que ofrecen los modelos más avanzados (GPT-4, Gemini, etc.) pero bajo un marco contractual que garantiza el cumplimiento de la normativa europea. Con este enfoque, los datos pueden permanecer físicamente en centros de datos de la UE, se aplican cifrados robustos y existen acuerdos formales de protección de datos.

Para una correduría, esto se traduce en una gran tranquilidad: las grandes empresas de cloud suelen contar con certificaciones de seguridad (ISO 27001, SOC 2), auditorías regulares y cláusulas específicas para no aprovechar los datos de los clientes en el entrenamiento de sus modelos. Además, ofrecen soporte técnico especializado y herramientas para auditar y controlar quién accede a la información. Así, se combina la potencia de la IA de última generación con una implementación alineada al RGPD y a la AI Act.

Este nivel también facilita cumplir con las exigencias de la nueva ley cuando los agentes de IA se emplean en ámbitos considerados de alto riesgo, como la tarificación de seguros de salud o vida. El proveedor se encarga de gran parte de la documentación, la gestión de riesgos del modelo y las pruebas de robustez, mientras que la correduría aporta la supervisión humana y la integración en sus procesos. El resultado es un balance óptimo entre innovación y compliance.

La principal consideración aquí es el coste y la dependencia de un proveedor. Las tarifas por uso pueden ser elevadas si no se optimiza el consumo, y migrar a otra plataforma puede requerir un esfuerzo adicional. Sin embargo, para la mayoría de corredurías medianas, supone la mejor relación entre seguridad, agilidad y cumplimiento.

3. Despliegue local: máximo control, máxima responsabilidad

El tercer nivel alcanza el máximo grado de control: instalar los agentes de IA y los modelos directamente en la infraestructura propia (on-premises). Así, todos los datos permanecen dentro de la organización y no hay transferencia alguna a terceros. Este enfoque es especialmente valioso en casos de gran sensibilidad, por ejemplo, el análisis de historiales médicos para seguros de salud.

Al disponer del modelo en local, la correduría puede auditarlo, ajustarlo para eliminar sesgos y gestionar la gobernanza de datos sin intermediarios. Además, puede personalizar el entrenamiento con su propia documentación (pólizas, históricos de siniestros, manuales internos), logrando una solución hiper-especializada en su cartera de clientes.

Eso sí, implica inversiones fuertes: hardware con GPUs, personal experto para entrenar y mantener los modelos, y procesos internos sólidos para cumplir con todas las obligaciones de la AI Act, tanto las de proveedor como las de usuario. La correduría pasa a ser responsable directa del desarrollo, la validación, la supervisión humana y la trazabilidad de las decisiones automatizadas, lo que exige un elevado grado de madurez digital.

En el mercado se están desarrollando alternativas intermedias, como servicios europeos que ofrecen modelos open source con soporte y adaptados al RGPD, pero la opción on-premises pura sigue siendo un camino reservado a organizaciones con amplios recursos y necesidades muy específicas.

Aprovechar la IA con responsabilidad: dos grandes apuestas

Sea cual sea el nivel que una correduría elija, cumplir las normas no debe verse como un obstáculo, sino como la base que permite aprovechar dos oportunidades clave:

  1. Hiperautomatización con IA y RPA. Combinar agentes inteligentes con robots de software abre la puerta a procesos integrales sin apenas intervención humana. Ejemplos prácticos: retarificación automática de pólizas, seguimiento de siniestros con alertas proactivas, o generación de ofertas personalizadas. Esto libera a los corredores de lo repetitivo y les permite centrarse en asesorar, innovar y diseñar productos más ajustados.
  2. Bases de conocimiento y personalización generativa. Alimentar modelos con la documentación propia —condiciones de póliza, histórico de siniestros, manuales de producto— crea un “copiloto” interno que responde preguntas técnicas al instante, redacta informes de gerencia de riesgos, genera emails de venta o incluso produce infografías y vídeos. Con ello, la correduría gana en velocidad y coherencia, y el equipo humano puede dedicar su talento a tareas creativas y de alto valor.

En un sector cada vez más competitivo, la combinación de cumplimiento normativo y adopción inteligente de la IA se convierte en la palanca que diferenciará a los corredores más innovadores. Con un uso responsable, alineado a RGPD y AI Act, es posible impulsar la eficiencia, mejorar la experiencia del cliente y abrir nuevas líneas de negocio, garantizando siempre la confianza y la seguridad que demandan los reguladores y los asegurados.

Clave: La IA en seguros no es una cuestión técnica aislada, sino una estrategia corporativa que debe integrar la gestión de riesgos, la protección de datos y la formación interna para que innovación y legalidad vayan de la mano.

Con una comprensión clara de estos tres niveles y un compromiso firme con el cumplimiento normativo, las corredurías españolas están preparadas para liderar la próxima ola de transformación digital en el sector.

Un artículo de Pau Llambí, asesor de Tecnologia del Col·legi

(assessories@elcol-legi.org)

Últimas noticias