Ajustes generales

Tamaño del texto

aA
aA
aA

Acerca de

En la aplicación de Inese podrá acceder a toda la información del sector asegurador, con noticias, reportajes, novedades y toda la actualidad que le permitirá estar al día de todas las novedades del sector asegurador.

Accede la revista Actualidad Aseguradora y Actualidad Aseguradora Mediación con una experiencia de uso sencilla e intuitiva.

Lea su suscripción a la revista desde cualquier plataforma: PC, Smartphone, o Tablet desde cualquier sitio incluso sin conexión.




¿Necesita ayuda?

Si tiene cualquier consulta o duda sobre la aplicación le atenderemos personalmente en el email web@inese.es o en el teléfono 911 92 48 44

Si lo que desea es darse de baja de la suscripción que realizó a través de la app debe seguir los pasos que le explicamos en el siguiente enlace: Baja

Si es usted suscriptor de Actualidad Aseguradora completo (Edición impresa – Edición digital) puede ponerse en contacto con suscripciones@Inese.es


Privacidad

Seguimiento de Google Analytics

Esta aplicación utiliza Google Analytics para recopilar datos de uso anónimos y exclusivamente en nuestra app que nos ayudan a mejorar nuestra aplicación. Si desea puede desconectarlo


Política de privacidad

https://www.inese.es/politica-de-privacidad-de-inese

REPORTAJES

Actualidad Aseguradora nº06 - Especial Mayo 2025

Solvencia II

Allana el camino para la IA en Seguros

La fortaleza financiera de la industria aseguradora facilita su adaptación a la revolución de la IA, que viene acompañada de cambios organizativos y de modelos de negocio a los que la regulación y la supervisión deben prestar atención. Con este telón de fondo, INESE Formación ha celebrado una jornada en la que se abordaron los principales aspectos normativos relacionados con la IA y el Seguro.

Limite

 

Francisco Javier Baena Álvarez de Quevedo, director de la División de Supervisión Tecnológica y de Innovación Digital de la DGSFP, fue el ponente de la jornada ‘Supervisión y regulación de la Inteligencia artificial en el Sector Asegurador’, en la que se trataron los principales aspectos del Reglamento de la Inteligencia Artificial, el alineamiento de EIOPA entre la regulación de seguros y el Reglamento IA y el Proyecto de Ley para el buen uso y la gobernanza de la IA.

El Reglamento 1689/2024 de IA fue publicado en el Diario Oficial de la UE el 12 de julio de 2024. Según explica Baena, esta norma establece un enfoque basado en el riesgo para la regulación y gobernanza de los sistemas de IA en la UE. “Sigue la lógica de cuanto mayor es el riesgo más estrictas son las normas, además, crea normas para modelos de IA de propósito general”. El Reglamento “hace hincapié en el uso de sistemas IA en lugar de en la tecnología en sí”.

La nueva legislación contiene normas vinculantes para determinados sistemas de IA comercializados en la UE y serán directamente aplicables en los estados miembros. Por ejemplo, “introduce una prohibición del uso de determinados sistemas de IA, permitiendo el uso excepcional de sistemas de identificación biométrica a distancia utilizados con fines policiales, sujetos a restricciones y salvaguardias específicas”, además de “un mecanismo de gobernanza adaptado para los modelos GPAI (Inteligencia Artificial de Propósito General) con obligaciones más estrictas para los que presenten riesgos sistémicos”.

En definitiva, los objetivos principales de esta ley son proteger intereses públicos como la salud, la seguridad y los derechos fundamentales de los ciudadanos como la democracia, el Estado de Derecho y el medio ambiente; así como fomentar el desarrollo, el uso y la adopción de la IA en el mercado interior. 

 

Prácticas de IA prohibidas 

Con este fin claro y determinado, existen una serie de prácticas de IA prohibidas, porque pueden distorsionar el comportamiento humano y repercutir en la salud física o psicológica de la persona así como en sus intereses económicos. Entre las prácticas prohibidas están las de aquellos sistemas que utilizar componentes subliminales como estímulos de audio, imagen o video u otras técnicas engañosas que escapan a la percepción humana. 

Otra práctica prohibida es la puntuación social, tanto por parte de entidades públicas como privadas, cuando ésta conlleva un trato perjudicial o desfavorable y no debe limitarse a un sector o campo específico. Sin embargo, la prohibición no afecta a las prácticas de evaluación legítimas de personas físicas que se realizan con un propósito específico de acuerdo con la legislación de la UE y nacional, como se indica en el considerando 31 de la Ley de IA. Por ejemplo, la calificación crediticia y la evaluación de riesgos realizadas como parte de negocios financieros y de seguros. “En este contexto -tal y como señala Baena- el proveedor y el implementador del sistema de IA, cada uno dentro de sus responsabilidades, deben demostrar que una práctica de puntuación de IA es legítima y justificada”. Tal prueba puede incluir proporcionar información sobre el funcionamiento del sistema de IA y los tipos y fuentes de datos utilizados. Ciertos sistemas de puntuación basados en IA, como los empleados para la calificación crediticia o la evaluación de riesgos en seguros de salud y vida, serán considerados sistemas de IA de alto riesgo (anexo III (5) de la Ley de IA) cuando no cumplan las condiciones para la prohibición bajo el artículo 5.1.c de la Ley de IA.

Por otra parte, “puede que sea necesario aclarar la aplicación de la prohibición de prácticas relativas al uso de determinados datos en la Ley de IA para garantizar una comprensión adecuada en el sector de los seguros”. EIOPA seguirá el trabajo de la Comisión en el desarrollo de las directrices sobre la aplicación práctica de esta prohibición. Las especificidades del sector pueden requerir más trabajo para garantizar que las aseguradoras comprendan la naturaleza y el alcance de las prácticas prohibidas. A este respecto, “EIOPA tendrá en cuenta las tareas realizadas por la Oficina de IA en el cumplimiento de sus responsabilidades en este ámbito”, concreta.

 

Marco jurídico unificado

Se espera que la IA desempeñe un papel fundamental en la transformación digital en todo el espectro de industrias y actividades sociales. En el sector de los seguros, se prevé que tenga un impacto sustancial, en particular con la aparición de la IA generativa. Las respuestas normativas al desarrollo de la IA varían en todo el mundo, desde un enfoque más flexible basado en principios y resultados hasta normas más prescriptivas

El Reglamento de IA y la legislación del sector de los seguros tienen objetivos complementarios y deben aplicarse conjuntamente, garantizando la alineación, la coherencia y abordando los posibles conflictos.

El Reglamento de IA impone a los Estados miembros la obligación de designar a los supervisores nacionales de seguros como Autoridad de Supervisión. Este requisito, junto con el Considerando 80, parece asignar a EIOPA un papel en la aplicación de la Ley de IA en relación con los sistemas de IA de alto riesgo en la industria aseguradora.

El Reglamento de IA establece que se debe designar a las autoridades competentes de supervisión de seguros y mediación, como las autoridades competentes encargadas de supervisar la aplicación del presente Reglamento, también por lo que respecta a las actividades de vigilancia del mercado, en relación con los sistemas de IA proporcionados o utilizados por las entidades financieras reguladas y supervisadas, a menos que los Estados miembros decidan designar a otra autoridad para que desempeñe estas tareas de vigilancia del mercado. En España como puede verse en el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la IA se designa a la Dirección General de Seguros y Fondos de Pensiones como autoridad de Vigilancia de Mercado.

Por otra parte cabe destacar la creación de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA)”. Esta agencia es el organismo público encargado de garantizar el uso ético y seguro de la inteligencia artificial en España. Su principal misión es asegurar que tanto entidades públicas como privadas cumplan con la normativa vigente, protegiendo la privacidad, igualdad de trato y derechos fundamentales. Fomenta un desarrollo tecnológico responsable, trabajando en colaboración con otros organismos y promoviendo un entorno de confianza para el avance de la inteligencia artificial, asegurando que sea beneficioso y seguro para la sociedad.

 

Regulación de Seguros y el Reglamento IA 

La legislación del sector de los seguros sigue aplicándose a todos los casos de uso, independientemente de su calificación con arreglo al Reglamento de la IA. “Es necesario garantizar la aplicación efectiva de la legislación sectorial, teniendo en cuenta la proporcionalidad y las especificidades de nuestro sector. Esto es especialmente importante dado el creciente uso de la inteligencia artificial en toda la cadena de valor de los seguros y lo complejo que resultan cada vez más los sistemas de IA”, afirma Baena.

La Ley introduce un amplio marco de gobernanza y gestión de riesgos para los proveedores de sistemas de IA de alto riesgo como son las aseguradoras, que ya tienen que cumplir con un sistema completo de requisitos de gobernanza.

Según el experto, para abordar los posibles solapamientos, la norma introduce excepciones limitadas aplicables a las empresas sujetas a Solvencia II, por ejemplo, sistema de gestión de riesgos y sistema de seguimiento post comercialización.

Además, el uso de sistemas de IA de terceros podría considerarse externalización en el marco de Solvencia II. La Ley de IA establece diferentes obligaciones y responsabilidades para los distintos agentes de la cadena de valor de la IA (por ejemplo, proveedores, implantadores, importadores etc.). No obstante, las empresas de seguros siguen siendo plenamente responsables de todas sus obligaciones en virtud de Solvencia II cuando externalicen funciones o cualquier actividad de seguros.

 

Anteproyecto de Ley para el Buen Uso y la Gobernanza de la IA 

El Anteproyecto de Ley para el Buen Uso y la Gobernanza de la IA establece un régimen sancionador efectivo, proporcionado y disuasorio para asegurar el cumplimiento de las obligaciones del Reglamento por parte de proveedores, responsables del despliegue y otras partes involucradas. Este Anteproyecto de Ley establece a  la Secretaría de Estado de Digitalización e Inteligencia Artificial como la autoridad notificante responsable de la evaluación, designación y notificación de los organismos de evaluación de la conformidad en materia de IA en España, aunque la evaluación y supervisión de estos organismos recaerá en la Entidad Nacional de Acreditación. Junto a AESIAotras  autoridades de vigilancia del mercado de sistemas de IA son la Agencia Española de Protección de Datos, y Autoridades Autonómicas de Protección de Datos, el Banco de España y la Comisión Nacional de Mercados y Valores, la DGSFP, la Dirección de Supervisión y Control de Protección de Datos del Consejo General del Poder Judicial y la Junta Electoral Central.
 

 

 

Contenido restringido

Suscríbete a actualidad aseguradora

Suscribirse

Noticias relacionadas

Fernando Antoñanzas Sales strategy director de Europ Assistance “Cuando el compromiso con el servicio es real, los resultados llegan por sí solos” “La flexibilidad es clave para responder a las nu [...]

Fernando Imbernón Director de Servicio al Cliente de Salud de Adeslas “Salud es una alternativa atractiva para un número creciente de personas y de empresas” El bienestar y la innovación son dos de la [...]