Ajustes generales

Tamaño del texto

aA
aA
aA

Acerca de

En la aplicación de Inese podrá acceder a toda la información del sector asegurador, con noticias, reportajes, novedades y toda la actualidad que le permitirá estar al día de todas las novedades del sector asegurador.

Accede la revista Actualidad Aseguradora y Actualidad Aseguradora Mediación con una experiencia de uso sencilla e intuitiva.

Lea su suscripción a la revista desde cualquier plataforma: PC, Smartphone, o Tablet desde cualquier sitio incluso sin conexión.




¿Necesita ayuda?

Si tiene cualquier consulta o duda sobre la aplicación le atenderemos personalmente en el email web@inese.es o en el teléfono 911 92 48 44

Si lo que desea es darse de baja de la suscripción que realizó a través de la app debe seguir los pasos que le explicamos en el siguiente enlace: Baja

Si es usted suscriptor de Actualidad Aseguradora completo (Edición impresa – Edición digital) puede ponerse en contacto con suscripciones@Inese.es


Privacidad

Seguimiento de Google Analytics

Esta aplicación utiliza Google Analytics para recopilar datos de uso anónimos y exclusivamente en nuestra app que nos ayudan a mejorar nuestra aplicación. Si desea puede desconectarlo


Política de privacidad

https://www.inese.es/politica-de-privacidad-de-inese

SECTOR

Actualidad Aseguradora nº02 - 19 de Febrero 2024

Perspectivas y desafíos de la Inteligencia Artificial

Guillermo Herrera, CIO de ARAG; y Joan Jené, Chief Technology Officer en IIIA-CSIC

 

Dos voces, un tema

 

Guillermo Herrera (en adelante G.H.).- En ARAG, el principal objetivo de la innovación tecnológica es mejorar la calidad de los productos y servicios que ofrecemos, especialmente en atención al cliente y en gestión de reclamaciones. Esto nos ha permitido vivir la constante evolución del campo a lo largo de los años. Actualmente, estamos inmersos en el desarrollo de Inteligencias Artificiales que estamos utilizando en diferentes áreas. Además, nuestro Grupo forma parte del Programa Mundial de Pruebas de Licencias de Copilot de Microsoft, donde estamos evaluando las ventajas de su IA para asistir en tareas cotidianas como, por ejemplo, traducir textos y resumirlos, mejorar presentaciones, etc. Aunque las versiones son preliminares, estamos observando los beneficios que pueden aportar en la simplificación de los trabajos administrativos para todos los empleados del Grupo.

Joan Jené (en adelante J.J.).- Por nuestra parte, en el Instituto tenemos tres departamentos que trabajan en: sistemas multiagentes, sistemas de aprendizaje y en lógica y razonamiento. El resultado de las investigaciones se traslada a la sociedad a través de publicaciones científicas y también mediante colaboraciones con centros educativos y empresas que quieren incorporar la IA en sus procesos. Con el objetivo de promover esta transferencia, se creó la Unidad de Desarrollo Tecnológico y Transferencia (UDT) de la que soy responsable. En esta unidad tenemos ingenieros que ayudan a los investigadores desarrollando prototipos de software y pruebas de concepto a partir de algoritmos de IA.

G.H.- Desde tu perspectiva en investigación, ¿cuáles son los riesgos que presenta la IA generativa?

J.J..-  La IA se compone de técnicas aplicadas para resolver problemas y no tiene una conciencia propia. Es una herramienta que los seres humanos debemos utilizar para abordar desafíos específicos. Aunque existen herramientas de IA avanzadas, como la Inteligencia Artificial generativa, estas pueden tener errores en la información proporcionada. Es fundamental reducir estos errores al mínimo para garantizar la fiabilidad de los sistemas de IA. Hasta no llegar a un nivel de error aceptable deben estar supervisados por humanos para evitar posibles problemas.

G.H.- Además, existen distintas Inteligencias Artificiales…

J.J..- Correcto. Se distinguen dos tipos: la general, que implica una conciencia autónoma no simulada y estados conscientes (aún está lejos); y la específica, que resuelve problemas concretos con herramientas automatizadas. En la industria aseguradora se ha utilizado principalmente la inteligencia artificial específica, como el aprendizaje automático para análisis de datos y predicciones. Sin embargo, con el auge de modelos de lenguaje como el ChatGPT, se está produciendo una revolución en la industria aseguradora. A pesar de sus avances, aún existen limitaciones en estas nuevas tecnologías. 

 


IA, No solo datos

G.H.- Considero que existe la percepción errónea de que la inteligencia artificial generativa es determinista, cuando en realidad es probabilística. Esta diferencia es crucial para comprender que se trata de buscar patrones en lugar de aplicar una lógica estricta.
 
J.J. - La inteligencia artificial generativa es solo una parte de la IA y en nuestro instituto hemos realizado poca investigación al respecto. Por ejemplo, últimamente trabajamos en la investigación sobre Inteligencia Artificial basada en la alineación de valores éticos, sociales y de reputación. La IA generativa tiene sus ventajas, pero también presenta muchos riesgos. Es importante tener en cuenta que no toda la IA se basa únicamente en datos.


 

G.H.- Lo que nos preocupa es que tenemos muchas herramientas públicas diseñadas para ayudarnos, pero estas herramientas que carecen de conciencia, ética y valores son utilizadas y actúan según lo determinado. Si estamos de acuerdo en esto, entonces estaremos de acuerdo en que la tecnología es muy importante, pero también tenemos que poder contar con un asesoramiento personal.

J.J..- Sí, ahora existe un debate sobre si alguna vez las IA alcanzarán un nivel de inteligencia similar al humano. De momento esto forma parte de la ciencia ficción, por lo que ahora la responsabilidad recae en quienes desarrollan estas IA. En el instituto, precisamente, se trabaja en la alineación de la IA y los valores humanos.

G.H.- Existe preocupación sobre la forma en que las personas puedan hacer uso de estas herramientas, ya que pueden utilizarlas para cometer acciones que impactan en nuestras identidades digitales. Aunque llevamos años fortaleciendo nuestras identidades físicas a través de trámites digitales, el mal uso de estas herramientas puede provocar suplantaciones de identidad digital, entre otros malos usos.

J.J..- Sí, por eso la UE acaba de aprobar una ley de la IA que clasifica los sistemas de IA según el riesgo (inaceptable, alto, limitado y mínimo), pero no se aplicará hasta 2026. Mientras tanto, contamos con las directrices éticas emitidas en 2018. El propósito de esta ley es garantizar la fiabilidad de la IA generando confianza al delimitar sus aplicaciones.

G.H.- Junto con estos desafíos, la IA ofrece muchos beneficios al ayudar a las personas a centrarse en lo importante y eliminar trabajos repetitivos y sin valor añadido. A pesar de la importancia del aprendizaje inicial en la automatización, los avances en algoritmos han agilizado este proceso. Por ejemplo, las IA pueden entender contratos y extraer información relevante como palabras clave, fechas y datos específicos, facilitando el trabajo de los profesionales al proporcionar resúmenes y llevarlos directamente a la información importante. Pero es esencial revisar y verificar la información proporcionada por estas herramientas.

J.J..- Hay mucho entusiasmo en este campo. Da la impresión de que la Inteligencia Humana no sea necesaria, pero despedir personas para sustituirlas por IA puede ser un error. Los humanos deben seguir enseñando, desarrollando y ejerciendo su experiencia. De hecho, los sistemas de IA basados en datos dependen de manera crítica de los datos del comportamiento humano.

 

 

Noticias relacionadas

Brunch & Mª Jesús González Fernández Chief Risk Officer en Reale Seguros El adjetivo discreto se ajusta a María Jesús como un guante. Tanto que, hasta sentarnos con ella para este Brunc [...]

Alberto Ocarranza Presidente de FECOR  “Nos enfocamos en ser la casa de la pequeña y mediana correduría” La Junta Directiva de Fecor tiene ya definidos sus principales objetivos para los próximos dos [...]