[ad_1]
La industria aseguradora lleva años apoyándose en la Inteligencia Synthetic (IA), concretamente en el procesamiento del lenguaje pure (NLP), para automatizar sus procesos más complejos y mejorar así su eficiencia. Sin embargo, con la llegada de la IA generativa y los grandes modelos de lenguaje (LLM) se ha acelerado la adopción de esta tecnología transformadora en el sector. En consecuencia, según datos de ICEA, en 2023 tres de cada cuatro aseguradoras en España están trabajando o desarrollando proyectos de IA.
No cabe duda de que la IA generativa tiene un gran potencial para esta industria, pero también es cierto que conlleva riesgos operativos, éticos y regulatorios. De modo que, es esencial que las organizaciones del sector asegurador adopten medidas para mitigar estos riesgos. De esta necesidad surge el enfoque de IA responsable, que se basa en la concept de que la IA debe ser desarrollada y utilizada de forma ética, teniendo en cuenta sus riesgos potenciales.
Definiendo el marco para una IA responsable
La IA ética se basa en los principios de transparencia, justicia, diversidad, responsabilidad, seguridad y solidez. El primer paso para garantizar una IA responsable es definir buenas prácticas, estándares y servicios para evaluar, monitorear y mitigar los riesgos. A medida que la adopción de la IA aumente y la regulación europea entre en vigor en 2026, la necesidad de cumplir con las buenas prácticas se verá acompañada de la necesidad de garantizar el cumplimiento regulatorio.
En diciembre de 2022, la UE aprobó el ‘AI Act’, donde se definen los requisitos que debe cumplir una IA para que sea ética. Esta ley clasifica los sistemas de IA en tres categorías: riesgo inaceptable, alto y limitado. Los sistemas de riesgo inaceptable, como los que manipulan el comportamiento humano o clasifican a las personas en función de sus características sociales o físicas, están prohibidos. Por otra parte, los sistemas de alto riesgo, como los que tienen un potencial significativo de causar daño a las personas o a los derechos fundamentales, deberán ser evaluados antes de su comercialización y a lo largo de su ciclo de vida para garantizar su uso seguro y responsable. Por último, los sistemas de IA de riesgo limitado, como los chatbots o los sistemas de recomendación, deben cumplir unos requisitos mínimos de transparencia. Esto significa que los usuarios deben ser conscientes de cuándo están interactuando con un sistema de IA y de cómo funciona. La IA generativa, como ChatGPT, también debe cumplir requisitos de transparencia, como revelar que el contenido ha sido generado por esta tecnología, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos utilizados para el entrenamiento.
Sin embargo, la Comisión Europea aprobó enmiendas al ‘AI Act’ en junio de 2023, endureciendo las normas, ampliando los sistemas sobre los que aplica e incluyendo el impacto ESG. Una de las principales novedades es la inclusión de los modelos fundacionales en la categoría de alto riesgo. Estos modelos son aquellos con propósito abierto, que han sido entrenados sobre cantidades enormes de datos y se utilizan para múltiples fines. Además, las enmiendas también aclaran las responsabilidades de desarrolladores e implementadores de sistemas de IA. En este sentido, los desarrolladores ahora son responsables de garantizar que sus modelos cumplan con la ley, mientras que los implementadores son responsables de utilizarlos de forma segura y ética.
La buena noticia es que ya existen soluciones, como la plataforma SAS Viya, que ayudan a identificar el sesgo en modelos de aprendizaje automático y rastrea el conjunto de datos utilizados para entrenarlos. Esto contribuye a garantizar la ética en los modelos utilizados por las organizaciones y servirá para el cumplimiento regulatorio una vez que la normativa entre en vigor.
Por otra parte, los modelos de alto riesgo deberán cumplir una serie de requisitos técnicos para garantizar su seguridad, equidad e imparcialidad. Estos requerimientos incluyen la identificación y mitigación de riesgos, el análisis de sesgos y la protección de datos personales, así como el consumo de energía del sistema. La buena noticia es que ya existen soluciones, como la plataforma SAS Viya, que ayudan a identificar el sesgo en modelos de aprendizaje automático y rastrean el conjunto de datos utilizados para entrenarlos. Esto contribuye a garantizar la ética en los modelos utilizados por las organizaciones y servirá para el cumplimiento regulatorio una vez que la normativa entre en vigor.
En la búsqueda de una IA sostenible
A pesar de todas sus bondades, la realidad es que la democratización de la IA genera una huella de carbono significativa, en especial cuando hablamos de modelos de IA generativa. Estos modelos, como los grandes modelos de lenguaje, son los que más huella de carbono generan, ya que requieren una gran cantidad de datos y potencia de cálculo para entrenarse. En este contexto, la “IA verde” propone alcanzar un equilibrio entre el volumen de datos, el tiempo de entrenamiento y el número de iteraciones para reducir el consumo energético de esta tecnología. Del mismo modo, es importante utilizar fuentes de energía renovables.
Para hacer frente a este problema, en 2022 se aprobó en España el Programa Nacional de Algoritmos Verdes, que busca fomentar el desarrollo de la IA verde en el país. Para ello, financiará la investigación, desarrollará estándares y herramientas para medir el consumo energético de los algoritmos, creará un esquema de certificación para empresas Inexperienced Tech y organizará desafíos de IA verde.
El sector asegurador español está muy comprometido con la reducción de su huella de carbono. Según la estadística de sostenibilidad de ICEA, el 69% de las entidades mide su huella de carbono de Alcance 1, que corresponde a las emisiones directas de gases de efecto invernadero (GEI) generadas por sus actividades. El 61% también mide su huella de carbono de Alcance 2, que corresponde a las emisiones indirectas generadas por la electricidad que eat y el 56% va más allá y mide su huella de carbono de Alcance 3, que corresponde a las emisiones indirectas originadas por el resto de sus actividades, como los viajes de negocios o la gestión de residuos. Además, el 77% de las aseguradoras españolas calcula su consumo agregado de energía y el 64% hace lo propio con su consumo de agua. También cabe destacar que, según la Unespa, el 94% del sector aplica criterios de sostenibilidad en la configuración de su cartera de inversiones, contribuyendo a la lucha contra el cambio climático.
En definitiva, la IA es una tecnología poderosa con una gran capacidad de transformar el sector asegurador. Sin embargo, para que este potencial se materialice, es necesario que la IA se desarrolle y se utilice de manera responsable.
El sector asegurador tiene un papel elementary en el desarrollo y la utilización de la IA responsable. Las aseguradoras que quieran liderar el camino y estar preparadas para cumplir con el ‘AI Act’ deben comprender los riesgos de esta tecnología, y establecer lineamientos para mitigarlos. Además, deberán incorporar criterios ESG en su estrategia de IA e invertir en investigación y desarrollo. Para ello, pueden apoyarse en companions tecnológicos de confianza. Las aseguradoras que tomen estas medidas estarán bien posicionadas para aprovechar el potencial de la IA y mejorar sus operaciones, así como tener un impacto positivo en la sociedad.
¿Quieres conocer nuestras soluciones de analítica avanzada para el sector asegurador?
[ad_2]
Source link