Inteligencia Artificial (IA): oportunidades y amenazas

El desarrollo de Inteligencia Artificial (IA) ha experimentado una expansión acelerada en los últimos años. Según información recopilada por Statista[1] (2021), del 2016 al 2020 la inversión global anual en esta área pasó de 13 a 68 billones de dólares, es decir, un crecimiento del 432% en tan sólo 4 años. Por su parte, según datos del Almanaque Global de la Industria de Seguros[2] (2021) se estima que, a nivel mundial, las primas suscritas brutas totales en el 2020 alcanzaron un valor de 5.8 billones de dólares, generando un crecimiento anual compuesto de 2.2% entre el 2016 y el 2020. A partir de estas cifras, se constata el impacto potencial que la implementación de IA podría tener en esta industria. Un estudio realizado por Accenture[3] (2017) encontró que la IA impulsa la innovación y la rentabilidad. Por ejemplo, proyectaron que para el 2035, ésta podía llegar a producir un incremento en las utilidades de un 31% en el mercado financiero, de un 55% en el de salud y hasta de un 84% en el de educación, entre otros. Este panorama sin duda, proyecta una imagen del futuro prometedora y emocionante. La necesidad de implementar IA, dado su poder transformativo, podría parecer evidente. Sin embargo, es esencial conocer no sólo sus aplicaciones en la industria aseguradora sino también los riesgos que esta implica. Su poder como herramienta para generar ingresos probablemente sea innegable pero ¿cuál es su costo?

Deepthi, K. y Nagajyothi, S.[4] (2017) exponen varias maneras en las que la industria de seguros puede beneficiarse de la Inteligencia Artificial. Explican detalladamente cómo su uso puede mejorar la competitividad, la experiencia del consumidor, reducir la exposición a riesgos, incrementar las utilidades a través de procesos más automatizados que aumenten la eficiencia de las empresas y del desarrollo de mejores modelos de fijación de precios[5]. La selección adversa y el riesgo moral son dos graves problemas de información que las aseguradoras y reaseguradoras deben enfrentar a diario y la IA es una herramienta que, indudablemente, podría ser usada para reducirlos o incluso, según algunos, mitigarlos. La generación masiva de datos que se da ahora debido a los avances tecnológicos podría reducir esta asimetría de información y de hecho, varias empresas están tratando de hacerlo. La firma aseguradora, Lemonade, es un gran ejemplo de ello. Lemonade es una empresa cuyo giro de negocio se centra en una aplicación móvil impulsada por Machine Learning (ML). Lemonade ha tenido un crecimiento exponencial, alcanzando ingresos anuales recurrentes de 100 millones de dólares en solamente 3 años, un crecimiento del 500% y ha logrado acumular una cuota del mercado del 10%[6]. Recientemente Lemonade declaró que su IA es utilizada también para analizar los videos enviados por sus clientes para determinar si los reclamos de seguros son fraudulentos o no, identificando ‘signos de fraude’ y ‘señales no verbales’[7]. Por otro lado, empresas como Root ofrecen seguros de autos con primas estimadas en base a qué tan bien conduce su potencial cliente. Eso se lo realiza a través de aplicaciones que monitorean los patrones de conducción durante un periodo de prueba. Esto permite a Roots estimar mejor el riesgo y fijar las primas correspondientes. Es de esta manera que Roots es capaz de ofrecer precios muchos más bajos que los del resto del mercado al no seleccionar a personas que implicarían riesgos muy altos por sus patrones de comportamiento. Efectivamente, si las conclusiones a las que este tipo de IA llega son las correctas, sus beneficios son palpables pero qué sucede si esta Inteligencia Artificial está intrínsecamente sesgada.

Es importante comprender que la Inteligencia Artificial replica al mundo tal como es. Todos tenemos sesgos, de los que generalmente no estamos conscientes. Estos pueden, fácil e involuntariamente, incorporarse en la tecnología creando algoritmos destructivos[8]. El problema es que al hablar de tecnología, ciencia y matemáticas, los resultados que se obtienen de la IA pueden ser promocionados como una verdad objetiva cuando claramente no lo son. Es muy probable que sus fallas y limitaciones pasen desapercibidas. Usando Machine Learning podemos generar probabilidades de cuál va a ser el comportamiento de un individuo. ¿Qué tan probable es que diga la verdad, que pague un préstamo o que sea despedido de su empleo? Sin embargo, ¿qué sucede si estas probabilidades están sesgadas por el tipo de información con la que se alimentó a esta máquina? ¿Qué sucede si las personas que crean esta inteligencia artificial pertenecen mayoritariamente a cierto género y raza? (según el World Economic Forum las mujeres representan sólo un 22% en el sector laboral de AI a nivel mundial)[9].  El resultado es que exista una propagación masiva de sesgos que permita que personas de grupos marginados sean aún más discriminados exacerbando ciertos problemas sociales y profundizando asimetrías de poder. Cabe recalcar que este tipo de distorsiones de la realidad ya se están dando. En Octubre de 2019, el Wall Street Journal publicó un artículo mencionando que un ente regulador de New York estaba acarreando una investigación de posibles sesgos raciales del algoritmo que UnitedHealth Group Inc. estaba utilizando ya que aparentemente se estaba priorizando el acceso a salud de pacientes blancos por sobre pacientes negros[10]. Por otro lado, ProPublica[11] encontró que un algoritmo utilizado para predecir ‘futuros criminales’ estaba fuertemente sesgado en contra de ciertas razas, categorizándolos como sujetos de más alto riesgo. Adicionalmente, investigadores de MIT y Stanford identificaron varios sistemas de Inteligencia Artificial cuya precisión de reconocimiento facial disminuía drásticamente en función de la raza y género del sujeto analizado[12]. Si es que la IA puede discriminar en contra de ciertas razas, géneros, clases sociales, personas con discapacidades, entre otras, es imperativo preguntarnos hasta qué punto podemos depender de ésta en un sector tan importante como el de seguros.

A final de cuentas, la pregunta no es si es que debería o no implementarse la IA. La factibilidad de su uso no es un planteamiento hipotético, es una realidad que está presente aquí y ahora. La pregunta es cómo adaptarla para que, efectivamente, no sea sólo una manera de generar riqueza sino también permita (o por lo menos no imposibilite) el progreso social. El propósito no es detener los avances tecnológicos sino hacer un uso apropiado de ellos. Los sesgos, fallas y limitaciones de la IA son aspectos que pueden identificarse y corregirse pero ¿qué tan dispuestos estamos a hacerlo[13]? A partir de los potenciales costos sociales implicados en el uso de IA, han surgido varias organizaciones, como Big Brother Watch y The Institute for Ethical AI & Machine Learning  en Reino Unido, cuyos objetivos incluyen diseñar prácticas éticas tanto de IA como de ML. En algunos países se ha trabajando en conjunto con el poder legislativo con la finalidad de reglamentar y adoptar principios que logren proteger los derechos y libertades de los usuarios.

 

Autor:  Michelle Cazar, consultora

 

Bibliografía:

https://theactuarymagazine.org/the-ai-revolution-is-coming/

https://www.mckinsey.com/industries/financial-services/our-insights/insurance-2030-the-impact-of-ai-on-the-future-of-insurance

https://www.cnbc.com/2020/06/04/apple-co-founder-steve-wozniak-people-not-tech-must-fix-inequality.html

https://www.diva-portal.org/smash/get/diva2:1327295/FULLTEXT02

[1] https://www.statista.com/statistics/941137/ai-investment-and-funding-worldwide/

[2] https://www.globenewswire.com/en/news-release/2021/05/04/2221983/28124/en/Global-Insurance-Industry-Almanac-2021-Market-Share-Market-Size-Value-2016-20-and-Forecast-to-2025.html

[3] https://www.accenture.com/fr-fr/_acnmedia/36dc7f76eab444cab6a7f44017cc3997.pdf

[4] http://www.jicrjournal.com/gallery/8-jicr-november-2017.pdf

[5] Segmentando mejor a los consumidores

[6] https://www.lemonade.com/blog/zero-to-100/

[7] https://www.vox.com/recode/22455140/lemonade-insurance-ai-twitter

[8] https://www.technologyreview.com/2017/10/03/241956/forget-killer-robotsbias-is-the-real-ai-danger/

[9] https://reports.weforum.org/global-gender-gap-report-2020/the-future-of-gender-parity/

[10] https://www.wsj.com/articles/new-york-regulator-probes-unitedhealth-algorithm-for-racial-bias-11572087601

[11] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[12] https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212

[13] https://www.technologyreview.com/2017/07/12/150510/biased-algorithms-are-everywhere-and-no-one-seems-to-care/



Author: ACTUARIA
Gestionamos servicios actuariales y de consultoría empresarial, en base a estándares de calidad y en forma oportuna, mejorando continuamente nuestros procesos, para satisfacer las necesidades de nuestros clientes.

Deja una respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.