A ascensão da IA nos seguros – uma faca de dois gumes

s avanços na captura e armazenamento de dados disponibilizam mais informações sobre os consumidores do que nunca. Desde a telemática que rastreia o comportamento de condução até a mídia social que cria uma pegada digital que pode oferecer insights sem precedentes, novas fontes de dados agora são capazes de produzir perfis altamente individualizados de risco do cliente.
As seguradoras estão usando cada vez mais Inteligência Artificial (IA) e aprendizado de máquina para gerenciar fluxos de trabalho manuais e de baixa complexidade, aumentando drasticamente a eficiência operacional. Também por trás da ascensão do seguro com inteligência artificial está a capacidade de prever com maior precisão as perdas e o comportamento de seus clientes. Algumas seguradoras dizem que isso também lhes dá mais oportunidade de influenciar o comportamento e até impedir que sinistros aconteçam.
No entanto, existe o risco de que essa nova maneira de fazer as coisas possa realmente criar injustiça e até mesmo minar o modelo de partilha de riscos que é fundamental para o setor, impossibilitando que algumas pessoas encontrem cobertura? Afinal, a IA não é uma tecnologia agnóstica e, portanto, pode ser usada de maneira a reforçar os preconceitos de seus criadores. Como resultado, as seguradoras precisam ser especialmente sensíveis para garantir que desenvolvam e usem IA e machine learning de forma ética e gerenciem os dados de seus clientes com controles rígidos.
Quão ética é a IA?
A IA tornou-se parte integrante das operações diárias na maioria dos setores e pode ser creditada por condensar grandes quantidades de dados em algo mais utilizável. Mas, à medida que as empresas estão sob maior escrutínio público sobre como os algoritmos estão influenciando o comportamento corporativo, a questão de como aplicar eticamente o aprendizado de máquina e a IA é a principal preocupação dos líderes de seguros.
É importante lembrar que a IA realmente não raciocina; algoritmos não têm ética; eles são simplesmente algoritmos. Então, em vez de perguntar o quão ética é a IA de uma empresa, devemos perguntar até que ponto a ética é levada em consideração pelas pessoas que projetam a IA, alimentam-na com dados e a utilizam para tomar decisões.
Para questões de privacidade, as organizações são obrigadas a aderir ao regulamento GDPR, a estrutura legal europeia sobre como lidar com dados pessoais. Neste momento, no entanto, não há nada semelhante para lidar com a série de desafios éticos apresentados por essa rápida taxa de inovação em IA. A Lei de IA da UE, proposta pela primeira vez em 2021 e prevista para ser aprovada em 2024, é considerada a primeira regulamentação internacional do mundo para a IA. Assim, embora vários atos legislativos estejam sendo preparados, ainda há áreas cinzentas com as empresas que precisam confiar em diretrizes de alto nível que podem deixar espaço significativo para interpretação. Portanto, pelo menos por enquanto, a responsabilidade recai principalmente sobre empresas, organizações e sociedade para garantir que a IA seja usada de forma ética.
O valor da aplicação de uma estrutura ética clara deve ser considerado um componente essencial para a adoção e extração de valor bem-sucedidas.
Com o aprendizado de máquina continuando a gerar valor adicional significativo em todos os seguros, o valor de aplicar uma estrutura ética clara deve ser considerado um componente essencial para a adoção e extração de valor bem-sucedidas. Além da transparência, os principais componentes da própria estrutura ética da WTW, por exemplo, incluem responsabilidade e justiça – compreensão, medição e mitigação de preconceitos – dos modelos e sistemas em como eles operam na prática, além de como são construídos, e excelência técnica para garantir que os modelos e sistemas sejam confiáveis e seguros, proporcionando privacidade e segurança desde o projeto.
Transparência
Embora as seguradoras já estivessem em uma jornada digital e produtos inovadores antes do COVID-19, a pandemia certamente acelerou algumas dessas transformações. Além dos fatores mais recentes de crescente incerteza nos mercados globais e alta inflação, a evolução das demandas dos clientes vem exercendo uma enorme pressão sobre o setor para que se transforme rapidamente.
Para responder às expectativas dos clientes de velocidade e conveniência, com produtos e serviços adaptados a eles e experiências equivalentes às de outros lugares da vida e on-line, as seguradoras estão tendo que inovar mais rapidamente com a tecnologia de IA se tornando cada vez mais um componente e uma função obrigatória para aumentar suas atividades de gerenciamento de risco. O uso crescente de IA na tomada de decisões que afetam nossas vidas diárias também exigirá um nível de transparência explicável para funcionários e clientes.
Dados os imensos volumes e diversas fontes de dados, o valor real da IA e do Machine Learning é melhor alcançado ao tomar decisões inteligentes em escala sem intervenção humana. No entanto, essa capacidade, uma vez alcançada, dá origem à percepção de uma 'caixa preta' onde a maioria do pessoal de negócios não entende completamente por que ou como uma determinada ação foi tomada pelo modelo preditivo. Isso ocorre porque, à medida que as empresas aproveitam mais os dados e os tipos de análises e modelos que elas constroem se tornam mais complexos, um modelo se torna mais difícil de entender. Isso, por sua vez, está gerando uma demanda crescente pela 'explicabilidade' dos modelos e uma maneira mais fácil de acessar e entender os modelos, inclusive do ponto de vista de um regulador.
A questão de como aplicar eticamente o aprendizado de máquina e a IA é a principal preocupação dos líderes de seguros.
A IA transparente pode ajudar as organizações a explicar as decisões individuais de seus modelos de IA para funcionários e clientes. Com a decisão do GDPR que entrou em vigor recentemente, também há pressão regulatória para fornecer aos clientes informações sobre como seus dados estão sendo usados. Se um banco usar um modelo de IA para avaliar se um cliente pode obter um empréstimo e o empréstimo for negado, o cliente desejará saber por que essa decisão foi tomada. Isso significa que o banco deve ter uma compreensão completa de como seu modelo de IA chega a uma decisão e ser capaz de explicar isso em linguagem clara.
Percebendo o potencial da IA
As oportunidades para preços mais sofisticados e impacto imediato no P&L nunca foram melhores. Buscar sofisticação de preços pode permitir mudanças transformadoras em direção a análises avançadas, automação, novas fontes de dados e a capacidade de reagir rapidamente a ambientes de mercado em mudança.
Dados externos podem ajudar as seguradoras a entender melhor os riscos que estão subscrevendo. Com uma visão completa do motorista e do veículo, as seguradoras de automóveis podem avaliar melhor os riscos e detectar fraudes. Ao inserir dados externos em modelos analíticos, eles podem cotar com mais precisão e atrair perfis de risco desejáveis pelo preço certo. O investimento em IA também pode permitir que uma seguradora aprimore ainda mais a experiência do cliente durante todo o ciclo de vida da apólice – desde a simplificação no momento da cotação até o processamento de sinistros mais rapidamente.
A demanda por IA transparente e responsável é, obviamente, parte de um debate mais amplo sobre a ética da empresa. Quais são os valores centrais de uma seguradora, como eles se relacionam com seus recursos tecnológicos e de dados e quais estruturas e processos de governança eles possuem para acompanhá-los? Em última análise, para que a IA tenha o maior impacto, ela precisa ter a confiança do público.
A IA transparente pode ajudar as organizações a explicar as decisões individuais de seus modelos de IA para funcionários e clientes.