Inovação

O que o projeto de lei da IA pode antecipar para o mercado de seguros?

Proposta de regulação da IA amplia o debate sobre questões que envolvem decisões algorítmicas e pode atingir processos de precificação, análise de sinistros e modelos preditivos usados por seguradoras e insurtechs.
O que o projeto de lei da IA pode antecipar para o mercado de seguros?

O projeto de lei 2338/2023, que busca estabelecer diretrizes para o uso da inteligência artificial no Brasil, fez transparecer as fissuras que existem entre a inovação e a regulação. Desde que chegou à Câmara dos Deputados, após aprovação no Senado, o texto tem sido contestado por parte da indústria nacional, que se diz excluída de um debate dominado por grandes empresas de tecnologia. O argumento principal é de que a proposta foi escrita com a mentalidade de quem cria softwares e serviços digitais, não de quem usa a IA em processos industriais ou corporativos. Essa diferença de perspectiva lança uma pergunta ainda não formulada com clareza pelo setor de seguros: se até cadeias produtivas, que operam com máquinas e dados técnicos, temem ser enquadradas em classificações de risco e obrigações de responsabilidade solidária, o que esperar de um mercado em que a própria decisão de indenizar ou negar um sinistro pode ser automatizada?

Os novos contornos do risco

O texto do PL define três níveis de risco — excessivo, alto e limitado — para classificar sistemas de IA e determinar exigências de segurança, transparência e governança. O enquadramento pode parecer restrito a soluções voltadas ao consumidor, como chatbots e geradores de conteúdo, mas é justamente esse recorte que preocupa outros setores. No caso das seguradoras, a linha é tênue. Modelos que cruzam dados comportamentais para ajustar preços, prever fraudes ou estimar probabilidades de sinistro lidam diretamente com decisões que afetam pessoas, mesmo sem contato humano aparente. Em um cenário de regulação mais rígida, tais modelos poderiam ser classificados como de “alto risco”, exigindo comprovação de confiabilidade, relatórios de impacto e rastreabilidade das decisões. A partir desse quadro, a pergunta a ser feita é: quantas soluções de IA, hoje em uso nas seguradoras, estão preparadas para responder a um nível de escrutínio compatível com a responsabilidade que exercem?

Responsabilidade solidária e a cadeia securitária

Um dos pontos mais sensíveis do projeto é a previsão de responsabilidade solidária entre desenvolvedores e aplicadores da IA. A medida, inspirada no Código de Defesa do Consumidor, amplia a noção de corresponsabilidade para um número muito maior de situações do que o modelo europeu. Para os seguros, isso abre um campo de incertezas. Um sistema terceirizado que automatiza a análise de sinistros poderia transferir o risco jurídico para toda a cadeia, do fornecedor da tecnologia à seguradora que a utiliza. 

Se a IA errar uma decisão, quem responde?

Em um ambiente cada vez mais dependente de parcerias com insurtechs e startups de dados, o tema da responsabilidade tende a mudar contratos e políticas de governança. Se a IA errar uma decisão, quem responde? A seguradora, por tê-la adotado? A startup, por tê-la desenvolvido? Ou o corretor, que interagiu com o cliente por meio do sistema? A legislação ainda não distingue essas zonas cinzentas e a ausência de clareza jurídica pode se tornar um novo tipo de risco operacional.

Governança algorítmica e o papel da regulação

As críticas da indústria à “importação” de um modelo europeu excessivamente detalhista também podem se aplicar ao seguro. Um excesso de regras técnicas tende a envelhecer rápido diante da velocidade da inovação, enquanto a falta delas deixa lacunas para interpretações subjetivas.

Entre um extremo e outro, há um caminho possível: construir uma governança algorítmica setorial, capaz de compatibilizar princípios éticos com flexibilidade operacional. No contexto segurador, isso pode significar a criação de comitês internos para validar modelos de IA, mecanismos de explicabilidade de decisões e auditorias periódicas sobre uso de dados sensíveis. Em certa medida, seria uma extensão do compliance já exigido pela Susep, agora voltado para algoritmos. Em outros termos, uma espécie de “seguro de integridade digital”.

A obsolescência como risco regulatório

O próprio debate em torno do PL da IA já levanta outro dilema: o risco de uma lei tornar-se obsoleta antes mesmo de ser aplicada. A analogia citada por especialistas — a da Receita Federal que, nos anos 1990, aceitava declarações de imposto de renda em disquete e resistiu ao CD — traduz bem o impasse. No campo dos seguros, o avanço da IA generativa e dos modelos preditivos segue em ritmo mais acelerado do que a capacidade institucional de compreendê-los. Uma norma excessivamente descritiva corre o risco de regular tecnologias que já terão sido substituídas quando a lei entrar em vigor. É preciso equilibrar segurança jurídica e plasticidade normativa (algo que o próprio mercado de seguros conhece bem).

O silêncio do setor nas consultas públicas

Segundo levantamento do centro Reglab, representantes da indústria foram responsáveis por apenas 1,1% das participações nas consultas públicas realizadas pela Câmara. A estatística não inclui o setor de seguros, mas é provável que a proporção seja semelhante ou até menor. Essa ausência de voz institucional é, em si, um dado preocupante. O mercado segurador tem forte interseção com o tema, pois a IA já participa de decisões que envolvem risco, indenização e privacidade de dados. Deixar de participar do debate regulatório pode significar aceitar passivamente um conjunto de obrigações futuras sem adequação prévia.

O futuro sob hipótese

O PL da IA ainda percorre as etapas legislativas e pode sofrer mudanças substanciais, mas a direção, até o momento, segue um fluxo em que o Estado quer estabelecer limites para a autonomia das máquinas e mecanismos de reparação para os erros que elas inevitavelmente cometerão. Tratando dos seguros, essa discussão toca em um ponto paradoxal: o mesmo mercado que protege contra riscos começa a lidar com os riscos criados por suas próprias ferramentas de previsão. Está claro que a regulação da IA ainda não fala diretamente ao seguro, mas tudo indica que em breve o fará. E, quando isso acontecer, a linha entre o risco segurado e o risco algorítmico talvez já não seja tão clara.

Postado em
6/11/2025
 na categoria
Inovação
Deixe sua opinião

Mais sobre a categoria

Inovação

VER TUDO