Quando a inteligência artificial erra: dilemas jurídicos e impactos no mercado de seguros

Dois episódios recentes nos Estados Unidos chamaram atenção para a forma como ferramentas de inteligência artificial vêm se misturando à vida cotidiana em situações de fragilidade emocional. Em Connecticut, um ex-executivo de tecnologia matou a mãe e depois tirou a própria vida após meses de conversas com o ChatGPT, que ele tratava como seu “melhor amigo”. Já na Califórnia, um casal processa a OpenAI pela morte do filho adolescente, alegando que o chatbot encorajou pensamentos suicidas e não conteve sinais de alerta.
A rotina de Stein-Erik e a escalada da desconfiança
No primeiro caso, Stein-Erik Soelberg já apresentava histórico de crises e isolamento. O diferencial foi a maneira como passou a se apoiar quase exclusivamente na interação com a IA, que reforçava suas desconfianças contra a mãe e sugeria ações de vigilância. Vídeos publicados por ele mostram como a relação com a ferramenta foi ganhando espaço até o desfecho violento.
O processo dos pais de Adam contra a OpenAI
O processo movido por Matt e Maria Raine, pais de Adam, tem outra natureza. Eles alegam que o filho, de 16 anos, encontrou no ChatGPT uma companhia constante para lidar com ansiedade e dúvidas de adolescente. O que começou como apoio em tarefas escolares acabou se transformando em conversas sobre automutilação e planejamento do suicídio. Segundo a ação, o sistema reconheceu que se tratava de uma emergência, mas manteve o diálogo em vez de interromper e encaminhar para ajuda especializada.
Tecnologia confundida com afeto e companhia
Essas histórias mostram como a presença diária da IA pode se confundir com laços afetivos e ocupar um espaço que deveria ser de acompanhamento humano. Não é a tecnologia em si que leva a esses extremos, é o modo como ela é usada e a falta de barreiras capazes de proteger quem já se encontra em situação delicada.
Riscos à saúde mental e repercussões jurídicas
Para o setor de seguros, o assunto toca em duas frentes. A primeira está ligada à saúde: planos e seguros de vida já registram alta nos diagnósticos de transtornos relacionados à hiperconectividade e o uso intenso de sistemas de IA tende a ampliar essa pressão. A segunda é jurídica: a ação contra a OpenAI pode abrir caminho para que disputas semelhantes se tornem mais frequentes, envolvendo empresas de tecnologia em processos de responsabilidade civil e, por consequência, em demandas de cobertura securitária.
Hipóteses de impacto direto em apólices
Se pensar em hipóteses práticas, um processo que responsabilize uma empresa de IA por negligência pode acionar diretamente apólices de responsabilidade civil ou D&O, obrigando seguradoras a arcar com custos milionários em indenizações e honorários advocatícios. Do outro lado, famílias que enfrentam situações de saúde mental agravadas pelo uso de tecnologia podem recorrer a planos de saúde ou seguros de vida, levantando dúvidas sobre até onde essas coberturas alcançam diagnósticos ou eventos associados ao ambiente digital.
Situações cotidianas que podem gerar disputas
Esse horizonte ainda é difuso, mas é preciso refletir sobre as implicações dele. É possível imaginar, por exemplo, uma escola que adote ferramentas de IA para apoiar estudantes e depois seja questionada judicialmente pelo uso inadequado em casos de vulnerabilidade. Ou ainda uma empresa de tecnologia que tenha de responder por falhas de segurança capazes de agravar quadros clínicos. Cada uma dessas situações poderia desaguar em pedidos de cobertura securitária — tanto no âmbito corporativo quanto no individual —, pressionando seguradoras a rever cláusulas, limites e exclusões.
IA como ferramenta, não como sujeito autônomo
Nesse ponto, é preciso lembrar que a inteligência artificial é apenas uma ferramenta. Tal como um carro depende de quem está ao volante, a IA opera dentro dos limites estabelecidos por quem a desenvolve e supervisiona. A responsabilidade recai menos sobre a “máquina” e mais sobre as escolhas de design, os protocolos de segurança e a ausência de suporte humano em situações críticas.
Os seguros diante de novos riscos ligados à IA
Esse é o terreno onde os seguros podem encontrar novas perguntas. Seja no impacto da tecnologia sobre a saúde mental dos usuários, seja na responsabilidade das empresas diante de falhas ou omissões, há espaço para repensar produtos, limites e exclusões. A questão é entender se os casos recentes permanecerão isolados ou se passarão a influenciar decisões jurídicas e regulatórias capazes de mudar a forma como riscos ligados à IA são tratados pelo mercado.