Inteligência artificial no direito: riscos, limites e adaptação institucional

A incorporação da inteligência artificial em processos decisórios está mudando algumas práticas no direito e exigindo revisões em temas como responsabilidade civil, proteção de dados e ética. Com sistemas cada vez mais presentes na análise de contratos, na gestão de riscos e na automação de decisões, o debate jurídico tem ampliado seu foco ao considerar temas fora dos limites da técnica normativa, especialmente aqueles relacionados à governança das organizações.
Essa ampliação do debate jurídico ajuda a orientar a análise sobre como a inteligência artificial vem se inserindo nas relações jurídicas e nas estruturas de governança das organizações. A partir desse recorte, o Insurtalks Cast nº36 recebeu Danielle Djouki, diretora jurídica da FF Seguros, cuja atuação reúne direito empresarial, compliance e governança corporativa, acompanhando de perto a incorporação tecnológica no setor.
Um campo jurídico em adaptação
Durante a conversa, Daniele explicou que o direito, historicamente, reage às transformações sociais e econômicas, mas enfrenta dificuldades quando a velocidade tecnológica supera os ritmos legislativos. Para a executiva, novas formas de negócios e de relações interpessoais surgem antes que normas específicas estejam plenamente estruturadas. Segundo ela, esse descompasso impõe desafios regulatórios que não se restringem ao Brasil. A diretora jurídica observa que Estados Unidos e países europeus também enfrentam incertezas semelhantes, sobretudo quando se trata de responsabilizar juridicamente decisões apoiadas por sistemas automatizados.
Ética, dados e vieses
Entre os pontos de maior atenção, Daniele destaca a dimensão ética associada ao uso da inteligência artificial. “Um grande risco que nós temos é justamente os sistemas de IA poderem perpetuar preconceitos, dependendo dos vieses que estão por trás dos algoritmos”, afirmou. O problema, segundo ela, está no potencial de reprodução de desigualdades sociais e econômicas já presentes nos dados utilizados para treinamento dos sistemas.
Ela também chama atenção para a qualidade das bases informacionais. Para Daniele, a inteligência artificial “aprende com os dados disponíveis”, o que exige organização, consistência e governança dessas informações para evitar decisões distorcidas ou frágeis do ponto de vista jurídico.
Transparência e decisões automatizadas
A transparência dos algoritmos foi outro aspecto levantado durante o bate-papo Daniele alerta para o risco de decisões tomadas a partir de sistemas cuja lógica interna não é plenamente compreendida. “A gente pode estar diante de uma verdadeira caixa preta, que dificulta a compreensão de como as decisões são tomadas”, afirmou.
Na avaliação da diretora jurídica, essa opacidade levanta questionamentos sobre responsabilidade e prestação de contas, especialmente em situações que envolvem impactos relevantes para pessoas físicas ou empresas.
Responsabilidade civil em debate
Quando sistemas automatizados cometem erros, a definição de responsabilidades ainda é um ponto sensível. Daniele cita exemplos internacionais em que falhas de inteligência artificial resultaram em prejuízos financeiros e disputas judiciais prolongadas, dificultadas pela ausência de regras claras. Para ela, o dilema central está em identificar quem responde pelo erro: o desenvolvedor da tecnologia, o usuário do sistema ou o detentor dos direitos econômicos da solução. Esse impasse reforça a necessidade de amadurecimento regulatório e de contratos mais bem estruturados.
Referências regulatórias e princípios
Ao comentar experiências internacionais, Daniele destaca o regulamento europeu sobre inteligência artificial, que entrou em vigor em 2024. A norma estabelece princípios como proteção de direitos fundamentais, avaliação baseada em risco, transparência, governança e segurança dos dados. Na visão da executiva, esses fundamentos ajudam a equilibrar automação e responsabilidade humana, oferecendo parâmetros que podem orientar empresas e reguladores em outros países.
O setor de seguros e a governança jurídica
No mercado segurador, a presença da inteligência artificial já é perceptível em áreas como subscrição, análise de risco e regulação de sinistros. Para Daniele, esse avanço exige atenção redobrada à Lei Geral de Proteção de Dados, às práticas de compliance e à formação de bases informacionais confiáveis.
Ela explica que, na FF Seguros, o jurídico atua de forma integrada aos projetos tecnológicos, acompanhando desde o desenvolvimento até a implementação, com o objetivo de assegurar alinhamento ético e normativo.
Um novo papel para o jurídico
Ao final da conversa, Daniele defende uma mudança na atuação tradicional do departamento jurídico. Em vez de operar apenas como instância de veto, a área passa a assumir um papel de parceria com os negócios. “É muito fácil falar não. O desafio está em como falar sim, ajudando a fazer negócio de forma segura”, afirmou. Para a executiva, a convivência entre inteligência artificial e trabalho humano exige capacitação contínua, abertura cultural e valorização de competências como julgamento crítico, ética e relacionamento interpessoal. Esses atributos, de acordo com ela, permanecem indispensáveis mesmo em ambientes altamente automatizados.



.gif)
%20(3).gif)


.gif)





%20(1).gif)


%20(1).gif)
.gif)
.gif)

.gif)

.gif)
.gif)
.gif)



.gif)
%20(3).gif)


.jpg)



.gif)
.gif)

.gif)
.jpg)
%20(6).gif)



.gif)


.gif)

.gif)









.png)
.png)







.png)