Google enfrenta processo por uso indevido de tecnologia de imagem e caso levanta discussão sobre questões éticas no setor de seguros

Disputa judicial entre Google e Universidade da Califórnia alerta para limites no uso da imagem
A Universidade da Califórnia (USC) processou o Google nos Estados Unidos, alegando uso indevido de uma tecnologia de processamento de imagens criada por um de seus professores, responsável por avanços que permitiram transformar imagens 2D em modelos 3D interativos, base de ferramentas como o Google Maps. Segundo a USC, o Google tinha conhecimento da patente desde 2007, quando chegou a premiar o projeto universitário que originou a tecnologia. A instituição pede indenização e proibição do uso da ferramenta por parte da empresa. Embora o caso pertença ao campo da tecnologia, ele desperta reflexões relevantes para o setor de seguros, que vem incorporando inteligência artificial em análises de risco e sinistros. A disputa ressalta a necessidade de equilibrar inovação, ética e respeito à propriedade intelectual considerando o cenário atual de digitalização.
IA e análise de imagens: um campo de oportunidades e riscos
Ferramentas de IA que utilizam reconhecimento e análise de imagens podem ser usadas para avaliar danos em veículos, imóveis e bens segurados. Contudo, a apropriação indevida de tecnologias ou a ausência de licenciamento adequado pode gerar graves consequências financeiras e legais, além de comprometer a reputação de seguradoras e insurtechs que dependem dessas soluções. Por esse motivo, é importante se atentar à legitimidade do uso de tecnologias e dados empregados nas operações.
Direitos de imagem e privacidade
A discussão sobre o uso indevido de imagens vai além da propriedade intelectual. No Brasil, a divulgação de fotografias ou vídeos sem autorização prévia – seja em redes sociais, sites ou campanhas publicitárias – já pode ser considerada uma violação, mesmo que o conteúdo não seja ofensivo ou depreciativo. De acordo com a Súmula 403 do Superior Tribunal de Justiça (STJ), a exposição não autorizada da imagem de uma pessoa gera direito à indenização por danos morais, independentemente da comprovação de prejuízo material. No entanto, o valor e a concessão da reparação variam conforme o caso concreto, levando em conta fatores como a gravidade da exposição, o contexto da divulgação, o grau de responsabilidade do autor e o impacto sobre a vítima. Esse entendimento reforça a importância de respeitar a privacidade e o consentimento no uso de imagens, sobretudo em um cenário em que tecnologias de inteligência artificial e reconhecimento visual ampliam o alcance e o potencial de exposição de dados pessoais.
Responsabilidade civil e LGPD: bases para a ética no setor de seguros
Conforme uma matéria do portal Legale, a proteção da imagem é um direito fundamental ligado à privacidade e à dignidade da pessoa, aplicável também aos ambientes digitais e corporativos. Quando ocorre a divulgação indevida de uma imagem, configura-se um ato ilícito, passível de responsabilidade civil e indenização. De acordo com o Código Civil, cabe reparação sempre que houver dano moral, como a violação da personalidade ou constrangimento público, ou dano material, quando há prejuízo financeiro direto, como perda de oportunidades profissionais. No mercado de seguros, o uso de imagens em vistorias e perícias automatizadas deve obedecer aos princípios da Lei Geral de Proteção de Dados (LGPD), que exige consentimento, finalidade específica e segurança da informação. Vazamentos ou uso indevido de dados podem representar negligência corporativa, sujeitando seguradoras a sanções e danos reputacionais. A LGPD busca evitar práticas como discriminação na renovação de apólices ou o uso indevido de informações médicas em estratégias de marketing. Assim, o respeito às normas de transparência e necessidade é essencial para preservar a confiança e a integridade do setor.
Governança tecnológica e transparência
A adoção de tecnologias de IA deve estar acompanhada de auditorias técnicas, cláusulas contratuais específicas com fornecedores e capacitação jurídica dos times envolvidos. Essa prática assegura que os algoritmos e bancos de dados utilizados sejam transparentes, éticos e legalmente validados. A confiança é o ativo mais valioso do mercado de seguros. Para mantê-la, é preciso que as seguradoras e insurtechs adotem modelos transparentes de inovação, nos quais o uso de dados e imagens sejam claros o suficiente e estejam alinhados às normas legais. Essa postura fortalece a relação com o cliente e evita litígios que possam atrasar avanços nas empresas.
Usar dados requer responsabilidade
O processo movido contra o Google simboliza o confronto entre o avanço tecnológico e os limites éticos que sustentam a confiança digital. À medida que o setor de seguros amplia o uso de inteligência artificial e análise de imagens para agilizar processos e aprimorar experiências, surge a necessidade de aliar inovação à responsabilidade. Em um contexto digital cada vez mais guiado por dados, o respeito à propriedade intelectual, à privacidade e à transparência no uso de informações deve ser tratado como prioridade, e não apenas como obrigação legal. Para o mercado segurador, o aprendizado consiste em inovar com uso de tecnologia, mas de forma consciente. Somente ao construir uma cultura de governança e conformidade, as empresas poderão transformar a IA em um instrumento que otimiza processos, sem perder de vista a credibilidade, sustentabilidade e a proteção de fato.



%20(1).gif)

.gif)
.gif)


%20(3).gif)


%20(1).gif)



.gif)



.gif)


%20(3).gif)


.gif)




.gif)

.gif)
%20(6).gif)

.gif)
.gif)







.gif)
.gif)

.png)














