Falhas no uso de inteligência artificial geram condenações

Dos pedidos de reparação em 140 ações, 64% foram aceitos

Luiza Calegari

O Judiciário tem garantido indenização por falhas no uso de inteligência artificial (IA). Levantamento do escritório TozziniFreire Advogados mostra que desde 2010, quando houve a primeira menção ao termo, 140 ações foram ajuizadas em busca de reparação e em 64% dos casos o pedido foi aceito em segunda instância.

O volume ainda é pequeno em relação ao mar de processos em tramitação no Judiciário. Mas especialistas da área cível destacam que a demanda vem aumentando e abrangendo temas cada vez mais diversificados.

O estudo do TozziniFreire Advogados não buscou, nos Tribunais de Justiça e Superior Tribunal de Justiça (STJ), apenas discussões de mérito envolvendo a inteligência artificial. Detectou acórdãos que mencionam o uso da IA em alguma etapa do andamento do processo. Foram localizadas 711 decisões. Além disso, 718 acórdãos citam a expressão como contexto geral, mas sem que a IA seja diretamente tratada no caso.

Só 140 decisões têm a inteligência artificial como causa de pedir e aprofundam o debate sobre o tema. Os Tribunais de Justiça que mais concentram processos sobre o tema são os de São Paulo (61 casos) e Rio Grande do Sul (49 casos).

Conforme explica Sofia Kilmar, sócia de contencioso do TozziniFreire, os temas mais recorrentes nesses processos são prevenção de fraudes financeiras, remoção de produtos que violam termos de uso de marketplace e adoção da IA para reconhecimento facial.

Até 2016, o único assunto levado ao Judiciário mencionando a IA era o de organização de conteúdos na internet. Só depois os temas começaram a se diversificar. Segundo Sofia Kilmar, 50 processos questionam mecanismos de busca e algoritmos usados no controle e restrição de uso das plataformas de tecnologia.

Uma decisão de 2021 do Tribunal de Justiça de Minas Gerais (TJMG), por exemplo, já mencionava o uso de IA nos processos de exclusão de contas de plataformas de tecnologia. “Sabe-se que diversas medidas adotadas em ambientes digitais advêm de decisões tomadas por máquinas mediante a aplicação de algoritmos”, afirma o acórdão em processo que questionava a suspensão da conta de uma empresa no WhatsApp.

Na ação, como o aplicativo não conseguiu justificar o motivo da exclusão do perfil nem a prévia notificação, a 16ª Câmara Cível concedeu tutela de urgência para ordenar o restabelecimento da conta no WhatsApp (processo nº 1.0000.20.597631-9/001).

Tipos diferentes de tecnologia, como algoritmos, IA generativa, reconhecimento facial, deep fakes e formas de automatização são tratados da mesma forma nos processos. “Não há, nas ações, distinção entre algoritmo e inteligência artificial, mas essa distinção também não está sendo feita no Projeto de Lei para regular o tema [PL nº 2.338, atualmente em tramitação na Câmara dos Deputados], e isso é proposital, deixar o conceito abrangente e analisar o nível de risco oferecido pela tecnologia”, explica Sofia Kilmar.

Outros 49 casos abordam fraudes bancárias. O único precedente do STJ trata desse assunto. Em decisão monocrática, a ministra Maria Thereza de Assis Moura não chegou a analisar o mérito do pedido feito pelo Banco Itaú, por aplicação da Súmula 7, o que teve o efeito de manter a decisão de segunda instância.

Nela, o Tribunal de Justiça de São Paulo (TJSP) entendeu que o banco possui conhecimento tecnológico suficiente para afastar práticas fraudulentas, “inclusive com utilização de inteligência artificial para detecção do perfil do consumidor e da transação realizada”. Foi determinada indenização por danos morais no valor de R$ 5 mil (processo nº 1010322-67.2018.8.26.0152).

O tema do reconhecimento facial só chegou ao Judiciário em 2021, mas desde então tem sido frequente em processos judiciais. Tertullyano Marques Sousa, responsável pela área de Privacidade e Proteção de Dados do Marcelo Tostes Advogados, aponta que o uso da tecnologia ainda apresenta desafios, como a falta de precisão no reconhecimento de rostos negros e a falta de transparência a respeito do armazenamento e uso dessas informações sensíveis.

“Existem muitas correlações entre o uso da inteligência artificial e a proteção de dados. Como a exigência de reconhecimento facial para operações cotidianas na prestação de serviços. Ela atende aos princípios de adequação e necessidade?”, questiona.

Um caso levado ao Tribunal de Justiça do Distrito Federal (TJDF), por exemplo, envolvia um motorista de aplicativo que foi desligado da plataforma porque o sistema de IA não reconheceu o rosto como sendo o mesmo da pessoa cadastrada.

Segundo a 2ª Turma Cível, no entanto, as partes concordaram, na assinatura do contrato, com a possibilidade de rescisão unilateral. “Não pode o Poder Judiciário impor a sua continuidade, sob pena de ofensa aos artigos 473, caput, 421 e 421-A, todos do Código Civil”, diz a decisão, que negou o pedido do motorista (processo nº 0707611-32.2021.8.07.0009).

Como ainda não há legislação específica sobre o tema, a grande maioria dos processos cíveis tem se apoiado no Código de Defesa do Consumidor (Lei nº 8.078, de 1991) e no Código Civil (Lei nº 10.406, de 2002). Mas o próprio PL 2.338 está se apoiando nas previsões dessas duas leis, aponta Sofia Kilmar, que já têm sua aplicação e jurisprudência consolidadas.

Apesar da diversificação e do crescimento, no entanto, o tema está longe do amadurecimento que outros países já atingiram, afirma Camilla Jimene, head do contencioso digital e sócia do escritório Opice Blum. Segundo ela, a maior dor de cabeça que a inteligência artificial dará para os legislativos e judiciários do mundo no futuro será relacionada à propriedade intelectual.

Até agora, poucos casos envolvendo direito de imagem chegaram ao Judiciário, mas o número tende a aumentar. Em outubro de 2024, por exemplo, o TJSP analisou o pedido de um locutor que alegava que um shopping usou sua voz em campanha publicitária sem autorização. O shopping, por sua vez, tinha dito que a peça foi produzida por inteligência artificial (processo nº 1119021-41.2023.8.26.0100).

Os desembargadores da 6ª Câmara de Direito Privado entenderam que havia possibilidade de cometimento de plágio e violação de direitos de personalidade, uma vez que “tecnologias de IA se servem de bancos de dados prévios”. Assim, o colegiado anulou a sentença, que tinha negado o pedido do locutor, e ordenou a produção de prova pericial.

Segundo Camilla Jimene, esse é o cerne da questão. “Para que ferramentas de IA generativa produzam conteúdos, elas precisam ser treinadas com conteúdos que já existem. É daí que as discussões e os litígios vão nascer”, afirma a especialista.

Ela acredita que essa discussão não vai demorar para chegar aqui porque as grandes empresas de tecnologia costumam usar o Brasil como sede de apoio para atuação em toda a América Latina. E, quando chegar, deve haver desigualdades nas condições de julgamento em diferentes locais e instâncias.

“Na esfera cível, os juízes podem nomear peritos forenses computacionais, escolhendo profissionais no mercado. Na esfera criminal, no entanto, a perícia depende dos institutos de criminalística, e aí depende de cada Estado conseguir se estruturar com ferramentas e capacitação para poder trabalhar com esse assunto”, diz

Essa discrepância ganha ainda mais relevância diante do fato de que o uso de IA também terá repercussões penais significativas, aposta Camilla Jimene. “Nós ainda não chegamos na camada mais profunda do debate sobre inteligência artificial.”

Fonte: Valor Econômico, 28 de abril de 2025

Share on twitter
Share on facebook
Share on linkedin
Share on email
Podemos ajudar?