Deepfake para fins antidemocráticos é desafio para a sociedade, aponta advogado

Deepfakes provocam uma disrupção em matéria de direito à imagem e trazem efeitos sensíveis em relação à reconstrução póstuma da imagem de uma pessoa atacada. Além disso, o maior problema – e um desafio para toda a sociedade – é a utilização de deepfakes para fins antidemocráticos, especialmente em períodos eleitorais.

A preocupação foi compartilhada pelo advogado Filipe Medon, doutorando e mestre em Direito Civil pela Universidade do Estado do Rio de Janeiro (UERJ), em entrevista ao DJ. Deepfake é uma tecnologia que utiliza a inteligência artificial para criar vídeos falsos, mas realistas, de pessoas fazendo coisas que elas nunca fizeram. A técnica permite montagens de vídeos que afetam diretamente a imagem e personalidade das pessoas.

Medon vai participar, no próximo dia 17, de um webinar promovido pela 35ª Subseção da Ordem dos Advogados do Brasil (OAB) Limeira, por meio da Comissão do Direito do Consumidor. O tema será “Inteligência Artificial e o Direito do Consumidor”. O evento, que é gratuito, acontece pela plataforma Zoom, no dia 17 de agosto, às 19h, por meio do link: https://oabsp-org-br.zoom.us/j/84471188922.

Confira a entrevista concedida por Medon ao DJ:

A tecnologia é um fenômeno relativamente novo no Direito, uma área de conhecimento marcado pelo tradicionalismo e por uma evolução de conceitos que perpassou séculos. E em relação à inteligência artificial, como se deu esse embate entre a novidade e a tradição?
Apesar de o surgimento da Inteligência Artificial datar do século passado, foi somente na última década que o Direito passou a se preocupar mais intensamente com suas repercussões.

Esse embate entre novidade e tradição ainda está sendo travado e em diversos campos temos percebido que os ordenamentos jurídicos não trazem as respostas que precisamos. Quem poderia pensar que hoje um robô seria capaz de criar uma obra de arte? Como ficam os direitos autorais?

Em obra que escreveu, o sr. constrói uma proposta para o tratamento jurídico dos danos causados pela inteligência artificial. Do que se trata, resumidamente, esta proposta?
No meu livro “Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade”, cuja segunda edição será lançada em setembro pela editora Juspodivm, fiz uma análise de danos causados por diversas tipologias de Inteligência Artificial, o que me permitiu concluir que, em verdade, não há um único regime de Responsabilidade Civil aplicável.

E a razão é muito simples: se há diferentes Inteligências Artificiais e se elas operam em graus de autonomia distintos em relação ao ser humano, não há como se eleger abstratamente um único regime: é preciso considerar aquele dano em concreto e os sujeitos envolvidos para saber se aplicamos o regime objetivo, subjetivo ou a sistemática do CDC em toda a sua extensão.

A inteligência artificial também traz avanços ao direito. Quais são eles?
Poderíamos elencar, por exemplo, os avanços nos Tribunais. Hoje, diversos Tribunais ao redor do mundo já contam com sistemas de Inteligência Artificial capazes de realizar uma série de atos que agilizam e conferem maior eficiência ao Judiciário.

Os próprios Tribunais Superiores do Brasil já se valem disso e há uma grande expectativa de que a tecnologia auxilie na efetivação da duração razoável do processo.

O mesmo se passa em relação à advocacia, que hoje já conta com ferramentas muito interessantes, como é o caso daquelas que sugerem minutas de petições e realizam jurimetria. No entanto, é preciso ter cuidado, porque como toda tecnologia em desenvolvimento, há incontáveis riscos de danos.

Em relação às deepfakes, a legislação brasileira tem mecanismos para responsabilizar a violação ao direito de imagem em um espaço tão amplo e de liberdade como é a internet e a troca de mensagens via aplicativos?
Nesse ponto, me parece que tanto o Código Civil, como principalmente o Marco Civil da Internet e a Constituição, já fornecem mecanismos úteis para a tutela do direito à imagem na rede.

Existe, no entanto, uma sensível discussão quanto ao artigo 19 do Marco Civil da Internet, já que este condiciona a responsabilização das plataformas ao descumprimento de uma ordem judicial de retirada do conteúdo. Para muitos, o fato de as vítimas terem que aguardar uma ação judicial para verem a supressão do conteúdo seria extremamente gravoso.

Como a jurisprudência brasileira tem decidido a respeito da responsabilidade civil das big techs em relação ao fenômeno das deepfakes?
Em relação às deepfakes, ainda não há decisões judiciais com grande repercussão. Mas esse é um campo fecundo para discussão, porque as deepfakes provocam uma disrupção em matéria de direito à imagem.

Como eu afirmei num artigo publicado na Revista Brasileira de Direito Civil (“O direito à imagem na Era das Deepfakes”), elas permitem a imortalidade do ineditismo e há efeitos muito sensíveis em relação à reconstrução póstuma da imagem de uma pessoa.

No entanto, não há dúvidas de que o maior problema está associado à utilização de deepfakes para fins antidemocráticos, especialmente em períodos eleitorais.

A inteligência artificial é positiva ou negativa para a proteção de dados pessoais, nos parâmetros estabelecidos pela Lei Geral de Proteção de Dados (LGPD)? O que falta avançar na legislação neste ponto?
Hoje não é mais possível se pensar em Inteligência Artificial sem a necessária salvaguarda da proteção aos dados pessoais, já que estes são parte do combustível essencial ao funcionamento dessas novas ferramentas tecnológicas.

Mas ainda precisamos avançar bastante neste ponto, especialmente tendo em vista que o Brasil, na contramão do mundo, suprimiu do artigo 20 da LGPD o direito à revisão das decisões automatizadas por pessoa natural.

E isso traz um ônus considerável aos titulares de dados pessoais, que a cada dia mais veem aspectos centrais de suas vidas sendo condicionados a decisões tomadas por sistemas automatizados que se valem de Inteligência Artificial e, não raro, cometem desvios até mesmo discriminatórios e ilícitos.

Foto: Reprodução

Deixe uma resposta

Your email address will not be published.

error: Conteúdo protegido por direitos autorais.