Nos últimos anos, os deepfakes, aqueles vídeos, áudios e imagens criados por inteligência artificial que parecem mais reais do que muita filmagem verdadeira, começaram a se espalhar como nunca. Hoje, qualquer pessoa com um celular e alguns cliques consegue “inventar” um acontecimento que nunca existiu. Essa facilidade virou um enorme desafio para o jornalismo. Afinal, se até o que vemos pode ser mentira, como confiar no que chega até nós?
Para entender isso de forma bem simples, vamos tentar imaginar a rotina de um jornalista. Antes, ele precisava confirmar se um fato realmente aconteceu, conversando com pessoas, checando documentos, ouvindo versões. Agora, além de tudo isso, ele precisa descobrir se aquele vídeo que parece tão convincente não foi criado por uma máquina. É como se, de um dia para o outro, a própria imagem tivesse deixado de ser prova. Agora, precisa checar se o próprio vídeo do fato não foi inventado do zero por uma IA. É como se, além de checar a história, a imprensa precisasse checar a câmera que registrou a história.
Essa confusão abre espaço para notícias falsas extremamente convincentes. Um político pode aparecer “falando” algo que nunca disse. Uma pessoa comum pode “surgir” em um vídeo que nunca gravou. Uma celebridade pode ser colocada em situações inexistentes. E, quando isso circula rápido, a mentira ganha força antes mesmo de ser desmentida.
O resultado? A credibilidade da mídia acaba sofrendo. As pessoas começam a desconfiar até das notícias verdadeiras, porque já não conseguem diferenciar o que foi registrado do que foi manipulado. Para enfrentar isso, as redações têm sido obrigadas a investir em novas tecnologias, em especialistas e em processos cada vez mais cuidadosos para detectar conteúdos adulterados. Verificar fontes não basta, agora é preciso verificar pixels.
Mas esse problema não atinge apenas jornais e repórteres. Ele atinge pessoas. Quando um conteúdo falso viraliza e coloca alguém em situação negativa, o dano é real: reputação destruída, perda profissional, conflitos familiares e grande desgaste emocional.
E é justamente aí que entra o papel jurídico. Quando um deepfake se transforma em uma falsa acusação ou em uma “notícia” inventada que prejudica alguém, a lei brasileira protege a vítima. O ordenamento garante o direito à honra, à imagem e à indenização quando ocorre abuso ou manipulação que cause dano. O advogado atua para que o conteúdo seja removido, que o responsável seja identificado e que os direitos da pessoa atingida sejam restabelecidos.
Em outras palavras: enquanto o jornalismo luta para preservar sua credibilidade, o cidadão precisa saber que não está desamparado quando a tecnologia é usada de forma maliciosa.
A IA não é a vilã. Ela pode ajudar a apurar fatos, identificar fraudes e melhorar a qualidade da informação. O problema está no uso irresponsável. Por isso, num cenário onde qualquer pessoa pode criar um “vídeo perfeito”, o jornalismo passa a ter uma missão dupla: informar e provar que aquilo é verdadeiro. E o cidadão passa a ter uma garantia essencial: se for vítima de um deepfake, a lei está do seu lado.
Num mundo em que enxergar já não garante que algo seja real, todos passam a ter um papel importante: a mídia precisa redobrar o cuidado, o público precisa olhar com mais atenção, e a lei precisa estar pronta para proteger quem for atingido quando uma mentira digital tenta se passar por verdade.
“Procure sempre um Advogado para saber os seus direitos.”
Andreia Paiva Monteiro
Advogada Especialista em Direito Previdenciário, Direito e Processo do Trabalho, Direito e Processo Civil, Direito Imobiliário, Contratos, Membro da Comissão de Conciliação e Mediação, Comissão de Direito Imobiliário, Subseção Mauá.
