Alerta máximo! Deepfakes ameaçam a segurança e a democracia
Os deepfakes são uma forma avançada de manipulação de mídia que utiliza inteligência artificial para criar conteúdo falsos que parecem autênticos. Esta tecnologia representa uma ameaça significativa à segurança cibernética, à reputação de indivíduos e empresas, e até mesmo à integridade dos processos democráticos.
O que são deepfakes?
Manipulações digitais sofisticadas que utilizam inteligência artificial (IA), os deepfakes substituem rostos ou vozes em vídeos, criando conteúdos que parecem autênticos à primeira vista. Eles conseguem enganar até os olhos mais atentos. Exemplos incluem a criação de perfis falsos em redes sociais para phishing e a geração de áudios falsos para burlar a biometria vocal.
Tipos de deepfakes
Existem diversas variantes, cada uma com suas próprias aplicações e riscos:
- Deepfake de texto: utiliza processamento de linguagem natural para simular textos escritos por pessoas reais, induzindo à crença de que são genuínos.
- Deepfake de redes sociais: cria perfis falsos para aplicar golpes como phishing, destacando a necessidade de defesas cibernéticas robustas.
- Deepfake de voz: produz áudios falsos para enganar sistemas de biometria vocal ou espalhar informações falsas.
- Deepfake de vídeo: utiliza IA avançada para criar vídeos realistas substituindo rostos ou corpos em cenas.
- Deepfake em tempo real: altera faces em transmissões ao vivo, como em noticiários, implicando em crimes como falsidade ideológica.
Crescimento dos deepfakes no Brasil
Deepfakes cresceram 830% em um ano no Brasil, aponta relatório. Em sua terceira edição, o relatório anual Sumsub Identity Fraud Report trouxe uma análise detalhada das fraudes digitais em 224 países e territórios, revelando um cenário preocupante para o Brasil. Enquanto o país ocupa o último lugar na taxa geral de fraude de identidade na América Latina, registrou o maior aumento regional, com um alarmante crescimento de 830% entre 2022 e 2023.
A tecnologia por trás dos deepfakes
Criados através de redes neurais que analisam e replicam padrões faciais e vocais. Quanto mais dados forem fornecidos, mais realista será o resultado. Segundo a professora da USP, Giselle Beiguelman, “Quando as imagens estão nesse sistema de programação de redes neurais, um núcleo tenta enganar o outro. […] A imagem é então reformulada até chegar a um ponto em que o sistema aceita aquela imagem como real”.
Desafios e impactos
Essa técnica de manipulação de conteúdo, que utiliza inteligência artificial para criar vídeos e imagens falsas, representa um dos principais desafios na segurança digital. Giselle admite que há falhas, mas quanto mais o sistema erra, mais aprende a reformular essas falhas. Em todo o continente, quase metade de todos os casos de deepfake detectados na América Latina ocorreram no Brasil. Os setores mais afetados incluem fintechs, criptomoedas e iGaming, evidenciando a vulnerabilidade dessas áreas à manipulação digital.
Fraudes e manipulações digitais
Dentre as principais fraudes detectadas, os deepfakes lideram, seguidos pela lavagem de dinheiro e a falsificação de carteiras de identidade, que constituem a maioria das atividades fraudulentas documentadas. Esses métodos são cada vez mais sofisticados, utilizando avanços em inteligência artificial para driblar medidas de segurança tradicionais. Vídeos deepfake entretêm e divertem, mas se usados com má intenção em contextos como guerra ou na política, representam um perigo. As imitações estão cada vez mais fiéis à realidade, e qualquer coisa dita por figuras públicas – os alvos mais comuns – pode ter consequências graves.
Legislação
Em fevereiro de 2024, o Tribunal Superior Eleitoral (TSE) aprovou 12 propostas de resolução que serão aplicadas nas eleições municipais deste ano, incluindo regras para o uso da Inteligência Artificial (IA) e a proibição do uso de deepfakes nas campanhas. Embora o Brasil tenha leis contra difamação e danos morais, e o Marco Civil da Internet traga determinações para a exclusão de conteúdo das redes sociais, não há uma legislação específica para deepfakes. Crimes cometidos utilizando essa tecnologia podem ser enquadrados em legislações existentes, que criminaliza a publicação não autorizada de imagens íntimas.
A Lei de Direitos Autorais (Lei 9.610/98) e a Lei de Proteção de Dados Pessoais (Lei 13.709/18) também podem ser aplicadas em casos de deepfakes prejudiciais. No entanto, a ausência de um tipo penal específico, demonstra a necessidade urgente de regulamentações claras que protejam os direitos individuais e a integridade da informação. Especialistas enfatizam a importância de aprimorar as regulamentações para combater fraudes digitais, especialmente nos setores mais vulneráveis, como a mídia online e serviços digitais.
Guilherme Terrengui, da Sumsub, destaca a necessidade urgente de regulamentações aprimoradas para combater esse tipo de fraude, especialmente nos setores mais visados como mídia online e serviços digitais. Com o aumento exponencial dos deepfakes, a segurança digital deve ser uma prioridade, incluindo medidas preventivas robustas e colaboração internacional para mitigar os riscos crescentes associados à manipulação de conteúdo digital.
Detecção e soluções tecnológicas
Novas tecnologias estão sendo desenvolvidas para detectar e mitigar os efeitos prejudiciais das manipulações digitais avançadas. Isso inclui o uso de algoritmos sofisticados de reconhecimento de padrões e técnicas baseadas em blockchain para garantir a autenticidade de conteúdos digitais. Exemplos dessas tecnologias incluem:
- Algoritmos de detecção baseados em IA: ferramentas avançadas de inteligência artificial são utilizadas para analisar vídeos e identificar sinais de manipulação, como inconsistências em movimentos faciais ou desajustes na iluminação.
- Blockchain para verificação de autenticidade: plataformas que utilizam blockchain registram a origem e as alterações de uma imagem ou vídeo, garantindo sua autenticidade e integridade.
- Análise forense de mídia: softwares de análise forense realizam exames detalhados de imagens e vídeos para detectar manipulações, examinando metadados, padrões de compressão e outras características.
- Verificação de identidade em tempo real: tecnologias de verificação de identidade ao vivo, integradas com ferramentas como o Amazon Rekognition, comparam imagens de vídeo em tempo real com dados biométricos armazenados para garantir que a pessoa apresentada seja real e não uma falsificação.
Riscos e desafios éticos
A criação e disseminação de deepfakes levantam questões éticas complexas, como violação da privacidade, difamação e desinformação. Vídeos falsos podem causar danos irreparáveis à reputação e resultar em fraudes financeiras. Empresas e indivíduos são frequentemente vítimas dessas manipulações, que podem criar conteúdo difamatórios ou comprometedores, prejudicando suas imagens e credibilidade.
Estratégias para combater conteúdos manipulados
Enfrentar os perigos dos deepfakes exige um esforço abrangente e colaborativo. Governos, empresas de tecnologia, sociedade civil e indivíduos devem unir forças para combater essa ameaça à segurança, à reputação e à democracia. Medidas essenciais incluem:
Fortalecimento da detecção: investir em pesquisas e tecnologias para identificar e remover conteúdos enganosos com mais precisão e eficiência.
Promoção da educação: educar o público sobre os perigos da desinformação, ensinando-o a discernir o real do falso e a ser crítico com as informações online.
Fortalecimento da segurança cibernética: implementar medidas de segurança robustas em plataformas online e dispositivos para prevenir a criação e disseminação de conteúdos falsos.
Estabelecimento de regulamentações: criar leis e políticas que regulem a criação e o uso desses conteúdos, protegendo os direitos individuais e a integridade da informação.
Colaboração global: incentivar a cooperação internacional para compartilhar conhecimentos, desenvolver estratégias conjuntas e combater a desinformação em escala global.
Lembre-se, a responsabilidade é de todos. Seja crítico com o que vê e ouve online, verifique os fatos e denuncie conteúdos falsos para as plataformas e autoridades competentes. Na dataRain, estamos comprometidos em promover a conscientização e desenvolver soluções tecnológicas para gerenciar esses riscos emergentes na era digital.
Gostou do Conteúdo?
Você pode falar com um de nossos especialistas do setor