deepfakes
Atualidade Cibersegurança

Desafios e Estratégias na Era dos Deepfakes: O Papel da Tecnologia e da Consultoria em Cibersegurança

Os deepfakes, tecnologia que utiliza inteligência artificial para criar vídeos ou áudios falsificados, continuam a evoluir a um ritmo impressionante, apresentando novos desafios e oportunidades para diversas áreas, desde o entretenimento até à segurança cibernética. Com mais de 4.000 partilhas, 20.000 comentários e 100.000 reações no Facebook, a foto da idosa sentada atrás do seu bolo de aniversário de 122 anos feito em casa, sem dúvida, tornou-se viral. “Comecei a decorar bolos desde os cinco anos de idade”, lê-se na legenda, “e mal posso esperar para continuar a minha jornada na pastelaria.”

deepfakes

A imagem é sem dúvida falsa. Se as velas curiosas – uma parece flutuar no ar, sem estar presa a nada – ou os estranhos amorfos no bolo em primeiro plano não denunciassem, então o facto de a celebrante ser a pessoa mais velha do mundo por quase cinco anos deveria.

Felizmente, as consequências para os decoradores de bolos supercentenários virais são baixas. O que é bom, uma vez que à medida que a inteligência artificial generativa se torna cada vez melhor, os dias de procurar sinais reveladores para detetar uma falsificação estão a chegar ao fim. E isso criou uma corrida contra o tempo: será que podemos descobrir outras formas de detetar deepfakes, antes que estas se tornem indistinguíveis da realidade?

“Estamos a ficar sem tempo para ainda podermos fazer deteção manual”, afirmou Mike Speirs, da consultoria de IA Faculty, onde lidera o trabalho da empresa contra a desinformação. “Os modelos estão a desenvolver-se a uma velocidade e ritmo que são incríveis do ponto de vista técnico e bastante alarmantes.”

“Há todo o tipo de técnicas manuais para detetar imagens falsas, desde palavras mal escritas, até à pele incongruentemente suave ou enrugada. As mãos são um clássico, e os olhos também são bastante reveladores. Mas mesmo hoje em dia, é demorado: não é algo que se possa verdadeiramente expandir. E o tempo está a esgotar-se – os modelos estão a ficar cada vez melhores.”

Desde 2021, o gerador de imagens da OpenAI, Dall-E, lançou três versões, cada uma radicalmente mais capaz do que a anterior. O concorrente independente Midjourney lançou seis no mesmo período, enquanto o modelo gratuito e de código aberto Stable Diffusion atingiu a sua terceira versão, e o Gemini do Google juntou-se à confusão. À medida que a tecnologia se tornou mais poderosa, também se tornou mais fácil de usar. A última versão do Dall-E está incorporada no ChatGPT e no Bing, enquanto o Google oferece as suas próprias ferramentas gratuitamente aos utilizadores.

As empresas de tecnologia começaram a reagir ao iminente dilúvio de conteúdos gerados. A Coligação para a Proveniência e Autenticidade de Conteúdos, que inclui entre os seus membros a BBC, Google, Microsoft e Sony, produziu padrões para marcas de água e etiquetagem, e em fevereiro a OpenAI anunciou que os adotaria para o Dall-E 3. Agora, as imagens geradas pela ferramenta têm uma etiqueta visível e uma marca de água legível por máquina. Na extremidade da distribuição, o Meta começou a adicionar as suas próprias etiquetas ao conteúdo gerado por IA e diz que removerá publicações que não estejam etiquetadas.

Essas políticas podem ajudar a lidar com algumas das formas mais virais de desinformação, como piadas internas ou sátiras que se espalham fora do seu contexto original. Mas também podem criar uma falsa sensação de segurança, diz Spiers. “Se o público se habituar a ver imagens geradas por IA com uma marca de água, isso significa que confiam implicitamente em qualquer uma que não tenha marca de água?”

deepfakes

Isso é um problema, uma vez que a etiquetagem está longe de ser universal – nem é provável que o seja. Grandes empresas como a OpenAI podem concordar em rotular as suas criações, mas startups como a Midjourney não têm capacidade para dedicar tempo de engenharia extra ao problema. E para projetos “open source”, como o Stable Diffusion, é impossível forçar a aplicação da marca de água, uma vez que é sempre uma opção simplesmente “bifurcar” a tecnologia e construir a sua própria.

E ver uma marca de água não tem necessariamente o efeito desejado, diz Henry Parker, responsável pelos assuntos governamentais do grupo de verificação de factos Logically. A empresa utiliza métodos tanto manuais como automáticos para verificar o conteúdo, diz Parker, mas a etiquetagem só pode ir até certo ponto. “Se disseres a alguém que estão a ver um deepfake antes mesmo de o verem, a psicologia social de assistir a esse vídeo é tão poderosa que eles ainda o referirão como se fosse um facto. Portanto, a única coisa que podes fazer é perguntar como podemos reduzir o tempo que este conteúdo está em circulação?”

Isso exigirá encontrar e remover conteúdos gerados por IA automaticamente. Mas isso é difícil, diz Parker. “Estamos a tentar há cinco anos resolver isso, e somos bastante honestos sobre o facto de termos chegado a cerca de 70%, em termos da precisão que podemos alcançar.” No curto prazo, o problema é uma corrida armamentista entre deteção e criação: mesmo os geradores de imagens que não têm intenções maliciosas quererão tentar vencer os detetores, uma vez que o objetivo final é criar algo tão próximo da realidade como uma foto.

A Logically pensa que a resposta é olhar em volta da imagem, diz Parker: “Como é que tentamos realmente observar o comportamento dos atores da desinformação?” Isso significa monitorizar conversas na web para capturar malfeitores na fase de planeamento em sites como o 4chan e o Reddit, e manter um olho no comportamento de enxame de contas suspeitas que foram cooptadas por um ator estatal. Mesmo assim, o problema de falsos positivos é difícil. “Estou a olhar para uma campanha que a Rússia está a executar? Ou estou a olhar para um grupo de fãs da Taylor Swift a partilhar informações sobre bilhetes.”

Na nossa empresa, oferecemos serviços de consultoria informática especializados em cibersegurança, ajudando as organizações a fortalecer as suas defesas contra ameaças digitais, incluindo deepfakes. Os nossos especialistas trabalham em estreita colaboração com os clientes para avaliar os seus riscos específicos, desenvolver estratégias de segurança personalizadas e implementar soluções tecnológicas avançadas para proteger os seus ativos digitais.

Se a sua empresa está preocupada com os potenciais impactos dos deepfakes ou procura reforçar as suas defesas cibernéticas, não hesite em contactar-nos. Estamos aqui para ajudar a proteger o seu negócio num mundo digital em constante evolução. Juntos, podemos enfrentar os desafios da era dos deepfakes e garantir um ambiente online seguro e confiável para todos.

×