Louise Bruder nunca esquece um rosto. O que não é apenas uma habilidade útil em festas, mas também a ajudou a construir uma carreira.
Ela tem o incrível título de super-reconhecedora, e seu trabalho na empresa britânica de identificação digital Yoti envolve comparar as fotos em um documento de identidade com uma selfie enviada, para determinar se é a mesma pessoa.
Mas a Yoti, assim como outras empresas de identificação, enfrenta uma nova ameaça – a detecção de deepfakes. Essas são imagens falsas criadas usando software alimentado por inteligência artificial.
Louise me diz que ainda não foi solicitada a avaliar deepfakes como parte de seu trabalho diário, mas a empresa está ciente da ameaça. Por isso, está trabalhando ativamente em tecnologia que ajudará a identificá-los.
Colocando suas habilidades à prova com o próprio Quiz Deepfake da BBC, ela acertou sete de oito perguntas. “Há uma falta de vida nos olhos das pessoas que realmente significa que elas não parecem reais”, diz Louise.
Ben Colman é o chefe da Reality Defender, uma empresa americana que visa fornecer tecnologia para detectar deepfakes, e ele acredita que Louise pode ter dificuldades em breve para distinguir o real do falso.
“Diria que nos últimos nove meses se tornou quase impossível para até mesmo os melhores especialistas distinguirem o real do gerado por IA. Precisamos de uma solução de software para fazer isso”, diz ele.
Colman diferencia entre deepfakes realmente sofisticados, que podem ser usados por um estado-nação para criar desinformação, e o que ele chama de “cheapfakes”, em que criminosos usam software de IA disponível comercialmente.
Preocupantemente, até mesmo os cheapfakes “ainda são bons o suficiente para enganar as pessoas, especialmente em imagens e áudio”, diz ele. O vídeo, no entanto, “ainda é um pouco mais desafiador e requer muito mais computação”.
A solução oferecida por sua empresa pode escanear e sinalizar representações de IA em uma imagem, vídeo ou áudio. Os clientes incluem o governo de Taiwan, a Nato, organizações de mídia e grandes bancos.
Embora sejam os deepfakes de vídeo ou imagem que mais frequentemente chamam a atenção, as fraudes apenas de áudio também estão aumentando. Por exemplo, criminosos enviam gravações de voz usando a voz de uma pessoa para dizer coisas como “Mãe, perdi meu telefone, por favor, pague dinheiro para esta conta agora”.
Coletar trechos de voz da conta de alguém nas redes sociais ou no YouTube é um trabalho fácil, e apenas alguns segundos de áudio são suficientes para clonar a voz e usá-la para criar frases que a pessoa nunca disse.
Alguns softwares prontos até permitem aos usuários “aumentar” os níveis de estresse em uma voz, uma técnica que foi usada para enganar pais em casos reais em que eles acreditavam que seu filho havia sido sequestrado.
Siwei Lyu é professor na Universidade de Buffalo nos Estados Unidos e estuda deepfakes há muitos anos, com o objetivo final de desenvolver algoritmos para ajudar a identificá-los e expô-los automaticamente.
Os algoritmos são treinados para identificar pequenas diferenças – olhos que podem não estar olhando na direção certa ou, no caso de uma voz artificialmente criada, a falta de evidências de respiração.
Lyud acredita que é importante que políticos e o público em geral tenham essas conversas e debates, alertando que as videoconferências podem ser o próximo alvo dos criminosos.
“No futuro próximo, você pode estar conectado a uma chamada do Zoom e pensar que está falando comigo, mas pode ser uma versão virtual de mim. Alguém pode usar minha imagem e criar essa presença deepfake na chamada do Zoom”.
Os deepfakes também têm o potencial de causar perturbação generalizada na sociedade. No ano passado, uma imagem falsa de uma explosão perto do Pentágono se tornou viral nas redes sociais, assim como fotos falsas de Donald Trump algemado.
Em janeiro, o Departamento de Justiça
Okay, no need to fight, this onyx ed pill time I will go by myself [url=https://fastpriligy.top/]where can i buy priligy in usa[/url]