José Claudio Pereira
CRC/RS 46.949
joseclaudio@dataconcontabilidade.cnt.br
Eonara do Carmo Cesa Paim
CRC/RS 56.102
narapaim@dataconcontabilidade.cnt.br
Este golpe usa IA para imitar sua voz e roubar dinheiro; entenda como funciona
Caso recente denunciado por influencer chama atenção para fraudes por deepfake
Os avanços das tecnologias de inteligência artificial estão sendo explorados por cibercriminosos de formas cada vez mais sofisticadas. É o que comprova o caso recente denunciado pelo influencer Dario Centurione, que diz ter tido sua voz clonada por meio de IA num golpe que vitimou seu pai.
Conforme relatado por Centurione em vídeo publicado nas redes sociais, o pai do influencer transferiu R$ 600 via Pix a uma pessoa que lhe telefonou pedindo empréstimo. O criminoso teria se passado por Centurione utilizando uma tecnologia que aproveita áudios e vídeos extraídos da internet para criar novas frases com voz similar à reproduzida nas fontes.
A prática é conhecida como deepfake e tem feito vítimas mundo afora nos últimos anos. Ainda em 2020, por exemplo, a consultoria de segurança Nisus desvendou um caso em que um profissional havia recebido um áudio deepfake do CEO da empresa onde trabalhava solicitando ajuda imediata para fechar um negócio.
À época, a empresa brasileira Securisoft alertou que os casos de golpes do tipo se tornariam mais frequentes, inclusive no Brasil, devido ao barateamento crescente de tecnologias que os tornam possíveis, como o machine learning.
Especialistas do setor informam que, para evitar cair numa fraude por deepfake ao receber algum áudio ou ligação suspeita, deve-se ficar atento a possíveis sinais de falsificação, como falas que soam montadas por palavras soltas; tentar contatar a pessoa através de outros canais, ou mesmo realizar uma chamada de vídeo, para confirmar a veracidade de sua mensagem; e, como sugeriu Centurione, combinar previamente uma palavra-chave com familiares e amigos mais próximos para ser mencionada quando houver desconfiança sobre algum contato.