Na Munich Security Conference (Coferência de Segurança de Munique), várias empresas líderes, incluindo Microsoft, Meta, Google, Amazon, Adobe e IBM, demonstraram o seu compromisso em combater deepfakes relacionados com as eleições. Treze outras empresas, como OpenAI, Anthropic, Inflection AI, ElevenLabs e Stability AI, junto com plataformas de redes sociais como X (anteriormente Twitter), TikTok e Snap, uniram-se a esta iniciativa. Até a fabricante de chips Arm e as empresas de segurança McAfee e TrendMicro assinaram o acordo.
As empresas signatárias anunciaram sua intenção de adotar um framework comum para responder a deepfakes gerados por IA, os quais têm como intuito enganar os eleitores. Comprometeram-se a utilizar métodos de detecção e rotulagem de deepfakes políticos enganosos nas suas plataformas. Além disso, vão partilhar entre si os melhores métodos garantido respostas rápidas e proporcionais quando a disseminação destes conteúdos começar.

Na Munich Security Conference debatem-se ações contra deepfakes e o seu contexto legal
Embora alguns críticos possam considerar o acordo como uma mera sinalização de virtude devido à sua natureza voluntária, o mesmo reflete a crescente preocupação do sector da tecnologia com o escrutínio regulatório, especialmente em ano de eleições nacionais em que quase metade da população mundial irá votar.
Brad Smith, vice-presidente e presidente da Microsoft, afirmou que o setor da tecnologia não pode proteger as eleições sozinho contra este tipo de abuso eleitoral. Ele destacou a necessidade de uma ação multis sectorial para enfrentar esta questão.

Nos Estados Unidos, embora não haja uma lei federal que proíba deepfakes eleitorais, 10 estados já promulgaram estatutos para criminalizá-los, com Minnesota sendo pioneiro nesta medida.
Medidas Globais Contra Deepfakes
Em outras partes do mundo, várias agências governamentais têm tomado medidas para combater a disseminação de deepfakes. Por exemplo, nos Estados Unidos, a FTC pretende modificar uma regra existente para incluir todos os consumidores. Entretanto a FCC agiu para tornar ilegais as chamadas robóticas de voz geradas por IA.
Na União Europeia, tanto o AI Act quanto o Digital Services Act exigem a rotulagem de todo o conteúdo gerado por IA. Forçando assim as empresas tecnológicas a conter os deepfakes.
Apesar destes esforços, os deepfakes continuam a proliferar. Estatísticas da Clarity indicam um aumento de 900% no número de deepfakes criados ano após ano. Chamadas robóticas de voz que imitam figuras políticas e gravações de áudio geradas por IA representam apenas algumas das manifestações dessas tecnologias.
Pesquisas recentes indicam que a disseminação de deepfakes de vídeo e áudio enganosos são uma preocupação significativa para a maioria dos americanos. Além disso, muitos adultos acreditam que ferramentas de IA aumentarão a disseminação de informações falsas e enganosas durante os ciclos eleitorais.
Diante deste cenário, o compromisso das empresas de tecnologia em combater os deepfakes é um passo crucial, mas fica evidente que enfrentar este desafio exigirá esforços coordenados à escala global.
Fontes: MSC / Techcrunch
Artigos relacionados:
Deepfakes: Hackers usam vídeos falsos para saltar segurança




