Munich Security Conference: Luta contra os Deepfakes

Na Munich Security Conference (Coferência de Segurança de Munique), várias empresas líderes, incluindo Microsoft, Meta, Google, Amazon, Adobe e IBM, demonstraram o seu compromisso em combater deepfakes relacionados com as eleições. Treze outras empresas, como OpenAI, Anthropic, Inflection AI, ElevenLabs e Stability AI, junto com plataformas de redes sociais como X (anteriormente Twitter), TikTok e Snap, uniram-se a esta iniciativa. Até a fabricante de chips Arm e as empresas de segurança McAfee e TrendMicro assinaram o acordo.

As empresas signatárias anunciaram sua intenção de adotar um framework comum para responder a deepfakes gerados por IA, os quais têm como intuito enganar os eleitores. Comprometeram-se a utilizar métodos de detecção e rotulagem de deepfakes políticos enganosos nas suas plataformas. Além disso, vão partilhar entre si os melhores métodos garantido respostas rápidas e proporcionais quando a disseminação destes conteúdos começar.

Google CEO Sundar Pichai na Munich Security Conference
Google CEO Sundar Pichai na Munich Security Conference (Imagem: TOBIAS HASE/PICTURE ALLIANCE VIA GETTY IMAGES)

Na Munich Security Conference debatem-se ações contra deepfakes e o seu contexto legal

Embora alguns críticos possam considerar o acordo como uma mera sinalização de virtude devido à sua natureza voluntária, o mesmo reflete a crescente preocupação do sector da tecnologia com o escrutínio regulatório, especialmente em ano de eleições nacionais em que quase metade da população mundial irá votar.

Brad Smith, vice-presidente e presidente da Microsoft, afirmou que o setor da tecnologia não pode proteger as eleições sozinho contra este tipo de abuso eleitoral. Ele destacou a necessidade de uma ação multis sectorial para enfrentar esta questão.

Brad Smith (President and Chief Legal Officer, Microsoft Corporation) na Munich Security Conference
Brad Smith (President and Chief Legal Officer, Microsoft Corporation)

Nos Estados Unidos, embora não haja uma lei federal que proíba deepfakes eleitorais, 10 estados já promulgaram estatutos para criminalizá-los, com Minnesota sendo pioneiro nesta medida.

Medidas Globais Contra Deepfakes

Em outras partes do mundo, várias agências governamentais têm tomado medidas para combater a disseminação de deepfakes. Por exemplo, nos Estados Unidos, a FTC pretende modificar uma regra existente para incluir todos os consumidores. Entretanto a FCC agiu para tornar ilegais as chamadas robóticas de voz geradas por IA.

Na União Europeia, tanto o AI Act quanto o Digital Services Act exigem a rotulagem de todo o conteúdo gerado por IA. Forçando assim as empresas tecnológicas a conter os deepfakes.

Apesar destes esforços, os deepfakes continuam a proliferar. Estatísticas da Clarity indicam um aumento de 900% no número de deepfakes criados ano após ano. Chamadas robóticas de voz que imitam figuras políticas e gravações de áudio geradas por IA representam apenas algumas das manifestações dessas tecnologias.

Pesquisas recentes indicam que a disseminação de deepfakes de vídeo e áudio enganosos são uma preocupação significativa para a maioria dos americanos. Além disso, muitos adultos acreditam que ferramentas de IA aumentarão a disseminação de informações falsas e enganosas durante os ciclos eleitorais.

Diante deste cenário, o compromisso das empresas de tecnologia em combater os deepfakes é um passo crucial, mas fica evidente que enfrentar este desafio exigirá esforços coordenados à escala global.

Fontes: MSC / Techcrunch

Artigos relacionados:
Deepfakes: Hackers usam vídeos falsos para saltar segurança

Siga-nos no Google News
Redacção
Redacçãohttp://www.infocul.pt
Redacção oficial do site infocul.pt

Artigos Relacionados

Siga-nos nas redes sociais

31,799FãsCurtir
12,697SeguidoresSeguir
438SeguidoresSeguir
314InscritosInscrever