Empresas de tecnologia e IA assinam pacto para combater deepfakes relacionados a eleições

Microsoft, Meta, Google, Amazon, IBM, Adobe e Chip Designer Arm assinaram o acordo. As startups de inteligência artificial OpenAI, Anthropic e Stability AI também se juntaram ao grupo junto com empresas de mídia social como Snap, TikTok e X.

As plataformas tecnológicas estão a preparar-se para um grande ano de eleições em todo o mundo que afetarão mais de quatro mil milhões de pessoas em mais de 40 países. De acordo com dados da empresa de aprendizagem automática Clarity, o aumento do conteúdo gerado por IA levou a sérias preocupações de desinformação relacionada com as eleições.

A desinformação tem sido um grande problema durante a campanha presidencial de 2016, quando os actores russos encontraram formas fáceis e baratas de espalhar conteúdos falsos nas redes sociais. Os legisladores hoje estão cada vez mais preocupados com a rápida ascensão da IA.

Josh Becker, senador estadual democrata pela Califórnia, disse em uma entrevista que há “sérias preocupações sobre como a IA pode ser usada para enganar os eleitores. É encorajador ver algumas empresas chegando à mesa, mas no momento não vejo o suficiente detalhes, então precisaremos de legislação que estabeleça padrões claros.”

Enquanto isso, as tecnologias de detecção e marca d'água usadas para identificar deepfakes não avançaram rápido o suficiente para acompanhar. Por enquanto, as empresas concordam sobre quais são os padrões técnicos e os mecanismos de detecção.

Eles têm um longo caminho a percorrer para combater eficazmente este problema multifacetado. Por exemplo, serviços de reconhecimento de texto gerados por IA, como artigos, são mostrados Revelar preconceitos versus falantes não nativos de inglês. Não é tão fácil para fotos e vídeos.

Embora as plataformas por trás de imagens e vídeos gerados por IA concordem em gravar marcas d'água invisíveis e alguma forma de metadados, essas medidas de segurança ainda têm um longo caminho a percorrer. Às vezes, a captura de tela pode enganar o detector.

READ  Acordo sobre reféns é adiado, diz Catar

Além disso, os sinais invisíveis que algumas empresas incluem nas imagens geradas por IA ainda não estão disponíveis para muitos geradores de áudio e vídeo.

A notícia do acordo chega um dia depois que o desenvolvedor do ChatGPT, OpenAI, anunciou Sora, seu novo modelo para vídeo gerado por IA. Sora funciona de forma semelhante ao DALL-E, a ferramenta de IA de geração de imagens da OpenAI. Quando um usuário digita a cena desejada, Sora retornará um videoclipe em alta definição. Sora pode criar videoclipes inspirados em imagens estáticas, estender vídeos existentes ou preencher quadros ausentes.

As empresas participantes no acordo concordaram com oito compromissos de alto nível, incluindo a avaliação dos riscos do modelo, “buscando detectar” e abordando a distribuição de tal conteúdo em seus sites, e proporcionando transparência nesses processos ao público. Como a maioria das obrigações voluntárias na indústria de tecnologia e além, observou o comunicado, as obrigações se aplicam apenas “quando são relevantes para os serviços que cada organização fornece”.

“A democracia depende de eleições seguras e protegidas”, disse Kent Walker, chefe de assuntos globais do Google, em comunicado. O acordo representa um esforço da indústria para abraçar a “desinformação eleitoral gerada pela IA que mina a confiança”.

Christina Montgomery, diretora de privacidade e confiança da IBM, disse no comunicado que este ano eleitoral crucial “requer ações concretas e colaborativas para proteger pessoas e comunidades dos riscos amplificados de conteúdo enganoso gerado por IA”.

Ver: OpenAI publica Sora

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *