NOVOAgora você pode ouvir os artigos da Fox Information!
A inteligência synthetic rapidamente se tornou parte da vida cotidiana, ajudando as pessoas a buscar informações, concluir trabalhos escolares e tomar decisões. Mas o que muitos utilizadores não percebem é que os sistemas de IA não são neutros. Eles são moldados por escolhas de design ocultas que influenciam a forma como respondem – e, em última análise, como as pessoas pensam.
A preocupação não é apenas teórica. Um relatório recente da Fox Information Digital destacou a controvérsia em torno do chatbot Gemini do Google depois que o sistema identificou vários senadores republicanos como violadores de suas políticas de discurso de ódio – sem nomear nenhum democrata.
As conclusões, baseadas numa avaliação imediata de todos os 100 senadores dos EUA, levantaram novas questões sobre se os sistemas de IA podem refletir pressupostos ideológicos incorporados nos seus dados de formação e design.
GOOGLE GEMINI DECLARA QUE APENAS SENADORES GOP VIOLAM A POLÍTICA DE DISCURSO DE ÓDIO, ZERO DEMOCRATAS, RECLAMAÇÕES DO AUTOR
Um novo relatório da AFPI descobriu que a maioria das plataformas de inteligência synthetic inclinam-se para a esquerda. (Serene Lee/Imagens SOPA/LightRocket/Getty Photographs)
Esse episódio não é um caso isolado.
Um novo relatório do America First Coverage Institute (AFPI) revela que muitos sistemas de IA se inclinam consistentemente em direções ideológicas específicas.
Estes preconceitos podem afectar a forma como as questões políticas, os tópicos sociais e as fontes de notícias são apresentados. Como os usuários muitas vezes confiam na IA como uma ferramenta objetiva, essas influências sutis podem moldar as opiniões ao longo do tempo, sem que os usuários percebam.
Matthew Burtell, analista político sênior de IA e tecnologia emergente da AFPI, disse que o padrão aparece em toda a indústria – não apenas em casos isolados.
“O que descobrimos foi um preconceito ideológico geral, não apenas num modelo específico, mas em todo o espectro”, disse Burtell à Fox Information Digital, acrescentando que os modelos tendem a inclinar-se para o centro-esquerda.
As implicações vão além do preconceito apenas. A investigação mostra que os sistemas de IA não refletem apenas pontos de vista – podem influenciá-los ativamente.
Esta combinação – preconceito e persuasão – levanta preocupações mais profundas sobre o papel da IA na formação da opinião pública. “A IA é persuasiva e também se inclina para a esquerda”, disse Burtell. “Portanto, se você combinar essas duas coisas, isso certamente poderá influenciar as crenças das pessoas sobre diferentes políticas”.
Exemplos recentes alimentaram essas preocupações. O ChatGPT da OpenAI tem enfrentado críticas de alguns investigadores que argumentam que as suas respostas sobre questões políticas e culturais podem inclinar-se numa direcção ideológica específica, enquanto as ferramentas de IA da Microsoft têm atraído o escrutínio sobre a forma como enquadram tópicos controversos e limitam certos pontos de vista.
Essas preocupações também se refletiram nos testes. Em 2024, Fox News Digital avaliada vários chatbots líderes de IA – incluindo Gemini do Google, ChatGPT da OpenAI, Copilot da Microsoft e Meta AI – para avaliar potencial preconceito racial.
NOVA COALIZÃO DE IA ALVO WASHINGTON, BIG TECH COMO GRUPO ADVERTE RISCOS DE SEGURANÇA INFANTIL SUPERANDO AS SALVAGUARDAS

Os investigadores alertam que as crianças estão a desenvolver relações inadequadas com a inteligência synthetic. (Erin Clark/The Boston Globe/Getty Photographs)
O relatório também levanta sérias preocupações de segurança.
Os sistemas de IA envolveram-se, em alguns casos, em interações prejudiciais – especialmente com utilizadores mais jovens. Sem uma transparência clara sobre a forma como estes sistemas são concebidos e quais as salvaguardas implementadas, os pais e os utilizadores não podem tomar decisões informadas sobre quais plataformas são seguras.
Para enfrentar estes riscos, o relatório apela a uma maior transparência por parte das empresas tecnológicas. Isso inclui divulgar como os sistemas são projetados, quais valores eles priorizam, como são testados quanto a preconceitos e segurança e quais incidentes ocorrem após a implantação.

Os especialistas alertam que, sem transparência, os utilizadores permanecem no escuro sobre os preconceitos incorporados nestes sistemas. (Andrei Rudakov/Bloomberg)
O objetivo não é controlar o que os sistemas de IA dizem, mas fornecer ao público informação suficiente para os avaliar criticamente.
Em última análise, o relatório deixa claro que a IA não é apenas uma ferramenta – é uma força poderosa que molda a forma como as pessoas acedem à informação e compreendem o mundo.
CLIQUE AQUI PARA BAIXAR O APLICATIVO FOX NOTÍCIAS
Sem transparência, os utilizadores permanecem no escuro sobre os preconceitos incorporados nestes sistemas. E à medida que a IA se torna mais influente, essa falta de visibilidade pode ter consequências de longo alcance tanto para os indivíduos como para a sociedade.
Leia o relatório completo aqui:









