OpenAI na quarta-feira lançado um novo plano político sobre como deve abordar uma das questões mais importantes e consequentes da period da IA: proteger os seus utilizadores mais jovens.
Como toda empresa de IA que tenta evitar ações judiciais, a OpenAI possui barreiras de proteção para evitar que sua IA seja usada para fins ilegais ou prejudiciais. Mas, como toda empresa de tecnologia, vimos como é fácil contornar essas regras. Isso pode trazer resultados devastadores, especialmente para crianças e adolescentes, como vimos no processo de uma família da Flórida contra a OpenAI, que alega que seu filho de 17 anos usou o ChatGPT como “treinador de suicídio”.
O plano da OpenAI centra-se no fortalecimento das leis e salvaguardas técnicas existentes para acompanhar as capacidades da IA generativa. A estrutura foi desenvolvida em colaboração com os grupos de defesa da segurança infantil Thorn e o Centro Nacional para Crianças Desaparecidas e Exploradas, bem como a força-tarefa de IA da Aliança do Procurador-Geral, liderada pelo procurador-geral da Carolina do Norte, Jeff Jackson, e pelo procurador-geral de Utah, Derek Brown.
Este plano inclui uma série de recomendações, incluindo proteções que a OpenAI já implementou e outras que está construindo ativamente, disse a empresa à CNET. O roteiro é amplo e exige coordenação entre empresas de tecnologia, governos estaduais e federais, autoridades policiais e grupos de defesa. Embora esse tipo de coordenação possa aumentar as probabilidades de sucesso, a regulamentação dos modelos de IA provou ser um desafio constante e a implementação de políticas eficazes dificilmente é uma garantia.
Manter as crianças seguras on-line, inclusive ao usar IA, é um debate especialmente acalorado no mundo da tecnologia. O problema foi reacendido após dois processos judiciais históricos em que Meta e Google foram considerados negligentes por não protegerem os usuários jovens. Diante de tudo isso, as empresas de IA estão sob crescente pressão para definir como planejam manter os usuários seguros e evitar erros do passado.
Assista isto: Seu telefone é nojento: vamos consertar isso
Leis mais rigorosas e proteções técnicas
Um dos maiores problemas plano trata com é materials de abuso sexual infantil. O CSAM existia antes da IA, mas a IA generativa turbinou o trabalho dos malfeitores. Isso ficou surpreendentemente claro quando as pessoas que usaram o Grok da xAI fizeram aproximadamente 3 milhões de imagens sexuais de IA em 11 dias em janeiro, 23 mil delas incluíam imagens de crianças.
A tendência deepfake foi extensa e gerou muita indignação, levando a investigações sobre o xAI de Elon Musk e a um processo judicial de três adolescentes que foram vítimas dessas imagens sexuais não consensuais de IA. Grok removeu sua capacidade de edição de imagens do X (antigo Twitter), mas seu “modo picante” ainda está disponível no web site independente.
A OpenAI e seus colaboradores estão recomendando atualizações nas leis existentes que regem a criação e compartilhamento de deepfakes e CSAM. Até agora, 45 estados criminalizaram o CSAM criado por IA e por computador, de acordo com um relatório de 2025. O novo plano prevê a promulgação de leis em todos os 50 estados e no Distrito de Columbia. Também apela à clarificação das regras de responsabilidade para garantir que as autoridades policiais possam processar aqueles que tentam fazer CSAM, mesmo que essas tentativas sejam bloqueadas pela empresa de IA.
A maioria das empresas de IA possui salvaguardas para impedir a criação de conteúdo ilegal ou abusivo, mas elas não são perfeitas. O plano também fala em melhorar as proteções técnicas e desenvolver novas ferramentas para detectar conteúdo gerado por IA, o que tem sido outro grande desafio: os modelos de IA podem criar imagens que são indistinguíveis da realidade, tornando a detecção de IA extremamente difícil.
Também apela a “canais de denúncia mais eficazes que apoiem uma acção mais rápida por parte do Centro Nacional para Crianças Desaparecidas e Exploradas”.
Apesar da IA se ter twister uma tecnologia quotidiana, a legislação em torno da nova tecnologia ficou para trás, criando um problema de ritmo. Uma das poucas leis importantes específicas da IA é a Lei Take It Down, sancionada pelo presidente Trump em 2025, que proíbe o compartilhamento de imagens íntimas não consensuais, incluindo deepfakes gerados por IA. Deu às plataformas de mídia social até maio de 2026 para implementar processos para que seus usuários solicitem a remoção dessas imagens.












