OpenAI está lançando seu apoio a um projeto de lei do estado de Illinois que protegeria os laboratórios de IA de responsabilidades nos casos em que modelos de IA são usados para causar sérios danos sociais, como morte ou ferimentos graves de 100 ou mais pessoas ou pelo menos US$ 1 bilhão em danos materiais.
O esforço parece marcar uma mudança na estratégia legislativa da OpenAI. Até agora, a OpenAI tem atuado amplamente na defesa, opondo-se a projetos de lei que poderiam ter responsabilizado os laboratórios de IA pelos danos causados por sua tecnologia. Vários especialistas em políticas de IA dizem à WIRED que o SB 3444 – que poderia estabelecer um novo padrão para a indústria – é uma medida mais extrema do que os projetos de lei que a OpenAI apoiou no passado.
O projeto de lei protegeria os desenvolvedores fronteiriços de IA da responsabilidade por “danos críticos” causados por seus modelos fronteiriços, desde que não causassem tal incidente de forma intencional ou imprudente e publicassem relatórios de segurança e transparência em seu website. Ele outline um modelo de fronteira como qualquer modelo de IA treinado usando mais de US$ 100 milhões em custos computacionais, o que provavelmente poderia ser aplicado aos maiores laboratórios de IA da América, como OpenAI, Google, xAI, Anthropic e Meta.
“Apoiamos abordagens como esta porque se concentram no que é mais importante: reduzir o risco de danos graves dos sistemas de IA mais avançados e, ao mesmo tempo, permitir que esta tecnologia chegue às mãos das pessoas e empresas – pequenas e grandes – de Illinois”, disse o porta-voz da OpenAI, Jamie Radice, num comunicado enviado por e-mail. “Eles também ajudam a evitar uma colcha de retalhos de regras estaduais e a avançar em direção a padrões nacionais mais claros e consistentes.”
Na sua definição de danos críticos, o projeto de lei enumera algumas áreas comuns de preocupação para a indústria da IA, tais como um mau ator que utiliza a IA para criar uma arma química, biológica, radiológica ou nuclear. Se um modelo de IA se envolver por si só em uma conduta que, se cometida por um ser humano, constituiria uma infração penal e levaria a esses resultados extremos, isso também seria um dano crítico. Se um modelo de IA cometer qualquer uma dessas ações sob o SB 3444, o laboratório de IA por trás do modelo não poderá ser responsabilizado, desde que não tenha sido intencional e eles publiquem seus relatórios.
As legislaturas federais e estaduais dos EUA ainda não aprovaram quaisquer leis que determinem especificamente se os desenvolvedores de modelos de IA, como a OpenAI, podem ser responsáveis por estes tipos de danos causados pela sua tecnologia. Mas à medida que os laboratórios de IA continuam a lançar modelos de IA mais poderosos que levantam novos desafios de segurança e cibersegurança, como Claude Mythos da Anthropic, estas questões parecem cada vez mais prescientes.
No seu testemunho em apoio ao SB 3444, um membro da equipa de Assuntos Globais da OpenAI, Caitlin Niedermeyer, também defendeu um quadro federal para a regulamentação da IA. Niedermeyer transmitiu uma mensagem que é consistente com a repressão da administração Trump às leis estaduais de segurança de IA, alegando que é importante evitar “uma colcha de retalhos de requisitos estaduais inconsistentes que poderiam criar atritos sem melhorar significativamente a segurança”. Isto também é consistente com a visão mais ampla do Vale do Silício nos últimos anos, que tem geralmente argumentado que é basic para Legislação sobre IA para não prejudicar a posição da América na corrida global pela IA. Embora a SB 3444 seja em si uma lei de segurança a nível estatal, Niedermeyer argumentou que estas podem ser eficazes se “reforçarem um caminho para a harmonização com os sistemas federais”.
“Na OpenAI, acreditamos que a estrela do norte para a regulamentação fronteiriça deve ser a implantação segura dos modelos mais avançados de uma forma que também protect a liderança dos EUA em inovação”, disse Niedermeyer.
Scott Wisor, diretor de políticas do projeto Safe AI, disse à WIRED que acredita que esse projeto de lei tem poucas possibilities de ser aprovado, dada a reputação de Illinois de regulamentar agressivamente a tecnologia. “Entrevistamos pessoas em Illinois, perguntando se elas acham que as empresas de IA deveriam ser isentas de responsabilidade, e 90% das pessoas se opõem. Não há razão para que as empresas de IA existentes devam enfrentar responsabilidade reduzida”, diz Wisor.











