Início Tecnologia Anthropic se opõe ao projeto de lei de responsabilidade extrema de IA...

Anthropic se opõe ao projeto de lei de responsabilidade extrema de IA apoiado pela OpenAI

19
0

Antrópico chegou contra uma proposta de lei de Illinois apoiada pela OpenAI que protegeria os laboratórios de IA de responsabilidades se seus sistemas fossem usados ​​para causar danos em grande escala, como vítimas em massa ou mais de US$ 1 bilhão em danos materiais.

A luta pelo projeto de lei estadual, SB 3444, está traçando novas linhas de batalha entre a Anthropic e a OpenAI sobre como as tecnologias de IA devem ser regulamentadas. Embora os especialistas em política de IA digam que a legislação tem apenas uma hipótese remota de se tornar lei, expôs, no entanto, divisões políticas entre dois dos principais laboratórios de IA dos EUA, que poderão tornar-se cada vez mais importantes à medida que as empresas rivais intensificarem a sua actividade de foyer em todo o país.

Nos bastidores, a Anthropic tem pressionado o senador estadual Invoice Cunningham, patrocinador do SB 3444, e outros legisladores de Illinois para fazer grandes mudanças no projeto ou eliminá-lo tal como está, de acordo com pessoas familiarizadas com o assunto. Num e-mail para a WIRED, um porta-voz da Anthropic confirmou a oposição da empresa ao SB 3444 e disse que manteve conversas promissoras com Cunningham sobre o uso do projeto de lei como ponto de partida para futura legislação de IA.

“Nos opomos a este projeto de lei. Uma boa legislação de transparência precisa garantir a segurança pública e a responsabilização das empresas que desenvolvem esta poderosa tecnologia, e não fornecer um cartão para sair da prisão contra qualquer responsabilidade”, disse Cesar Fernandez, chefe de relações governamentais estaduais e locais da Anthropic, em um comunicado. “Sabemos que o senador Cunningham se preocupa profundamente com a segurança da IA ​​e estamos ansiosos para trabalhar com ele em mudanças que, em vez disso, combinem transparência com responsabilidade actual para mitigar os danos mais graves que os sistemas fronteiriços de IA podem causar.”

Os representantes de Cunningham não responderam a um pedido de comentários. Um porta-voz do governador de Illinois, JB Pritzker, enviou a seguinte declaração: “Embora o Gabinete do Governador monitore e analise os muitos projetos de lei de IA em tramitação na Assembleia Geral, o governador Pritzker não acredita que as grandes empresas de tecnologia devam receber um escudo completo que evite as responsabilidades que deveriam ter para proteger o interesse público”.

O cerne do desacordo da OpenAI e da Anthropic sobre o SB 3444 resume-se a quem deve ser responsável no caso de um desastre possibilitado pela IA – um cenário potencial de pesadelo que os legisladores dos EUA só recentemente começaram a enfrentar. Se o SB 3444 fosse aprovado, um laboratório de IA não seria responsável se um mau actor utilizasse o seu modelo de IA para, por exemplo, criar uma arma biológica que mata centenas de pessoas, desde que o laboratório elaborasse o seu próprio quadro de segurança e o publicasse no seu web site.

A OpenAI argumentou que o SB 3444 reduz o risco de danos graves causados ​​por sistemas de IA de fronteira, ao mesmo tempo que “ainda permite que esta tecnologia chegue às mãos das pessoas e empresas – pequenas e grandes – de Illinois”.

O fabricante do ChatGPT afirma que trabalhou com estados como Nova York e Califórnia para criar o que chamamos de abordagem “harmonizada” para common a IA. “Na ausência de ação federal, continuaremos a trabalhar com os estados – incluindo Illinois – para trabalhar em direção a uma estrutura de segurança consistente”, disse a porta-voz da OpenAI, Liz Bourgeois, em um comunicado. “Esperamos que estas leis estaduais informem uma estrutura nacional que ajude a garantir que os EUA continuem a liderar.”

A Anthropic, por outro lado, argumenta que as empresas que desenvolvem modelos de IA de ponta devem ser responsabilizadas, pelo menos parcialmente, se a sua tecnologia for utilizada para causar danos sociais generalizados.

Alguns especialistas dizem que o projeto desmantelaria as regulamentações existentes destinadas a impedir que as empresas se comportassem mal. “A responsabilidade já existe ao abrigo do direito consuetudinário e proporciona um incentivo poderoso para as empresas de IA tomarem medidas razoáveis ​​para evitar riscos previsíveis dos seus sistemas de IA”, afirma Thomas Woodside, cofundador e consultor político sénior do Safe AI Venture, uma organização sem fins lucrativos que ajudou a desenvolver e defender leis de segurança de IA na Califórnia e em Nova Iorque. “O SB 3444 daria o passo extremo de quase eliminar a responsabilidade por danos graves. Mas é uma má ideia enfraquecer a responsabilidade, que na maioria dos estados é a forma mais significativa de responsabilidade authorized para empresas de IA que já existe.”

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui