Início Tecnologia OpenAI segue a liderança da Anthropics no lançamento limitado do GPT‑5.4‑Cyber

OpenAI segue a liderança da Anthropics no lançamento limitado do GPT‑5.4‑Cyber

10
0

A OpenAI revelou o GPT-5.4-Cyber, um novo modelo de IA que pode estar disposto a aceitar solicitações aparentemente maliciosas em nome da segurança cibernética. Felizmente, o desenvolvedor do ChatGPT não permite que ninguém brinque com sua IA menos restritiva e mais livre.

VEJA TAMBÉM:

Claude Mythos, da Anthropic, é um grande golpe ou uma ameaça actual à segurança? O que dizem os especialistas.

Anunciado por meio de uma postagem no weblog na terça-feira, o GPT-5.4-Cyber ​​é uma variante do modelo de linguagem grande GPT-5.4 disponível publicamente da OpenAI. De acordo com a OpenAI, seus modelos de IA de ponta, como GPT-5.4 ter salvaguardas contra uso claramente malicioso, fazendo com que recusem solicitações prejudiciais de usuários, como roubo de credenciais ou localização de vulnerabilidades em código. Em contraste, o novo modelo GPT-5.4-Cyber ​​da empresa é treinado para ser mais tolerante e, em vez disso, potencialmente aceitar essas solicitações.

Descrevendo o GPT-5.4-Cyber ​​como “ciberpermissivo”, a OpenAI afirma que esta mudança visa permitir que a IA seja usada para medidas defensivas de segurança cibernética, como ajudar os pesquisadores a encontrar vulnerabilidades a serem abordadas.

“Queremos capacitar os defensores, dando amplo acesso às capacidades de fronteira, incluindo modelos que foram feitos sob medida para a segurança cibernética”, escreveu a OpenAI. “Esta é uma versão do GPT-5.4 que reduz o limite de recusa para trabalhos legítimos de segurança cibernética e permite novos recursos para fluxos de trabalho defensivos avançados.”

Dado o perigo potencial representado pelas salvaguardas reduzidas do GPT-5.4-Cyber, nem todos serão capazes de mergulhar imediatamente para forçar ainda mais os limites éticos possivelmente flexíveis da IA. A OpenAI afirma que está começando com “implantação limitada e iterativa para fornecedores, organizações e pesquisadores de segurança avaliados”. Como tal, apenas os membros do programa Trusted Entry for Cyber⁠ (TAC) terão acesso ao GPT-5.4-Cyber ​​atualmente, e apenas aqueles em seus níveis mais altos.

Introduzido em fevereiroTAC é uma rede de usuários que passaram pelo processo automatizado de verificação de identidade da OpenAI, incluindo a conclusão de uma verificação de identidade governamental. Uma vez aprovado, os usuários do programa TAC da OpenAI terão acesso a versões de seus modelos de IA com menos salvaguardas, como GPT‑5.4‑Cyber. A OpenAI afirma que o objetivo é permitir pesquisa, educação e programação em segurança cibernética.

No entanto, nem todos os usuários aprovados pelo TAC colocarão as mãos imediatamente no GPT-5.4-Cyber. A OpenAI afirma que os usuários que ainda não fazem parte dos níveis mais altos do TAC podem solicitar acesso a ele, o que exigirá autenticação adicional para se verificarem como “defensores cibernéticos legítimos”.

A revelação do GPT-5.4-Cyber ​​ocorre apenas uma semana depois que o concorrente da OpenAI, Anthropic, anunciou o Projeto Glasswing. Assim como o TAC, o Projeto Glasswing é uma iniciativa que restringe o modelo Claude Mythos Preview AI da Anthropic, focado em segurança cibernética, para selecionar organizações aprovadas. Alegando que o Claude Mythos Preview “já encontrou milhares de vulnerabilidades de alta gravidade”, a Anthropic afirmou que o Projeto Glasswing foi um esforço para garantir que seu modelo de IA fosse usado apenas para fins defensivos de segurança cibernética.

“Dada a taxa de progresso da IA, não demorará muito para que tais capacidades proliferem, potencialmente além dos atores que estão comprometidos em implementá-las com segurança”, Antrópico escreveu.


Divulgação: Ziff Davis, empresa controladora da Mashable, em abril de 2025 entrou com uma ação contra a OpenAI, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui