Início Tecnologia Começou a corrida para evitar que os agentes de IA administrem seus...

Começou a corrida para evitar que os agentes de IA administrem seus cartões de crédito

17
0

Entre malware, on-line personificação e controle de contas, já existem problemas de segurança digital suficientes por aí. E com a ascensão da IA ​​agente, mais atividades estão sendo realizadas por agentes em nome de humanos – criando diferentes riscos de que algo possa dar errado.

Agora, trabalhando com contribuições iniciais de Google e MasterCarda associação da indústria focada em autenticação conhecida como FIDO Alliance disse na terça-feira que lançará dois grupos de trabalho para desenvolver padrões da indústria para validar e proteger pagamentos e outras transações realizadas por agentes de IA.

O objetivo é produzir uma linha de base protetora que possa ser adotada em todos os setores. Dessa forma, os usuários podem autorizar ações do agente usando mecanismos que não podem ser facilmente fraudados ou controlados por um agente mal-intencionado para dar instruções fraudulentas a um agente. Os padrões também incluiriam ferramentas criptográficas que os serviços digitais poderiam usar para confirmar que os agentes estão executando de forma precisa e legítima as instruções de uma pessoa autenticada, bem como estruturas de preservação da privacidade para dar aos usuários, comerciantes e outros prestadores de serviços a capacidade de validar as transações iniciadas pelos agentes. Por outras palavras, o objetivo do trabalho é criar proteções contra o sequestro de agentes ou outro comportamento desonesto, bem como um mecanismo de transparência e responsabilização para recurso em caso de litígio.

“Os agentes estão se tornando cada vez mais comuns, estão migrando para o uso convencional, mas os modelos preexistentes não são necessariamente projetados para esse tipo de paradigma – eles não foram construídos para contemplar ações realizadas em nome do usuário”, disse Andrew Shikiar, CEO da FIDO Alliance, à WIRED.

Ele acrescenta: “Se olharmos para o nosso trabalho nos últimos anos sobre o enorme problema das senhas, que se originou décadas atrás. A base de segurança para o que se tornou nossa economia conectada não period adequada para o propósito. Agora estamos em um precipício semelhante com agentes e interações de agentes, comércio de agentes onde temos a oportunidade de não seguir o mesmo caminho e estabelecer alguns princípios fundamentais que permitirão interações mais confiáveis”.

O desenvolvimento de normas técnicas que sejam amplamente aplicáveis ​​em todos os setores e facilitem a interoperabilidade é um processo minucioso que muitas vezes leva anos. Mas dado o rápido avanço e adoção da IA ​​de agência, representantes da FIDO Alliance, Google e Mastercard enfatizaram que este processo deve avançar mais rapidamente. Para tanto, ambas as empresas estão contribuindo com ferramentas de código aberto para a iniciativa. Protocolo de pagamentos de agentes do Google, ou AP2oferece um mecanismo para verificar criptograficamente se um usuário realmente pretendia que uma determinada transação iniciada pelo agente ocorresse. A estrutura Verifiable Intent da Mastercard (co-desenvolvida pelo Google para funcionar com AP2) é um mecanismo seguro para os usuários autorizarem e controlarem as ações dos agentes.

“Queremos fornecer prova criptográfica de que uma transação foi autorizada pelo próprio usuário, mas mantê-la privada para que haja divulgação seletiva integrada”, diz Stavan Parikh, vice-presidente e gerente geral de pagamentos do Google. “Diferentes participantes do ecossistema — plataformas, comerciantes, provedores de pagamento, redes — veem apenas as informações que são relevantes para eles, mas a ação certa é realizada no momento certo. Os pagamentos são um problema complexo do ecossistema”

Parikh dá o exemplo de uma pessoa que vai comprar um par de tênis, mas descobre que ele está esgotado. O comprador instrui um agente de IA a comprar os tênis de forma autônoma se eles voltarem ao estoque e custarem US$ 100 ou menos. O objetivo é fornecer autenticação e transparência em torno dessa transação para que, se o tênis perfeito aparecer, o consumidor acabe com o calçado certo pelo preço pretendido.

Estabelecer essas proteções básicas é basic para promover a confiança na IA agente e promover a adoção de ferramentas alimentadas por IA, observa Parikh. No entanto, quer os utilizadores pretendam adotar capacidades de IA ou não, a realidade da sua proliferação significa que, de qualquer forma, são necessárias proteções mínimas.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui