Início Tecnologia 5 razões pelas quais você deve ser mais discreto com seu chatbot...

5 razões pelas quais você deve ser mais discreto com seu chatbot (e como corrigir erros do passado)

13
0

Kerry Wan/ZDNET

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Quão pessoal você se torna com seu chatbot?

Ele interpreta seus resultados de laboratório? Ajudá-lo a resolver suas finanças? Oferecer conselhos às 2 da manhã, quando suas preocupações são particularmente existenciais?

Sem pensar muito profundamente, você pode revelar um grande número de informações pessoais sobre você, e isso pode ser um problema.

Numa altura em que as pessoas integram cada vez mais chatbots nas suas vidas quotidianas, os investigadores estão a tentar descobrir as implicações de fornecer informações pessoais à IA.

Além disso: 43% dos trabalhadores afirmam ter compartilhado informações confidenciais com a IA – incluindo dados financeiros e de clientes

Até agora, você provavelmente já ouviu histórias de pessoas estabelecendo relacionamentos românticos com chatbots ou usando-os como treinadores de vida e terapeutas. Na verdade, pouco mais da metade dos adultos dos EUA usam grandes modelos de linguagem, de acordo com um estudo de 2025 da Elon College. Além do mais, os chatbots são projetados para serem amigáveis ​​e manter as pessoas conversando – e falando sobre si mesmas.

“O problema closing é que você simplesmente não pode controlar para onde a informação vai, e ela pode vazar de maneiras que você simplesmente não prevê”, disse Jennifer King, pesquisadora de privacidade e política de dados do Stanford Institute for Human-Centered Synthetic Intelligence.

Por mais abstrata que essa teoria possa parecer, pesquisadores como King dizem que vale a pena considerar exatamente o que você está dizendo aos chatbots e quais repercussões essa informação pode ter no futuro.

Aqui estão seis coisas que você deve saber sobre como se tornar muito pessoal com um chatbot.

1. Memorização, previsão, vigilância

Então, qual é o mal em fornecer informações confidenciais sobre você a um chatbot?

Ninguém tem certeza, exatamente, e esse é o problema. Uma questão que os investigadores têm é se os modelos memorizam informações e, em caso afirmativo, se essas informações podem ser recuperadas literalmente ou quase literalmente. A memorização é na verdade uma das principais queixas em O jornal New York Times‘processo contra OpenAI. (OpenAI, em comunicado de 2024disse que “a regurgitação é um bug raro” que está tentando eliminar.)

(Divulgação: Ziff Davis, empresa controladora da ZDNET, entrou com uma ação judicial em abril de 2025 contra a OpenAI, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)

“Dependemos muito de que as empresas façam a coisa certa e tentem colocar barreiras de proteção que impeçam a divulgação de dados memorizados”, disse King.

Na web, as pessoas têm todo tipo de informação pessoal circulando, inclusive em registros públicos, que podem acabar como dados de treinamento. Ou alguém pode ter carregado um documento, como um relatório de radiologia ou uma fatura médica, sem redigir informações confidenciais.

Uma preocupação é que todos esses dados possam ser usados ​​para vigilância, disse King.

Além disso: preocupado com a privacidade da IA? Esta nova ferramenta do fundador do Sign adiciona criptografia ponta a ponta aos seus chats

Se esse medo parece alarmista, King lembrou a disputa da Anthropic com o Departamento de Defesa nas últimas semanas, onde a empresa se opôs ao uso de seu produto para vigilância doméstica em massa.

“Uma das coisas mais importantes que resultou disso foi o tipo de admissão tácita de que essas coisas podem ser usadas para vigilância pública em massa”, disse ela. “Este é exatamente o tipo de coisa que nos preocupa, que você possa usar esses modelos para analisar tantos pontos de dados diferentes.”

E mesmo que os modelos não tenham dados específicos, ainda poderão fazer previsões sobre as pessoas.

Em um peça para Stanford sobre a pesquisa de sua equipe, King deu o exemplo de um pedido de ideias para um jantar saudável para o coração sendo filtrado pelo ecossistema de um desenvolvedor, classificando você como uma pessoa “vulnerável à saúde”, e essa informação acabando nas mãos de uma seguradora.

Rei resultados da pesquisa mostrou que nem sempre é claro o que as empresas estão fazendo para resolver esses problemas. Algumas organizações tomam medidas para desidentificar os dados antes de usá-los para treinamento, como desfocar rostos em fotos carregadas, o que pode impedir que essas imagens sejam usadas para reconhecimento facial no futuro. Outras empresas podem não estar fazendo nada.

2. Suas configurações podem ser muito frouxas

Embora as configurações da plataforma muitas vezes possam ser labirínticas, vale a pena dedicar um tempo para entender suas opções. Alguns chatbots, como Claude e ChatGPT, oferecem chats privados. Se você usar Bate-papo anônimo de Claudesua conversa não será salva em seu histórico de bate-papo nem usada para treinamento. Esses bate-papos, porém, não são configurações fixas. O mesmo se aplica ao ChatGPT Bate-papos temporários.

Pode haver outras opções nas plataformas para excluir históricos de bate-papo ou optar por não permitir que seu bate-papo seja usado nos dados de treinamento do modelo.

Além disso: 5 ajustes fáceis nas configurações do Gemini para proteger sua privacidade da IA

King também disse que é bom lembrar, por exemplo, se você está usando sua própria conta ou uma conta profissional.

“As pessoas também não sabem [or] eles perdem a noção do que estavam conversando”, disse ela. “Este é o seu contexto de trabalho, sua IA de trabalho, e você está dizendo que está se sentindo muito deprimido. Não há nenhuma expectativa de privacidade dos funcionários lá.”

3. As emoções revelam contexto additional

A maioria das pessoas provavelmente está acostumada a uma certa quantidade de divulgação quando está na Web. Até mesmo uma pesquisa no Google pode conter informações confidenciais sobre a vida de uma pessoa.

Uma conversa com um chatbot, porém, adiciona ainda mais informações e contexto.

“Uma consulta de pesquisa é muito menos reveladora, especialmente sobre o seu estado emocional, do que uma transcrição completa de uma conversa”, disse King, comparando uma pesquisa por algo como uma linha direta de prevenção de suicídio a uma transcrição de 1.000 linhas detalhando os pensamentos e sentimentos mais íntimos de uma pessoa.

4. Os humanos podem estar lendo

A IA é, notoriamente, não humana. Para algumas pessoas, esse conceito pode deixá-las mais confortáveis ​​em compartilhar informações confidenciais. Mas só porque não há digitação humana, não significa que alguém não consiga ler suas mensagens.

Além disso: os trabalhadores da Meta conseguem ver através dos seus óculos inteligentes Ray-Ban? O que diz um especialista em segurança

King observou que algumas plataformas utilizam humanos para aprendizagem por reforço, onde os sistemas são treinados, em parte, com base em informações humanas. Por exemplo, se você sinalizar uma resposta do chatbot, um funcionário em algum lugar do mundo poderá verificá-la em um esforço para melhorar o modelo. Como disse King, nem sempre é claro quando algo que você digita pode acabar sendo revisado por um humano.

5. A política está atrasada

O que torna qualquer um destes pontos especialmente complicado é a falta de regulamentação sobre a forma como as empresas de IA armazenam dados sensíveis.

A Lei de Privacidade do Consumidor da Califórnia, por exemplo, tem certos requisitos sobre como dados como registros médicos precisam ser tratados de forma diferente de outras formas de dados. Mas a regulamentação nos EUA pode diferir de estado para estado e a nível federal – bem, não existe regulamentação.

“Se tivéssemos a lei que nos protegesse, não seria um risco tão grande”, disse King.

O que fazer se você falou demais…

Se você está se encolhendo porque já revelou muita coisa para um chatbot, você pode ter algumas opções. King recomendou excluir conversas antigas e personalizações que você possa ter feito para o futuro.

Se essas etapas removem suas informações dos dados de treinamento, disse King, os pesquisadores simplesmente não sabem.

Cada plataforma tem suas próprias políticas e métodos para lidar com dados pessoais, o que pode exigir alguma investigação. Aqui estão hyperlinks para recursos de alguns dos principais gamers.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui