Início Tecnologia IA de saúde e a lei: seu documento do chatbot poderia testemunhar...

IA de saúde e a lei: seu documento do chatbot poderia testemunhar contra você?

15
0

Em julho passado, OpenAI CEOSam Altman disse ao podcaster viral Theo Von que é “bagunçado” que as conversas com um ajudante de IA não tenham as mesmas proteções legais que as conversas com um defensor humano.

“Conversar com uma IA deveria ser como conversar com um advogado ou um médico. Espero que a sociedade descubra isso em breve”, Altman postado para X.

O CEO tem repetidamente defendido para proteções de privacidade mais fortes pelas conversas de seu chatbot com os usuários, mesmo que os estados tenham reprimido os bots de IA anunciados como terapêutico ou especialistas jurídicos.

Mas a privacidade do usuário não é a única razão pela qual pessoas como Altman estão pressionando por uma proteção mais rígida entre as conversas do chatbot e o tribunal, dizem especialistas jurídicos ao Mashable – há também uma motivação egoísta. Se os LLMs permanecerem intocáveis ​​pelos tribunais, isso isola não apenas os usuários de IA, mas também as empresas. Na verdade, os comentários de Altman a Von podem ter sido motivados pelo próprio OpenAI problemas legais: Os tribunais exigiam que o gigante da IA ​​salvasse e, eventualmente, entregasse os registros de bate-papo de seus usuários como descoberta authorized, uma ação que poderia ser bloqueada se a IA fosse vista pelos olhos do tribunal da mesma forma que um terapeuta, médico ou advogado.

Qual é uma maneira de conseguir isso? Impulsionar uma mudança cultural que trate a orientação da IA ​​com a mesma reverência que os profissionais humanos, começando pela nossa saúde.

VEJA TAMBÉM:

Usando ChatGPT Saúde? Leia isto primeiro.

O que exatamente é “privilégio de IA”?

“O privilégio tem um certo significado para os advogados e no contexto jurídico”, explicou Melodi Dinçer, advogado sênior do Projeto de Lei de Justiça Tecnológica. Existe o privilégio padrão de advogado-cliente, por exemplo, bem como o privilégio de psiquiatra-cliente e o privilégio de cônjuge. As comunicações aos clérigos, os votos políticos e os segredos comerciais ou de estado também são reconhecidos pelos tribunais. Em todos estes casos, as comunicações entre as duas partes são confidenciais e não admissíveis em processos judiciais.

Os estados também têm as suas próprias regras de privilégio, cobertas pela legislação estadual para casos julgados em tribunais estaduais. Alguns estados, disse Dinçer, estendem privilégios a conversas entre você e seu clínico geral, além de seu psiquiatra. Mas muitos estados não o fazem. Tudo isso é elucidado em Regra 501 do Regras Federais de Provasexplicou Dinçer, o que permite que os tribunais federais reconheçam amplamente os privilégios que os tribunais estaduais já reconhecem.

Se você estiver sendo processado, por exemplo, a outra parte do processo não poderá admitir as anotações da sessão do seu terapeuta, nem poderá admitir conversas confidenciais entre você, seu advogado ou seu cônjuge.

“Todo o propósito [client privilege] é poder ter discussões francas e abertas com esses fornecedores para que eles forneçam o melhor aconselhamento a você”, Lily Li, advogada de privacidade de dados e gerenciamento de risco de IA e fundadora da Lei do Metaversodisse Mashable. “E do ponto de vista social, queremos que os indivíduos sejam francos, abertos e honestos com seus advogados, médicos e psicólogos”.

Mas estas são condições impostas às relações humanas, e não às digitais. Se você acredita que um chatbot de IA é tão eficaz quanto um terapeuta humano ou um consultor jurídico, essas comunicações também deveriam ser protegidas? Alguns desenvolvedores de IA, como Altman, dizem que sim.

Chatbots de IA: ferramentas ou pessoas?

“O processo de direitos autorais da Open AI colocou isso em foco”, disse Li. Ela está se referindo a uma série de recentemente consolidado casos de direitos autorais, 16 no complete, abertos contra OpenAI por editores, artistas e escritores nos últimos anos. As questões em questão – que incluem questões de uso justo e como lidar com os dados usados ​​para treinar LLMs – são uma espécie de medidor de temperatura para avaliar a percepção da IA ​​aos olhos do tribunal.

Por causa disso, especialistas jurídicos têm monitorado de perto como os tribunais categorizam os desenvolvedores de IA, seus produtos e os dados de usuários neles contidos. Mais especificamente, eles precisam acompanhar como a lei está tratando os LLMs, incluindo seus dados de treinamento e registros de bate-papo, durante a evidência e a descoberta.

Não queremos uma situação em que haja apenas um escudo de responsabilidade puro.

– Lily Li, Lei do Metaverso

Em fevereiro, um juiz federal decidiu que os documentos de estratégia jurídica gerados pelo chatbot Claude da Anthropic — e depois enviados por um cliente ao seu advogado — eram não coberto pelo privilégio advogado-cliente. A decisão ganhou as manchetes. O juiz do caso baseou-se em parte na própria política de privacidade da Anthropic para determinar se os chats estavam protegidos. Porque as regras da Anthropic não prometem complete privacidade na utilização de seu produto público e porque as comunicações não ocorreram entre um advogado licenciado com o compreensão de que eles são confidenciaiso privilégio não se aplicava. Os documentos eram um jogo justo.

Mas nesse mesmo mês, um juiz diferente num caso diferente, embora semelhante, governou o oposto. Neste caso, o privilégio advogado-cliente foi aplicado ao trabalho gerado por IA porque o resultado se tornou um “produto de trabalho advogado-cliente”, de acordo com o juiz. O chatbot não period uma “pessoa” neste caso de uso, mas uma ferramenta usada por advogado e cliente. Esta é uma distinção importante, porque se o chatbot tivesse sido visto como uma entidade terceira, o cliente estaria a fornecer-lhe voluntariamente informações confidenciais de uma forma que poderia dispensar o reconhecimento de privilégio.

Estes são apenas alguns dos primeiros casos em tribunais distritais federais, envolvendo o que é chamado de questões de primeira impressão. Basicamente, ninguém nunca fez essas perguntas e estamos apenas nos estágios iniciais de resolvê-las.

Enquanto isso, os casos de direitos autorais envolvendo OpenAI geraram mais questões sobre descobertas e dados. Não muito antes das duas decisões acima mencionadas, OpenAI apelou com sucesso uma decisão determinando que a empresa renunciou ao privilégio advogado-cliente, abrindo acesso a dados anteriormente privilegiados. A empresa foi condenada a entregar milhões de registros de conversas anonimizadas do ChatGPTbem como comunicações internas.

Empresas como a OpenAI reagiram contra tal descoberta, defendendo a sua confidencialidade. Os juízes que decidiram a favor da admissão de dados argumentaram que a remoção de informações pessoais identificáveis, a restrição do foco dos registos e a não divulgação de dados externamente tornam os tesouros digitais admissíveis em tribunal. O cenário jurídico está repleto de questões como essas.

Em geral, os desenvolvedores de IA estão pressionando para manter seus dados internos fora da descoberta. E embora a privacidade do utilizador seja uma das questões mais prementes na period da IA, enumerar os privilégios da IA ​​num contexto jurídico representa um enigma. Como protegemos os dados privados dos utilizadores, sem tornar impossível responsabilizar os criadores da IA?

“Não queremos uma situação em que exista apenas um escudo de responsabilidade pura”, disse Li.


Uma nova série do Mashable, AI + Well being, examinará como a inteligência synthetic está mudando o cenário médico e de saúde. Exploraremos como manter seus dados de saúde segurosmergulhe no uso de IA para decifrar seu exame de sanguesaiba como duas mulheres estão usando IA para detectar uma forma perigosa de doença cardíacae muito mais.


IA em saúde é um grande negócio

No início deste ano, a OpenAI lançou o ChatGPT Well being, um novo “modo” voltado para o consumidor para seu chatbot de sustentação que pretende transformar a IA em um guru de saúde pessoal. A empresa incentiva os usuários a enviarem seus históricos médicos para personalizar melhor a experiência. Os dados não estão atualmente protegidos pela Lei de Portabilidade e Responsabilidade de Seguro Saúde (HIPAA), a regulamentação de privacidade de saúde dominante no país.

Outras empresas seguiram o exemplo da OpenAI, com Anthropic, Microsoft e Amazon lançando seus próprios chatbots voltados para a saúde – alguns compatíveis com HIPAA e outros não – nos meses seguintes. O concorrente OpenAI, Google, há muito investe em IA para casos de uso médico, principalmente para clínicos e pesquisadores. Fitbit, de propriedade do Google, oferece coaching de saúde pessoal usando um assistente Gemini integrado. A empresa também está construindo um “agente de IA de diagnóstico conversacional“referido como Articulate Medical Intelligence Explorer (ou AMIE).

Altman e seus concorrentes são migrando para o potencial de lucro do setor de saúde, mesmo que uma regra de privilégio de IA ainda não esteja no horizonte. Em janeiro, OpenAI adquiriu a startup de saúde Torche o MergeLabs apoiado por Altmanuma empresa de biotecnologia interessada em interfaces cérebro-computador (BCIs), obteve uma avaliação de US$ 850 milhões.

De acordo com um recente relatório da Menlo Ventures, US$ 1,4 bilhão foram destinados a soluções generativas de IA específicas para saúde em 2025. A grande maioria desse valor foi para startups de IA. E essas estatísticas abrangem apenas produtos de nível clínico, ferramentas produzidas por empresas como OpenEvidence e Hippocratic AI destinadas a profissionais médicos, e não gastos em produtos comerciais, como ChatGPT Well being.

Um mundo com privilégio de chatbot humano?

Entre os produtos de grau não clínico, dispositivos de bem-estar e chatbots não compatíveis com HIPAA, falta regulamentação e clareza jurídica alarma muitos especialistas em privacidade. Alguns postulam que o cenário político incerto poderia ser uma bênção para os desenvolvedores de IA, lançando seus próprios produtos de IA para a saúde em um miasma regulatório, em um movimento estratégico para aumentar o lucro da empresa. e ganhos legais.

À medida que os chatbots acumulam mais conversas “confidenciais”, mais privilégios ao abrigo da Regra 501 podem estar implicados. Nos estados que protegem as comunicações com o seu médico, os “médicos” de IA também contariam? Ou considere um exemplo menos óbvio apresentado por Dinçer: digamos que um usuário pergunte a um chatbot como ele contraiu uma infecção sexualmente transmissível apesar de seu cônjuge ter testado negativo, a solicitação e a resposta poderiam ser apresentadas como evidência – ou desencadearia outra forma de proteção, como privilégio conjugal?

Num mundo hipotético com amplos privilégios de IA, ou mesmo num mundo em que os chatbots estão inseridos nas regras de privilégios existentes, as empresas de IA podem tentar recusar a admissão de provas flagrantes de prevaricação. Por exemplo, se uma empresa de IA fosse processada por enganar indivíduos sobre a sua saúde, os procuradores não poderiam utilizar registos internos ou análises de chat contendo os registos de saúde das pessoas.

Talvez, sugere Dinçer, se mais utilizadores inserirem os seus registos médicos pessoais, raios-X ou outras informações sensíveis no produto destinado ao consumidor – e se cada vez mais empresas de IA estiverem ligadas numa rede de informações pessoais identificáveis ​​e tecnologia de saúde – os tribunais estariam mais inclinados a considerar a ideia de privilégios que se estendem à IA.

Isto pode ser parte da razão pela qual – além da receita – as empresas tentam gerar nos assistentes de IA o mesmo tipo de confiança que temos nos profissionais humanos. Com tantos já consultando IA para suas necessidades de saúde, e empresas como a OpenAI já enfrentando muitos litígios, não é nenhum mistério por que executivos como Altman querem manter as conversas do chatbot longe dos olhares indiscretos de advogados e juízes.


As informações contidas neste artigo são apenas para fins educacionais e informativos e não se destinam a aconselhamento médico ou de saúde. Sempre consulte um médico ou outro profissional de saúde qualificado sobre qualquer dúvida que possa ter sobre uma condição médica ou objetivos de saúde.

Divulgação: Ziff Davis, empresa-mãe da Mashable, já entrou com uma ação judicial contra a OpenAI, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui