O novo Muse Spark da Meta pode ser apresentado como um modelo de IA mais inteligente, mas com base em testes iniciais, parece o tipo de IA que você realmente não deseja, nem perto de decisões médicas sérias.
O recente relatório da WIRED falou sobre a experiência com Muse Spark. O modelo de IA focado na saúde da Meta dentro do aplicativo Meta AI não mostrou resultados promissores. O chatbot supostamente encorajou os usuários a fazer add de informações médicas brutas, como relatórios de laboratório, leituras de monitores de glicose e registros de pressão arterial, e então se ofereceu para ajudar a analisar padrões e tendências.
Tudo isso parece muito útil até você perceber duas preocupações imediatas. Você está entregando dados muito confidenciais e se a IA é remotamente confiável o suficiente para interpretá-los.
O que deu errado nos primeiros testes?
O primeiro problema é difícil de ignorar. Numa época em que sua vida já parece muito transparente, Muse Spark está se intrometendo ainda mais. Não é inesperado fornecer as informações necessárias para um diagnóstico preciso, mas entregar seus registros pessoais de saúde a um chatbot para aconselhamento não parece um risco à privacidade.
Ao contrário dos dados partilhados com um médico ou hospital, as informações inseridas num chatbot não vêm automaticamente com as mesmas expectativas ou proteções que as pessoas podem assumir que existem. Esta não é uma opinião avaliada profissionalmente e é isso que torna a ideia instável. A IA está sendo apresentada como uma ferramenta útil, mas o ambiente ao seu redor ainda parece muito mais próximo de um produto de consumo do que de um produto médico propriamente dito.

Essa nem é a pior parte
Além dos riscos típicos de privacidade envolvidos ao compartilhar dados pessoais com qualquer gigante da tecnologia, você esperaria pelo menos obter uma resposta útil. Mas o problema mais sério parecia estar na qualidade do aconselhamento. Nos testes da WIRED, o chatbot gerou um plano de refeições extremamente baixas em calorias depois de ser questionado sobre perda de peso e jejum intermitente agressivo.
Embora o bot tenha sinalizado alguns dos riscos ao longo dessa rota, um aviso não significa muito se o modelo continuar ajudando o usuário a fazer algo perigoso de qualquer maneira. É aqui que reside o verdadeiro problema com muitas ferramentas de saúde de IA no momento. Eles podem parecer cautelosos, informados e equilibrados até o momento em que começam a reforçar suposições erradas. Esse tom polido pode oferecer conselhos errados com confiança, o que torna o fracasso mais perigoso.












