Início Tecnologia A Microsoft passou anos pressionando o Copilot, mas agora diz para não...

A Microsoft passou anos pressionando o Copilot, mas agora diz para não confiar nele

22
0

Nos últimos anos, a Microsoft apostou tudo no Copilot. Ele está literalmente em todo lugar, seja no Home windows, Edge, Workplace ou até mesmo integrado em fluxos de trabalho principais onde você realmente não pode ignorá-lo. A mensagem foi clara: este é o futuro da produtividade, o seu assistente de IA para realizar o trabalho actual.

E agora, de repente, a Microsoft está dizendo… não leve isso muito a sério.

A Microsoft está recuando na proposta de “uso sério” do Copilot

Conforme relatado primeiro por Ferragens do Tomo Termos de Uso do Microsoft Copilot afirmam que o Copilot se destina apenas a “fins de entretenimento” e não deve ser usado para decisões importantes ou de alto risco. Isso inclui coisas como aconselhamento financeiro, jurídico ou médico. Basicamente, o tipo de coisa para a qual as pessoas estão cada vez mais usando IA.

O Copilot é apenas para fins de entretenimento. Pode cometer erros e pode não funcionar como pretendido. Não confie no Copilot para obter conselhos importantes. Use o Copilot por sua própria conta e risco.

No papel, isso faz sentido. A IA pode ter alucinações, errar e, ocasionalmente, parecer muito mais confiante do que deveria. Do ponto de vista jurídico, esta isenção de responsabilidade é quase esperada, pois funciona como uma rede de segurança para evitar possíveis responsabilidades à medida que estas ferramentas aumentam.

Microsoft: coloca o Copilot em todos os aplicativos do Workplace existentes

Também Microsoft: você não se atreve a usar isso para trabalhar https://t.co/gDUC7wtyXT

– {Hardware} Canucks (@hardwarecanucks) 3 de abril de 2026

Mas é aqui que começa a parecer um pouco estranho. Este é o mesmo Copilot que a Microsoft integrou profundamente ao Phrase, Excel, Outlook e Groups. Na verdade, eles estão até incorporados às soluções empresariais da própria Microsoft, conforme apontado por Usuários. Ferramentas que as pessoas usam para trabalho actual, não para experimentações casuais. Quando sua IA está resumindo e-mails, elaborando relatórios ou analisando dados, chamar isso de “entretenimento” parece estranhamente fora de sincronia com a realidade.

A web não está exatamente comprando

Não é novidade que a web não está exatamente aplaudindo. A reação foi principalmente confusão misturada com muitas reviravoltas. Porque sejamos honestos, se o Copilot não foi feito para uso sério, por que ele está no centro das ferramentas nas quais as pessoas confiam para realizar trabalhos sérios?

Os advogados finalmente alcançaram a IA. LOL, esta é uma maneira de impedir que processos judiciais digam “a IA me fez sentir mal”

— 𝕂𝕒𝕥𝕋𝕪𝕡𝕖𝕄 🇺🇸 (@KatTypeM) 3 de abril de 2026

Está começando a parecer menos uma redefinição e mais uma rede de segurança. Empurre o Copilot para todos os lugares, torne-o inevitável, venda-o como o futuro e, em seguida, adicione silenciosamente um rótulo “não confie nele” quando as coisas ficarem complicadas. É uma maneira bacana de aproveitar as vantagens da IA ​​e, ao mesmo tempo, evitar a responsabilidade que a acompanha.

Agora, claro, a Microsoft não está sozinha aqui. Cada ferramenta de IA vem com alguma versão deste aviso oculto nas letras miúdas. Mas a maioria dessas ferramentas é opcional. Você os instala, experimenta e resolve o quanto confiar neles. Infelizmente, o Copilot não seguiu esse caminho. Ele apareceu no Home windows e no Workplace e tornou-se parte da experiência, quer você tenha solicitado ou não.

E é exatamente por isso que parece estranho. Depois de meses ouvindo que o Copilot é o futuro da produtividade, chamá-lo de “apenas entretenimento” agora parece uma estranha reviravolta. Neste ponto, os usuários não estão apenas questionando as mensagens; eles estão questionando toda a integração. Porque se isso for apenas por diversão, talvez não deva ser tão difícil de desligar.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui