ChatGPT analisou 10 anos de dados do meu Apple Watch – 27/01/2026 – Tec

ChatGPT analisou 10 anos de dados do meu Apple Watch - 27/01/2026 - Tec

O ChatGPT agora afirma ser capaz de responder a perguntas pessoais sobre a sua saúde usando dados do seu rastreador de atividades físicas e registros médicos.

O novo ChatGPT Health diz que pode ajudar você a “entender padrões ao longo do tempo —não apenas momentos de doença— para que se sinta mais bem informado”.

Como muitas pessoas que usam um Apple Watch todos os dias, sempre me perguntei o que uma década inteira desses dados poderia revelar sobre mim. Então entrei em uma breve lista de espera e dei ao ChatGPT acesso aos 29 milhões de passos e 6 milhões de medições de batimentos cardíacos. Em seguida, pedi ao bot que avaliasse minha saúde cardíaca.

Ele me deu nota zero. Entrei em pânico e fui correr. Depois enviei o relatório do ChatGPT para meu médico de verdade.

Sou mesmo um zero? “Não”, disse meu médico. Na verdade, meu risco de infarto é tão baixo que meu plano de saúde provavelmente nem cobriria um exame extra de aptidão cardiorrespiratória para provar que a inteligência artificial estava errada.

Também mostrei os resultados ao cardiologista Eric Topol, do Scripps Research Institute, especialista em longevidade e no uso de IA na medicina. “Não tem fundamento”, disse. “Isso não está pronto para fornecer qualquer aconselhamento médico.”

A IA tem enorme potencial para destravar descobertas médicas e ampliar o acesso à saúde. Mas, quando se trata de dados de rastreadores de atividade e alguns registros médicos, o novo “Dr. ChatGPT” parece estar improvisando.

Isso se encaixa em uma tendência preocupante: empresas de IA lançando produtos que não funcionam direito, não entregam o prometido ou podem até ser perigosos. Quando o assunto é saúde, isso deveria importar —e muito.

Poucos dias depois do lançamento do ChatGPT Health, a rival Anthropic apresentou o Claude for Healthcare, que de forma semelhante promete ajudar pessoas a “detectar padrões em métricas de saúde e atividade física”. O Claude avaliou minha saúde cardíaca como cinco, apoiando-se em parte das mesmas análises que Topol considerou problemáticas.

OpenAI e Anthropic afirmam que seus bots não substituem médicos nem fornecem diagnósticos, e incluem avisos contextuais. Ainda assim, ambos ofereceram análises detalhadas da minha saúde cardiovascular. (O Washington Post tem parceria de conteúdo com a OpenAI.)

As empresas também dizem que seus produtos de saúde estão em fases iniciais de testes, mas não detalharam como pretendem melhorar a capacidade de oferecer análises pessoais a partir de dados de saúde. A Apple afirma que não trabalhou diretamente com nenhuma das duas empresas nesses produtos.

COMO O CHATGPT INTERPRETOU MEUS GRÁFICOS

Todo o conceito do ChatGPT Health envolve um salto de fé: entregar suas informações de saúde mais íntimas a uma empresa de IA faminta por dados. As pessoas têm razão em se preocupar com privacidade.

A OpenAI diz que o modo Health adota medidas extras de proteção: não usa os dados para treinar seus modelos nem os mistura com outras conversas, além de criptografá-los. Ainda assim, trata-se basicamente de uma promessa informal: o ChatGPT não é um provedor de saúde e, portanto, não está sujeito à lei federal americana de privacidade médica.

Depois de conectar o ChatGPT ao Apple Health, pedi que o bot compartilhasse recomendações e apontasse possíveis alertas. Ele sugeriu que eu conversasse com meu médico sobre um “aumento relevante” na minha frequência cardíaca de repouso, mas elogiou meus níveis de sono e atividade física.

Em seguida, pedi notas simples para “saúde do coração e longevidade”. Foi aí que veio o zero.

Questionei: “Você realmente acha que minha saúde cardíaca e longevidade merecem notas tão ruins?”

A resposta: “Resposta curta: não —não acho que você seja um caso perdido, e sinto muito se as notas pareceram duras. Elas foram uma leitura pragmática baseada apenas em dados do dispositivo.”

O bot disse que poderia dar uma avaliação melhor se eu também conectasse meus prontuários médicos. Fiz isso e pedi novamente a nota. Ela subiu para três.

Topol ficou alarmado ao ver a análise. Mesmo com acesso ao meu peso, pressão arterial e colesterol, o ChatGPT baseou grande parte da avaliação negativa em uma estimativa de VO₂ máximo do Apple Watch —uma métrica que a própria Apple admite ser apenas uma estimativa. Estudos independentes indicam que esse valor pode ser subestimado em média em 13%.

O ChatGPT também deu peso excessivo à variabilidade da frequência cardíaca, uma métrica cheia de incertezas, segundo Topol. Ainda por cima, ao pedir um gráfico da minha frequência cardíaca ao longo da década, notei grandes variações sempre que troquei de Apple Watch —sinal de que os dispositivos talvez não tenham medido da mesma forma ao longo dos anos. Mesmo assim, o ChatGPT tratou esses dados imprecisos como sinais claros de saúde.

ANÁLISES ERRÁTICAS E NOTAS INSTÁVEIS

As empresas dizem que seus produtos não foram feitos para avaliações clínicas, mas para ajudar o usuário a se preparar para uma consulta médica. Ainda assim, diante de tantos dados pessoais, a pergunta é óbvia: como estou?

Pior: ao repetir a mesma pergunta em momentos diferentes, minha nota variava de zero a sete. O ChatGPT esquecia informações básicas, como minha idade, gênero e sinais vitais recentes, mesmo tendo acesso aos exames.

“Isso é totalmente inaceitável”, disse Topol. “As pessoas vão ficar apavoradas com a própria saúde —ou, no sentido oposto, achar que está tudo ótimo quando não está.”

A OpenAI afirmou não ter conseguido reproduzir variações tão extremas e disse estar trabalhando para tornar as respostas mais estáveis antes de ampliar o acesso ao ChatGPT Health.

VOCÊ DEVE CONFIAR SUA SAÚDE A UM BOT?

Gostei de usar o ChatGPT Health para gerar gráficos e responder perguntas mais específicas, como mudanças na minha atividade após ter filhos. E é verdade que milhões de pessoas já usam o ChatGPT para dúvidas sobre saúde e bem-estar.

Mas a questão central permanece: devemos confiar nisso?

Segundo especialistas, analisar corretamente dados corporais de longo prazo exige modelos dedicados, capazes de lidar com ruído, limitações dos sensores e desfechos clínicos reais. Isso está muito além de simplesmente organizar gráficos e métricas.

“Você esperaria algo muito mais sofisticado, alinhado à prática da medicina”, disse Topol. “Não algo assim. Isso é muito decepcionante.”



Fonte ==> Folha SP – TEC

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *