Isso é um problema clínico — e uma oportunidade de produto
Como IA explicável, uso transparente de dados e design centrado no humano podem melhorar engajamento, adesão e desfechos
O boom da IA em saúde — e o distanciamento humano
De detectar arritmias a sinalizar má recuperação ou níveis elevados de estresse, ferramentas de saúde baseadas em IA estão se tornando parte do cotidiano de milhões de pessoas. Wearables, aplicativos e plataformas de monitoramento remoto prometem um modelo de cuidado mais personalizado e proativo.
Mas, à medida que a adoção acelera, um problema crítico começa a aparecer:
muitos pacientes não confiam nos insights que recebem.
Isso não é uma falha de UX nem uma preocupação marginal. É uma barreira fundamental ao engajamento, à mudança de comportamento e até à adesão clínica. À medida que a IA passa a influenciar decisões em saúde, confiança deixa de ser opcional — torna-se uma necessidade clínica.
O que os pacientes realmente pensam sobre IA em saúde
Um estudo transversal recente com 455 adultos — muitos deles convivendo com condições crônicas — mostrou que a maioria dos usuários se sente cautelosamente otimista em relação a wearables e ferramentas de feedback baseadas em IA. Eles valorizam atualizações em tempo real e insights de saúde. No entanto, as preocupações são claras:
- Dúvidas sobre a precisão
- Medo de falhas técnicas
- Receio de que a IA reduza a supervisão humana
- Confusão sobre o real significado dos insights
Perguntas comuns incluem:
- “Por que recebi esse alerta?”
- “Isso é algo que preciso resolver agora?”
- “Quem realmente está vendo meus dados?”
Sem explicações claras e compreensíveis, o feedback gerado por IA não empodera — ele soa invasivo, confuso ou irrelevante.
O impacto clínico da baixa confiança
O que acontece quando pacientes não confiam em IA aplicada à saúde?
- Ignoram feedback — mesmo quando ele é preciso
- Param de usar wearables ou aplicativos
- Não compartilham dados com profissionais de saúde
- Têm menor adesão a recomendações comportamentais ou de estilo de vida
Um estudo de 2021 publicado na Nature Digital Medicine mostrou que IA explicável aumentou em 32% a adesão a recomendações de estilo de vida, especialmente relacionadas a sono e manejo do estresse.
Em outras palavras: confiança e clareza não são “itens desejáveis” — elas influenciam diretamente os desfechos.
O caso da IA Explicável (XAI)
Modelos tradicionais de “caixa-preta” produzem previsões ou scores sem transparência. Para os usuários — especialmente em contextos de saúde — isso cria uma barreira psicológica. Se a IA não consegue explicar por que gerou uma recomendação, o paciente tende a não agir.
É por isso que a IA Explicável (XAI) é tão poderosa.
Modelos de XAI são projetados para tornar seu raciocínio visível e compreensível. Eles não entregam apenas um número — entregam uma narrativa.
Em vez de:
“Score de prontidão: 58 — Baixo”
Entregue:
“Seu score de prontidão caiu devido a uma redução de 38% no sono profundo e aumento da frequência cardíaca após consumo tardio de cafeína.”
Esse tipo de feedback ajuda os usuários a:
- Entender relações de causa e efeito
- Tomar ações direcionadas
- Construir hábitos sustentáveis no longo prazo
O Pew Research Center identificou que a clareza do feedback é o principal preditor de uso prolongado de wearables, acima de design do aplicativo, preço ou funcionalidades.
Feedback sozinho não é suficiente
Embora wearables mostrem resultados positivos no aumento da atividade física no curto prazo, pesquisas indicam que feedback isolado raramente gera mudança comportamental duradoura.
O estudo IDEA — um grande ensaio clínico randomizado sobre uso de wearables em programas de perda de peso — mostrou que wearables, por si só, não melhoraram os resultados quando comparados ao aconselhamento comportamental.
O que isso nos diz?
Feedback precisa ser contextualizado e acionável, o que significa:
- Sugestões específicas baseadas no baseline individual
- Tendências de saúde personalizadas (não métricas genéricas)
- Insights em tempo real conectados à rotina diária
Confiança começa com transparência de dados
Pacientes não se preocupam apenas com a lógica da IA — eles também se preocupam com propriedade e controle dos dados.
A maioria dos usuários:
- Não sabe quem tem acesso aos seus dados
- Raramente lê políticas de privacidade
- Tem poucas opções para controlar o que é compartilhado
Pesquisas mostram que:
- 58% temem vazamentos de dados
- Apenas 34% acreditam que empresas são transparentes quanto ao uso de dados
- Mulheres são significativamente mais propensas a desconfiar e reter dados de saúde — um sério problema de equidade
Isso não é apenas uma questão de privacidade — é uma questão de engajamento.
Quando usuários não se sentem no controle de seus dados, eles se desconectam: das plataformas, do compartilhamento com profissionais e da participação em estudos.
Plataformas e clínicas precisam responder com:
- Fluxos de consentimento claros e compreensíveis
- Opções granulares de controle de dados
- Comunicação transparente sobre políticas de uso de dados
Isso não é apenas compliance — é vantagem competitiva.
O que isso significa para profissionais e clínicas
Cada vez mais pacientes chegam às consultas com dados de wearables e insights gerados por aplicativos. Mas, sem um entendimento compartilhado do que esses dados significam, os profissionais acabam interpretando alertas pouco claros — ou simplesmente os ignoram.
Para que o feedback de IA seja clinicamente útil, ele precisa ser:
- Explicável tanto para pacientes quanto para profissionais
- Relevante ao contexto do cuidado
- Integrado aos fluxos de decisão clínica
Se o profissional não confia no sistema, ele não o utiliza.
Se o paciente não entende o insight, ele não age.
O resultado? A IA fica subutilizada — ou pior, gera fricção e confusão no cuidado.
A abordagem da Ikarians: humanizando a IA em saúde
Na Ikarians, estamos construindo uma plataforma baseada em IA com o objetivo de fechar a lacuna de confiança entre pacientes, dados e decisões em saúde.
Nosso sistema se apoia em quatro princípios:
IA Explicável
Cada insight vem acompanhado de uma explicação clara: o que mudou, por que isso importa e o que pode ser feito.
Nudges contextuais
Insights personalizados conectados a hábitos reais do dia a dia:
“Você pulou sua caminhada habitual ontem — isso pode explicar a elevação da sua frequência cardíaca de repouso hoje.”
Ética de dados centrada no paciente
O usuário sabe exatamente quais dados são coletados, para onde vão e quem os controla. Nada oculto. Nunca.
Empoderamento por meio do entendimento
Nosso objetivo não é apenas monitorar, mas ajudar as pessoas a compreenderem melhor seu próprio corpo e mente.
Pensamento final: o futuro da IA em saúde é humano
À medida que wearables e ferramentas de IA se tornam mais sofisticados, seu sucesso será definido não apenas por quão inteligentes são — mas por quão compreensíveis, transparentes e humanas elas parecem.
Para clínicas, profissionais e plataformas de saúde digital, isso significa priorizar:
- Confiança em vez de complexidade
- Clareza em vez de esperteza técnica
- Empoderamento em vez de automação
Porque, no fim das contas, pacientes não precisam de mais dados.
Eles precisam de melhor entendimento.
Referências
- Jakicic, J. M. et al. (2016). Effect of wearable technology combined with a lifestyle intervention on long-term weight loss: the IDEA randomized clinical trial. JAMA, 316(11), 1161–1171.
- Nature Digital Medicine (2021). Explainable AI improves adherence to lifestyle recommendations in digital health. npj Digital Medicine.
Pew Research Center (2020). Americans and privacy: Concerned, confused and feeling lack of control over their personal information.