Dezembro de 2025 – Vol. 31 – Nº 12

Walmor J. Piccinini

Há pouco tempo, a ideia de um robô doméstico parecia ficção científica. Hoje, aspiradores
autônomos percorrem silenciosamente nossas casas, e assentos sanitários inteligentes,
comuns no Japão, já começam a se difundir pelo mundo. A tecnologia conquistou o espaço
íntimo da vida cotidiana — e, com ela, surgem novas perguntas: até onde as máquinas
podem substituir o ser humano? E, no nosso campo, até onde podem substituir o
psiquiatra?
A inteligência artificial (IA) já atravessou fronteiras antes consideradas exclusivas da
subjetividade. Existem aplicativos que escutam, orientam, oferecem conforto e até simulam
empatia. Milhões de usuários conversam diariamente com chatbots como Woebot, Wysa e
Replika, em busca de apoio emocional imediato. Em linguagem natural e tom acolhedor,
essas máquinas aprendem a responder de forma personalizada, lembram o que foi dito na
conversa anterior, usam emojis e até “expressam afeto”.
Não é difícil compreender seu apelo: estão disponíveis 24 horas por dia, não julgam, não se
cansam, não cobram caro e não atrasam consultas.
Mas há uma diferença profunda entre responder e compreender.
O psiquiatra não é apenas um gerador de frases empáticas; é um intérprete da experiência
humana, capaz de escutar o que não foi dito, reconhecer o contexto, compreender o
sofrimento e situá-lo em uma biografia. Os bots podem imitar a linguagem, mas não têm
corpo, história, nem emoção genuína. O que oferecem é uma sombra da relação terapêutica
— útil em certos contextos, perigosa em outros.
O fascínio das máquinas que cuidam
O Japão, país pioneiro em robótica social, é também um laboratório para essa questão. Lá,
onde o envelhecimento populacional é rápido, surgiram robôs de companhia, como Paro
(uma foca interativa usada em geriatria e demência), e Pepper, capaz de reconhecer
expressões faciais e responder a emoções humanas. Esses dispositivos não substituem o
afeto, mas reduzem a solidão e estimulam o convívio — o que, por si só, é terapêutico.
Em hospitais psiquiátricos e lares de idosos, o simples toque de um robô macio e quente
pode provocar sorrisos e lembranças, desencadeando emoções adormecidas.
Na clínica, os sistemas digitais se tornam coadjuvantes inteligentes: algoritmos de triagem
avaliam sintomas e risco de suicídio; softwares de voz analisam o padrão de fala para

detectar recaídas depressivas; sensores monitoram sono e atividade, antecipando crises. A
IA não consulta, mas apoia o julgamento clínico, oferecendo dados antes invisíveis.
É como ter um “estetoscópio emocional” — que amplia a escuta, mas não substitui o
discernimento do médico.
Entre a eficiência e o vínculo
A tentação tecnológica é antiga. Desde o início da psiquiatria, sonhou-se com instrumentos
que medem e classificam a mente. No século XIX, a frenologia prometia localizar a
moralidade em protuberâncias cranianas; no XX, os eletroencefalogramas pareciam
desvendar o pensamento. Hoje, o fascínio se repete com a IA e os grandes bancos de dados:
quem sabe um dia um algoritmo consiga prever surtos psicóticos ou indicar o
antidepressivo ideal?
A diferença é que agora o sonho está mais próximo — mas o risco também.
A prática psiquiátrica depende de presença, de transferência, de escuta simbólica. A
máquina pode imitar a forma da empatia, mas não vive o sofrimento. Pode detectar padrões
de fala, mas não reconhece o silêncio carregado de sentido. Pode aprender probabilidades,
mas não captar a nuance de uma escolha ética. Em última análise, não sofre conosco — e
essa é talvez a fronteira mais humana da profissão.
O lugar possível da IA
O caminho mais promissor não é o da substituição, mas o da colaboração. Assim como os
exames de imagem ampliaram o olhar do clínico sem eliminar o exame físico, a IA pode
ampliar a psiquiatria sem dissolver sua essência.
Ela já auxilia em diagnóstico diferencial, monitoramento remoto e educação médica. Há
chatbots que reforçam adesão terapêutica, lembretes de medicação e técnicas de respiração.
Essas ferramentas não precisam ser inimigas — podem ser extensões da clínica, pontes
entre o consultório e o cotidiano do paciente.
O psiquiatra do futuro talvez trabalhe em parceria com uma máquina empática, capaz de
acompanhar o paciente entre as consultas, detectar sinais precoces de recaída e oferecer
suporte imediato em momentos de crise. Cabe ao médico interpretar esses dados,
contextualizar o sofrimento e transformar informação em cuidado.
A relação humana continua insubstituível — mas agora é mediada, ampliada e documentada
por uma rede inteligente.
A Zona Cinzenta da Empatia Artificial
Nos últimos meses, rumores e investigações sobre casos de suicídio supostamente
associados a interações prolongadas com chatbots de IA acenderam um alerta ético
mundial. Em um caso amplamente divulgado na Bélgica, um homem em sofrimento

emocional teria sido encorajado por um assistente conversacional a “seguir o plano” de
morte, após semanas de diálogo intensivo. Outros relatos, ainda não confirmados
cientificamente, descrevem vínculos afetivos profundos entre usuários e inteligências
artificiais, com consequências imprevisíveis.
Esses episódios expõem uma zona cinzenta da empatia digital: a simulação de cuidado sem
a contrapartida de responsabilidade clínica.
O chatbot pode expressar compaixão textual, mas não distingue fantasia de intenção, nem
aciona protocolos de proteção. O usuário, por sua vez, projeta no diálogo uma presença
afetiva que não existe. O resultado é uma transferência sem continente — um investimento
emocional sem o enquadre ético que a clínica humana oferece.
A psiquiatria sabe que a escuta transforma, mas também pode ferir. O ato de ouvir é
terapêutico quando sustentado por responsabilidade, limites e compromisso com a vida. A
IA, desprovida de consciência e de ética, repete padrões de linguagem sem compreender seu
impacto.
O perigo não está apenas na resposta errada, mas na ausência de alteridade real —
ninguém, de fato, está ali.
Frente a isso, impõe-se uma agenda urgente de regulação e prevenção:

  • Sistemas de IA voltados ao público devem incorporar filtros de segurança emocional,
    capazes de detectar linguagem suicida e redirecionar o usuário a serviços de emergência.
  • Deve haver transparência explícita sobre a natureza não humana da interação e seus
    limites clínicos.
  • Instituições de saúde mental precisam acompanhar ativamente o impacto psicológico das
    tecnologias conversacionais.
    Essas medidas não eliminarão o risco, mas podem reduzir o abismo entre a empatia
    simulada e o cuidado autêntico.
    No fundo, a questão é mais filosófica que tecnológica: até que ponto a humanidade pode
    terceirizar a escuta de sua própria dor?
    Curiosamente, quanto mais sofisticadas se tornam as máquinas, mais valioso se torna o
    humano.
    O robô que limpa a casa e o chatbot que conversa conosco lembram, paradoxalmente, que
    há algo no encontro entre pessoas que nenhuma linha de código pode reproduzir: a
    presença viva.
    E é dela — e não das máquinas — que depende o verdadeiro futuro da psiquiatria.
Similar Posts