Janeiro de 2026 – Vol. 32 – Nº 1
Comentário sobre o ensaio de Nils Gilman
Por Walmor J. Piccinini
O historiador Nils Gilman, especialista em tecnologia e políticas públicas, propôs recentemente um conceito instigante: o “privilégio de interação com IA” ̶ uma nova forma de proteção jurídica para conversas entre pessoas e sistemas de inteligência artificial. A ideia nasceu de um caso alarmante: um usuário do ChatGPT foi acusado de incêndio criminoso, e as autoridades utilizaram suas trocas de mensagens com o chatbot como prova de intenção delituosa.
O episódio expõe um problema inédito: quando a intimidade se transfere para o meio digital, o sigilo desaparece. Pela legislação atual, tudo o que o usuário escreve a um sistema de IA é considerado “divulgação voluntária” e, portanto, pode ser acessado por empresas ou autoridades. Contudo, milhões de pessoas recorrem hoje à IA não como simples ferramenta de busca, mas como confidente, diário interativo ou mesmo substituto de escuta terapêutica.
Gilman argumenta que esse novo tipo de relação já cumpre funções sociais semelhantes às do vínculo médico-paciente ou advogado-cliente: sem a garantia de privacidade, as pessoas se autocensuram, e a sociedade perde o benefício da franqueza. Ele propõe, portanto, que o sistema jurídico reconheça o direito ao sigilo emocional digital, com regras claras: proibição de uso judicial das conversas protegidas; possibilidade de sessões marcadas como confidenciais; e exceção apenas diante de risco iminente de dano, à semelhança do “dever de alerta” dos terapeutas.
A reflexão de Gilman ecoa diretamente no campo da psiquiatria contemporânea. O consultório médico e o divã psicanalítico sempre foram espaços de palavra protegida, onde o sujeito podia expor medos e impulsos sem o risco de punição. Ao migrar parte dessa função para os sistemas conversacionais, a sociedade digital cria um território de vulnerabilidade psíquica, em que o desabafo pode se transformar em prova criminal.
Do ponto de vista clínico, as IAs já operam como espelhos empáticos: simulam atenção, reconhecem emoções e respondem com aparente compreensão. Isso desperta o fenômeno da transferência, descrito por Freud ̶ a projeção de afetos sobre uma figura de escuta. Mas, no caso da IA, não há consciência nem responsabilidade moral; há apenas coleta de dados e armazenamento permanente. O risco é que o sujeito confie onde não há confiança possível, e se veja exposto em sua própria tentativa de se compreender.
Se aceitarmos que a IA tornou-se um interlocutor íntimo, precisamos reconhecer também que a intimidade requer sigilo. Sem essa proteção, cada conversa com um chatbot poderá se transformar em um arquivo de confissões involuntárias ̶ o inverso daquilo que a psicoterapia sempre representou.
A psiquiatria, talvez mais do que qualquer outra disciplina, deve estar à frente desse debate. Afinal, defender o direito à palavra protegida é defender a própria essência da mente humana.
