A era digital avança rapidamente e com ela o uso de ferramentas de terapia assistida por tecnologia, inclusive por Inteligência Artificial (IA). Em uma matéria da CARAS Brasil, a psiquiatra ouvida alerta que, embora essas soluções possam parecer acessíveis e modernas, há riscos importantes envolvidos. Caras
A especialista afirma que “o que vemos nesses atendimentos com IA, muitas vezes, é uma escuta automatizada, que carece de vínculo humano, de presença clínica e de sensibilidade para nuances emocionais”. No contexto, ela explica que “quando o usuário passa a depender da tecnologia para desabafar ou buscar alívio imediato, pode surgir um custo emocional altíssimo: solidão, sensação de vazio e até retraumatização”. Caras
Segundo a psiquiatra, a terapia com IA não substitui a psicoterapia tradicional: “A IA pode ser um complemento, mas não pode ser vista como terapeuta. O cuidado emocional profundo exige presença humana — uma máquina responde, não acolhe”. Esse alerta surge como contrapartida à ideia de que “qualquer app resolve”.
O artigo destaca que algumas pessoas optam por essas tecnologias por praticidade, custo ou anonimato, mas o perigo está em assumir que não há limites ou riscos. A psiquiatra enfatiza que “o usuário precisa ter clareza sobre os objetivos — se é suporte leve ou tratamento clínico — e se estiver buscando cura, precisa de profissional credenciado”. Caras
Para organizações de saúde mental e profissionais, a recomendação é clara: considerar a IA como ferramenta auxiliar, mas manter o foco na escuta qualificada, no vínculo terapêutico e na avaliação individual. A mensagem final é contundente: inovação é bem-vinda, mas não à custa da saúde emocional.