Todos os artigos
Compliance10 min

IA no prontuário psicológico: o que o CFP diz, o que a ética exige, o que funciona na prática

IA assistente em prontuário é permitida no Brasil? O que muda na responsabilidade clínica? Análise prática alinhada ao CFP, LGPD e à realidade do consultório.

Henrique Frazão·

Contexto: IA chegou ao consultório de psicologia

Em 2026, ferramentas que usam IA para apoiar prontuários psicológicos estão se tornando comuns. Transcrição automática de sessões, estruturação em SOAP, sugestão de hipóteses clínicas, análise de padrões longitudinais — tudo isso já existe e está acessível a psi clínicos individuais.

A pergunta deixou de ser "e se aparecer?" e passou a ser "como adotar de forma ética e regulamente conforme?".

Vou tratar três planos: o que o CFP diz, o que a ética clínica exige além da regulação, e o que funciona na prática sem comprometer o trabalho terapêutico.

O que o CFP diz

A Resolução CFP 11/2018 sobre prontuário psicológico não menciona IA — escrita antes da disseminação atual.

O Código de Ética Profissional (Resolução CFP 010/2005) também é tecnologicamente neutro, mas estabelece princípios diretamente aplicáveis:

  • Art. 1º, b — "Atuar com responsabilidade social, analisando crítica e historicamente a realidade política, econômica, social e cultural."
  • Art. 9º — "É dever do psicólogo respeitar o sigilo profissional a fim de proteger, por meio da confidencialidade, a intimidade das pessoas, grupos ou organizações, a que tenha acesso no exercício profissional."
  • Art. 17 — "Para realizar atendimentos em modalidades não presenciais [...] o psicólogo deverá observar as resoluções específicas do Conselho Federal de Psicologia."

O CFP também publicou Notas Técnicas em 2024 e 2025 sobre uso de IA em psicologia. As principais diretrizes consolidadas até 2026:

1. A responsabilidade clínica é sempre do(a) psicólogo(a), independentemente do uso de IA assistente.

2. A IA pode apoiar registros, mas não substituir o juízo clínico em diagnóstico, prognóstico ou intervenção.

3. O paciente deve ser informado sobre uso de IA (transparência no contrato terapêutico).

4. Sigilo profissional não pode ser comprometido — escolha de fornecedores deve considerar não-treinamento e proteção de dados.

5. IA voltada diretamente ao paciente (chatbot psicológico, "terapia com IA") é vista com muita cautela e desencorajada na maioria dos contextos.

O que a ética clínica exige além

O CFP estabelece piso regulatório. Há considerações éticas que vão além:

Não delegar interpretação clínica

A IA pode transcrever, estruturar, identificar padrões. Mas interpretar — atribuir significado clínico, formular hipótese diagnóstica, decidir intervenção — é trabalho humano. Delegar interpretação à IA, mesmo que parcialmente, é eticamente problemático: a IA não tem responsabilidade ética porque não é sujeito moral.

Manter o paciente como protagonista

Se a IA gera um "resumo da sessão" mas você nunca revisa antes de salvar, quem está construindo a narrativa do tratamento? A escolha do que registrar é decisão clínica — não pode virar automação cega.

Critério prático: se você não consegue defender clinicamente cada palavra do prontuário, ainda que rascunhado por IA, a responsabilidade clínica está abalada.

Não normalizar o que ainda é experimental

IA assistente é tecnologia nova. Modelos erram, têm vieses, podem reforçar estereótipos clínicos problemáticos (gênero, raça, classe). Trate como ferramenta em prova — útil, mas que exige supervisão consciente até consolidação.

Considerar o impacto na escuta

Se você grava sessão para alimentar IA, isso pode mudar sua presença na sessão ("isso vai ser transcrito") ou a presença do paciente ("estou sendo gravado, posso ser cuidadoso"). Esse efeito é real e merece reflexão. Para muitos pacientes, gravação não é problema — para alguns, é decisivo.

Não economizar tempo cortando supervisão

Se a IA te economiza 15 min por evolução, esses 15 min têm valor — mas o melhor uso clínico é investir parte deles em supervisão, não em mais pacientes. Volume mais alto sem supervisão proporcionalmente maior é receita pra burnout e deterioração clínica.

O que funciona na prática

Considerando regulação + ética, vou destacar configurações de uso de IA assistente que funcionam clinicamente, e configurações que não funcionam.

✅ Configurações que funcionam

1. Transcrição + estruturação em SOAP, com revisão obrigatória.

Você narra a sessão depois do atendimento (relato em áudio de 2-3 min — seu ditado clínico, não a fala do paciente). Se quiser, pode gravar a sessão inteira com consentimento documentado, mas é exceção. IA transcreve. IA estrutura em SOAP. Você revisa cada campo, ajusta o que estiver impreciso, adiciona o que a IA não captou (sinais não-verbais, contexto de história prévia). Salva apenas a versão revisada.

Ganho de tempo: 60-70%. Risco clínico: baixo, desde que a revisão seja real.

2. Sumarização longitudinal do caso.

Após várias sessões, a IA gera um resumo do que vem acontecendo no tratamento — útil para revisão antes de supervisão ou retomada após pausa. Você lê o resumo, complementa com sua leitura clínica.

3. Detecção de padrões objetivos.

A IA monitora dados objetivos do caso (frequência de sessões, queda em escalas auto-aplicadas, faltas, engajamento entre sessões) e alerta sobre padrões que correlacionam com abandono. Você decide se age sobre o alerta.

❌ Configurações que NÃO funcionam

1. IA escrevendo prontuário sem revisão.

Salvar diretamente o output da IA sem revisão é abdicação de responsabilidade clínica. Eticamente problemático e juridicamente arriscado.

2. IA gerando hipótese diagnóstica como input principal.

Usar IA como "consultor" pra te dizer "esse paciente tem TPB" é problemático em vários níveis — vieses do modelo, redução do paciente a categorias, decisão clínica feita por sistema não-humano.

Diferente é a IA listar padrões observáveis (ex.: "humor variou muito nas últimas 4 sessões") e você decidir clinicamente o que isso significa.

3. Chatbot atendendo paciente "em sua ausência".

Não recomendado pelo CFP. Cria expectativa de "terapia disponível 24/7" que distorce a relação terapêutica, e o "atendimento" da IA não tem nenhum dos componentes essenciais (escuta clínica, presença, transferência).

4. Compartilhar dados clínicos com IA sem garantia de não-treinamento.

Se o fornecedor de IA usa seus dados pra treinar modelo, dados sensíveis dos seus pacientes podem (em tese) influenciar respostas futuras do modelo a outros usuários. Risco de sigilo. Use apenas serviços com cláusula contratual de "no-train" explícita.

Salvaguardas práticas

Se você está adotando IA assistente em prontuário, mínimo:

1. Cláusula no contrato terapêutico informando uso de IA e propósito (estruturação de prontuário, não substituição de juízo clínico).

2. Verificação técnica do fornecedor: cláusula no-train, criptografia, conformidade LGPD, sede no Brasil ou em país com adequação reconhecida pela ANPD.

3. Política de retenção curta de áudios: se a IA usa áudio pra transcrição, áudio é apagado em prazo curto (24-48h máximo) após processamento.

4. Revisão obrigatória: nenhum prontuário é salvo sem leitura completa pelo profissional.

5. Sinalização visível no prontuário ("Rascunho gerado com apoio de IA — revisado pelo profissional em [data]").

6. Supervisão regular especificamente sobre uso de IA — discutir casos onde a IA influenciou (positiva ou negativamente) decisões clínicas.

Como o Copilloto se posiciona

O Copilloto incorpora IA assistente seguindo os princípios acima:

  • Transcrição e estruturação em SOAP, sempre com revisão obrigatória antes de salvar.
  • Modelo em modo "no-train" (Google Gemini com termo contratual explícito).
  • Áudios deletados em 24h após processamento.
  • Sinalização automática no rodapé do prontuário quando gerado com apoio de IA.
  • IA opcional: pode ser desligada por psi a qualquer momento; todas as funções do Copilloto rodam sem IA.
  • Cláusula LGPD/IA integrada ao modelo de contrato terapêutico fornecido.

Para fechar

IA em prontuário psicológico é como qualquer ferramenta clínica: o que ela vale depende inteiramente de como é usada. Mal usada, automatiza decisões que não deveriam ser automatizadas. Bem usada, devolve tempo administrativo pro psi sem comprometer qualidade clínica.

A linha entre "boa ferramenta" e "abdicação de responsabilidade" é a revisão consciente. Mantém revisão real, e a IA é aliada. Pula revisão, e ela vira problema.

[Conheça o Copilloto — IA assistente com salvaguardas integradas →](https://copilloto.com.br)

O Copilloto cuida disso por você

Prontuário, agenda, cobrança, WhatsApp automático e retenção de pacientes em um só lugar.

Testar 14 dias grátis