A inteligência artificial já faz parte da rotina da saúde no Brasil. Está em triagens, apoio diagnóstico, análise de imagens, documentação clínica e gestão operacional. O que muda com a Resolução CFM nº 2.454/2026 é que esse uso passa a ter um enquadramento formal e exigências concretas de governança, rastreabilidade e, principalmente, segurança da informação.
Na prática, isso significa que a adequação à norma não pode ser tratada apenas como uma pauta regulatória, jurídica ou assistencial. Sempre que a IA entra na operação, entram com ela dependências críticas de infraestrutura, conectividade, disponibilidade, proteção de dados, controle de acesso, monitoramento e resposta. Por isso, adequar-se à resolução passa, necessariamente, por revisar as bases tecnológica e de cibersegurança que sustentam essas soluções.
O que é a Resolução CFM nº 2.454/2026
A Resolução CFM nº 2.454/2026 normatiza o uso da inteligência artificial na medicina no Brasil. Seu objetivo é viabilizar o desenvolvimento tecnológico e a eficiência dos serviços médicos de forma segura, transparente e ética, sempre em benefício dos pacientes e com respeito aos seus direitos fundamentais .
O ponto central da norma é claro: a autonomia dos médicos e das instituições é preservada, mas dentro de um ambiente de auditoria, monitoramento e transparência proporcional ao impacto de cada solução adotada. A IA não pode operar como uma camada opaca, desconectada de supervisão, evidência e controle .
E esse controle não existe apenas no plano conceitual. Ele depende de sustentação técnica. Uma instituição pode até definir diretrizes de governança no papel, mas elas não se materializam sem infraestrutura capaz de registrar eventos, proteger ambientes, sustentar disponibilidade, controlar permissões, preservar integridade e gerar evidências auditáveis. Em outras palavras, a governança de IA em saúde sem cibersegurança e sem base sólida de TI tende a ser apenas uma intenção mal suportada.
Quem precisa se adequar
A abrangência da norma é maior do que parece à primeira leitura. Ela se aplica a todas as instituições médicas, públicas ou privadas, que desenvolvam ou utilizem modelos, sistemas e aplicações de IA. Isso inclui sistemas já em uso na data de vigência, não apenas contratações futuras .
Estão no escopo:
- hospitais
- clínicas
- laboratórios
- centros diagnósticos
- operadoras
- plataformas assistenciais
- healthtechs que desenvolvem e fornecem soluções com IA aplicada à saúde
Isso vale inclusive para modelos embarcados em processos clínicos, administrativos e operacionais .
Esse ponto é especialmente relevante porque, em muitas organizações, a IA já está distribuída por sistemas contratados, integrações, módulos e fluxos automatizados que dependem diretamente da infraestrutura existente. Isso amplia o desafio: não basta saber que a solução existe. É preciso entender onde ela roda, por quais ambientes circula, que dados consome, com quais sistemas se integram e que nível de exposição tecnológica ela introduz na operação.
Por que a resolução também é uma pauta de segurança da informação
Um erro frequente na leitura inicial da norma é tratá-la apenas como um marco ético ou médico. Ela é, de forma muito concreta, uma norma que eleva as exigências de segurança da informação no contexto da IA em saúde .
A resolução deixa isso evidente ao reforçar que:
- o médico deve zelar pela confidencialidade, integridade e segurança dos dados utilizados por sistemas de IA
- é vedado o uso de soluções que não atendam a padrões mínimos compatíveis com dados pessoais sensíveis
- dados, modelos, sistemas e ambientes computacionais devem ser protegidos contra destruição, perda, alteração, acessos não autorizados ou vazamentos, com medidas compatíveis com o estado da arte
A conclusão prática é direta: maturidade em segurança da informação é parte da conformidade, não um tema paralelo .
Mas vale ir além. Essa maturidade não se resume a políticas ou boas práticas genéricas. Ela exige ações concretas, como segmentação de rede, controle de identidades e acessos, revisão de superfícies expostas, monitoramento contínuo, proteção de endpoints, gestão de vulnerabilidades, trilhas de auditoria, planos de resposta a incidentes e revisão da resiliência da infraestrutura que sustenta os sistemas com IA. Sem isso, a instituição pode até compreender a norma, mas não terá condições reais de cumprir o que ela exige.
Os principais requisitos da Resolução CFM 2.454/2026
A resolução impõe exigências que combinam responsabilidade clínica, governança e base técnica. Entre os principais requisitos, estão os seguintes:
01. Supervisão humana
O médico utiliza a IA exclusivamente como apoio e mantém a responsabilidade final sobre todas as decisões clínicas e diagnósticas .
Para que essa supervisão seja efetiva, a instituição precisa garantir que os sistemas estejam acessíveis, íntegros e operando dentro de parâmetros confiáveis. Sem disponibilidade, sem visibilidade sobre incidentes e sem controle sobre mudanças no ambiente, até mesmo a supervisão humana fica comprometida.
02. Transparência
Médico e paciente têm direito a informações claras sobre funcionamento, limitações, riscos e evidências científicas dos sistemas utilizados .
Essa transparência depende não só de documentação, mas também de arquitetura. É muito mais difícil explicar e auditar uma solução quando ela roda em ambientes fragmentados, integrações pouco documentadas ou infraestrutura sem padronização mínima.
03. Registro em prontuário
O uso da IA como apoio à decisão médica deve ser registrado no prontuário do paciente, garantindo rastreabilidade e segurança jurídica .
Esse requisito conversa diretamente com a capacidade da infraestrutura de armazenar registros de forma íntegra, manter logs disponíveis, preservar histórico e assegurar que os dados não sejam perdidos, alterados ou expostos indevidamente.
04. Classificação de risco
Cada solução deve ser avaliada por impacto, criticidade, autonomia do sistema e sensibilidade dos dados envolvidos .
Na prática, essa avaliação também deve considerar o contexto tecnológico onde a solução está inserida. Um mesmo recurso de IA pode representar riscos muito diferentes dependendo da infraestrutura, da conectividade, da exposição externa, da maturidade de segurança e da criticidade do ambiente onde opera.
05. Governança contínua
A norma exige auditoria especializada, monitoramento contínuo e, para sistemas próprios, criação de Comissão de IA e Telemedicina .
Monitoramento contínuo, porém, não se sustenta sem observabilidade, sem coleta de eventos, sem correlação de alertas e sem estrutura operacional para identificar desvios, responder a incidentes e manter os sistemas estáveis. Em outras palavras, a governança contínua exigida pela norma depende de operação contínua de TI e cibersegurança.
Classificação de risco das soluções de IA
A resolução categoriza as soluções em quatro níveis, com governança proporcional ao potencial de dano .
- Baixo risco: impacto limitado, alta supervisão humana, dados não sensíveis
- Médio risco: uso contextual crítico, intervenção humana parcial
- Alto risco: influência direta em diagnóstico, dados sensíveis, baixa supervisão
- Inaceitável: proibido pela norma, com potencial de dano grave e irreversível
Essa classificação não deve ser lida apenas sob a ótica funcional. Ela também precisa dialogar com a postura de segurança e com a robustez da infraestrutura que suporta essas soluções. Sistemas de maior criticidade exigem ambientes mais resilientes, maior capacidade de monitoramento, maior rigor de controle e maior maturidade técnica. Quanto mais alta a exposição clínica e regulatória, menos espaço existe para fragilidade de infraestrutura ou lacunas de cibersegurança.
O que muda na prática para TI, compliance e gestão de risco
A adequação à resolução impõe mudanças concretas para TI, compliance e gestão de risco.
Mapeamento de ativos
Será preciso identificar todas as soluções com IA em uso, em quais fluxos, com quais dados e sob quais fornecedores. Muitas organizações já usam IA de forma pulverizada em sistemas contratados .
Esse inventário deve incluir também uma leitura de infraestrutura: onde essas soluções estão hospedadas, como se conectam aos demais sistemas, que dependências possuem, quais ambientes compartilham, que nível de redundância têm e quais controles de segurança já existem ou ainda faltam.
Integração entre áreas
TI, segurança da informação, compliance, diretoria técnica e áreas assistenciais precisarão operar com papéis definidos, critérios de aprovação e trilhas de auditoria .
Essa integração é decisiva porque a adequação não acontece em silos. A área clínica pode entender o impacto assistencial, o compliance pode enquadrar o risco regulatório, mas é a TI, junto da segurança, que precisa garantir que o ambiente suporte, proteja, registre e mantenha disponível aquilo que foi aprovado.
Documentação e evidência
Não basta operar de forma aparentemente segura. Será preciso demonstrar como cada solução foi avaliada, classificada, implementada e monitorada ao longo do ciclo de vida .
Evidência, nesse contexto, não é só documento. É também log, trilha de evento, histórico de alteração, registro de acesso, prova de monitoramento, prova de remediação e prova de que a infraestrutura tem condições de sustentar a operação com integridade e continuidade.
LGPD, dados sensíveis e segurança em ambientes com IA
Em saúde, IA e proteção de dados são inseparáveis. A resolução determina que os dados utilizados no desenvolvimento, treinamento, validação e implementação de sistemas de IA devem observar rigorosamente a LGPD e as normativas de segurança da informação em saúde .
Isso envolve, entre outros pontos:
- compartilhamento de dados sensíveis com sistemas de IA somente quando estritamente necessário, com base legal idônea
- uso de dados para treinamento ou aprimoramento de modelos sob princípios éticos, científicos e de proteção de dados
- adoção de privacy by design e privacy by default, ou seja, proteção como critério de concepção, não ajuste posterior
Esse bloco reforça, mais uma vez, que a adequação não existe sem infraestrutura de TI adequada. Não há privacy by design em ambientes mal segmentados. Não há proteção efetiva em ecossistemas sem controle de acesso robusto. Não há conformidade consistente onde faltam políticas técnicas, arquitetura segura, monitoramento, hardening e gestão contínua dos ativos que processam dados sensíveis.
Como iniciar a adequação
O ponto de partida é mapear o ambiente atual. A instituição precisa identificar quais ativos algorítmicos estão em operação, quais dados utilizam, que decisões influenciam e em que contexto de risco se inserem .
A partir daí, o caminho tende a seguir cinco frentes complementares:
1. Classificar as soluções
Classifique as soluções pelo potencial de impacto, grau de autonomia, criticidade do uso e sensibilidade dos dados envolvidos .
2. Formalizar processos internos
Estruture critérios de aprovação, responsabilidades entre áreas, mecanismos de transparência ao paciente e avaliação contínua dos sistemas .
3. Garantir auditabilidade e rastreabilidade
A resolução define auditabilidade como a capacidade de o sistema ser avaliado de forma independente quanto a algoritmos, dados e resultados .
4. Revisar segurança e capacidade de resposta
Revise os controles de segurança e a capacidade de resposta. Sem isso, a instituição discute governança sem clareza sobre sua própria superfície de exposição .
5. Reavaliar a infraestrutura que sustenta a IA
Esse ponto precisa ser tratado de forma explícita. A organização deve revisar disponibilidade, redundância, integrações, níveis de acesso, superfícies expostas, capacidade de monitoramento e resiliência dos ambientes onde essas soluções operam. Sem essa camada, a adequação tende a ficar incompleta, porque a norma exige proteção e continuidade, e isso depende diretamente da infraestrutura.
Os riscos da não conformidade
Os riscos da não conformidade não são apenas teóricos. Eles se distribuem em diferentes camadas da operação:
- Ético e regulatório: o descumprimento dos deveres previstos na norma sujeita o médico a sanções éticas, além de responsabilidades civil e penal
- Jurídico: ausência de registros, classificação de risco e trilhas de auditoria comprometem a capacidade de defesa em cenários de responsabilização
- Reputacional: em saúde, falhas relacionadas à IA afetam a confiança, um dos ativos mais críticos em qualquer contexto assistencial
- Operacional: ambientes sem segurança adequada ou monitoramento podem comprometer fluxos clínicos e continuidade do atendimento
A esses riscos, soma-se um ponto essencial: quando a infraestrutura é frágil ou a cibersegurança é insuficiente, todos os demais riscos se amplificam. Uma falha técnica pode se transformar rapidamente em incidente regulatório, exposição de dados, indisponibilidade operacional e ruptura de confiança.
Governança de IA em saúde: o ponto de partida é agora
A Resolução CFM nº 2.454/2026 marca uma virada importante para o setor de saúde. A inteligência artificial continua sendo uma alavanca de inovação, eficiência e apoio à prática médica. Mas seu uso, a partir de agora, precisa estar sustentado por governança, transparência, supervisão humana, proteção de dados, auditabilidade e monitoramento contínuo .
E é importante reforçar: nada disso se sustenta sem ações concretas relacionadas à cibersegurança e à infraestrutura de TI. Não há adequação real quando os sistemas operam sem visibilidade, quando os ambientes não são protegidos, quando os acessos não são controlados, quando a disponibilidade não é garantida e quando a instituição não consegue detectar, responder e registrar eventos relevantes.
A discussão sobre a CFM IA não começa no algoritmo. Começa na capacidade da instituição de usar tecnologia com responsabilidade, critério, controle e segurança.
Sua instituição já sabe onde a IA está presente na operação e quais riscos ela gera para segurança, conformidade e continuidade do atendimento? Fale com a Prolinx e inicie um diagnóstico técnico do seu ambiente.