A inteligência artificial (IA) já deixou de ser apenas uma tendência e tornou-se uma ferramenta estratégica na indústria farmacêutica e em todos os processos regulatórios. Na farmacovigilância, sua aplicação cresce de forma acelerada, apoiando atividades como triagem de relatos, detecção de sinais, automação de análises e processamento de grandes volumes de dados.
Diante desse avanço, o Council for International Organizations of Medical Sciences (CIOMS) lançou em 2025 um novo e abrangente guia sobre o uso de IA na farmacovigilância. O documento traz diretrizes essenciais para garantir segurança, conformidade e validação de softwares que incorporam IA, incluindo modelos tradicionais e tecnologias generativas.
Neste artigo, você entenderá os principais pontos do guia e como eles impactam diretamente a validação de sistemas dentro das empresas de life science.
Por que um novo guia era necessário?
A farmacovigilância está passando por uma transformação intensa. Modelos capazes de interpretar linguagem natural, analisar padrões e priorizar eventos adversos passaram a integrar rotinas críticas — porém, sem diretrizes claras, o uso desgovernado da IA pode gerar riscos significativos, como:
- Falhas silenciosas ou alucinações de IA;
- Decisões automáticas sem rastreabilidade;
- Falta de controles humanos;
- Vieses que comprometem análises regulatórias;
- Vulnerabilidades de segurança e privacidade;
- Inconsistências durante auditorias e inspeções.
O CIOMS reconhece que, diferentemente de sistemas tradicionais, modelos de IA exigem uma abordagem de validação muito mais dinâmica, contínua e baseada em risco. Essa necessidade motivou a criação de um guia global unificado.
-
Abordagem Baseada em Risco: o coração da validação de IA
Segundo o guia, a validação de sistemas com IA deve começar pela avaliação de risco, considerando:
- Criticidade da atividade apoiada pela IA;
- Impacto potencial sobre a segurança do paciente;
- Autonomia do modelo;
- Dependência da decisão final em relação ao algoritmo;
- Probabilidade de falha e grau de detecção.
Isso significa que modelos usados para auxiliar decisões críticas — como avaliação de causalidade, priorização de sinais ou triagens automatizadas — necessitam de níveis mais robustos de validação e supervisão humana.
Além disso, o guia alerta para a necessidade de considerar riscos específicos de IA generativa, como comportamento não determinístico e possibilidade de produção de conteúdos incorretos.
-
Supervisão Humana: elemento obrigatório e auditável
O CIOMS reforça que a IA não substitui o especialista de farmacovigilância. A supervisão humana deve ser:
- Human-in-the-loop – revisão obrigatória antes da decisão final;
- Human-on-the-loop – monitoramento contínuo com capacidade de intervenção;
- Human-in-command – autoridade técnica final sobre o sistema.
Esse requisito deve ser documentado na validação, nos fluxos de trabalho e nos procedimentos operacionais padrão (SOPs), garantindo que auditores e autoridades possam verificar que a IA não está operando sem controle.
-
Validade, Robustez e Reprodutibilidade
A validação de sistemas com IA deve demonstrar:
- Acurácia em condições reais, com dados representativos;
- Testes de desempenho contínuos, para detectar degradação (model drift);
- Mitigação de vieses algoritmos;
- Resistência a falhas e variabilidade;
- Reprodutibilidade, mesmo em modelos estocásticos.
Um ponto importante é que a validação não é um evento pontual: o ciclo completo de vida da IA deve ser monitorado, testado e ajustado conforme seu uso evolui.
-
Transparência e Explicabilidade
Modelos utilizados em farmacovigilância devem oferecer nível suficiente de explicabilidade, permitindo que profissionais entendam:
- Como o modelo toma decisões;
- Quais dados utiliza;
- Incertezas associadas à resposta;
- limitações técnicas.
Mesmo quando a explicabilidade é limitada — como em redes neurais profundas ou LLMs — a organização deve documentar riscos, mitigações e justificativas técnicas.
Essa transparência é crucial para inspeções, investigações de desvios e validação regulatória.
-
Privacidade de Dados: nova atenção com IA generativa
O guia destaca que o uso de IA amplia os riscos de:
- Re-identificação de pacientes;
- Vazamento de dados sensíveis;
- Tratamento inadequado de informações protegidas;
- Uso indevido de dados para treinar modelos.
Por isso, medidas como anonimização, segregação de ambientes, controle de logs e avaliação de impacto (DPIA) devem ser integradas à validação.
-
Fairness e Equity: evitando vieses em análises críticas
Modelos podem aprender vieses a partir dos dados de treinamento. O guia exige que a validação inclua:
- Análise de desempenho por subgrupos;
- Identificação de vieses que comprometam análises clínicas ou de segurança;
- Estratégias de mitigação e documentação.
Esse aspecto é especialmente importante em farmacovigilância, onde decisões incorretas podem afetar populações inteiras.
-
Governança e Accountability: o novo framework obrigatório
O CIOMS estabelece que toda solução de IA deve estar vinculada a um sistema formal de governança contendo:
- Responsabilização clara por cada etapa;
- Versionamento técnico e rastreabilidade;
- Documentação contínua;
- Revisões periódicas;
- Plano de continuidade e contingência.
Ou seja, não basta validar o sistema: é preciso garantir seu funcionamento seguro ao longo de todo o ciclo de vida.
O que este guia significa para a indústria farmacêutica e regulada?
Em resumo: a era da IA exige uma nova era da validação.
Empresas que utilizam ou pretendem utilizar soluções com IA — especialmente em áreas sensíveis como farmacovigilância, qualidade, segurança do paciente e análise regulatória — precisarão:
- Revisar seus procedimentos de CSV (Computerized System Validation);
- Incluir metodologias específicas para IA e IA generativa;
- Estabelecer governança;
- Documentar supervisão humana;
- Realizar testes de robustez contínuos;
- Adotar uma abordagem baseada em risco.
A boa notícia é que o guia oferece um caminho claro para que empresas adotem IA de forma segura, responsável e totalmente alinhada às expectativas regulatórias internacionais.
O novo guia CIOMS inaugura uma etapa decisiva para o uso seguro e regulado da inteligência artificial em farmacovigilância, trazendo princípios que deverão orientar validações, governança e decisões técnicas nos próximos anos. Esse movimento global se soma às atualizações europeias, como o Anexo 11 (sistemas computadorizados) e o Anexo 22 (gestão de dados e integridade) da EudraLex, que reforçam a necessidade de controles robustos, documentação estruturada e conformidade contínua. Todos esses temas — CIOMS, Anexo 11, Anexo 22 e as implicações práticas para equipes de Qualidade, TI, PV e áreas reguladas — serão aprofundados no nosso Treinamento VSC 5.0 – Conformidade e Validação de Softwares e IA, que já está com inscrições abertas.
👉 Garanta sua vaga com a promoção especial de final de ano:
https://conteudo.kivalita.com.br/treinamento-vsc-5-0-46