Compartilhe:

Novo guia para o uso de inteligência artificial em sistemas na farmacovigilância

A inteligência artificial (IA) já deixou de ser apenas uma tendência e tornou-se uma ferramenta estratégica na indústria farmacêutica e em todos os processos regulatórios. Na farmacovigilância, sua aplicação cresce de forma acelerada, apoiando atividades como triagem de relatos, detecção de sinais, automação de análises e processamento de grandes volumes de dados.

 

Diante desse avanço, o Council for International Organizations of Medical Sciences (CIOMS) lançou em 2025 um novo e abrangente guia sobre o uso de IA na farmacovigilância. O documento traz diretrizes essenciais para garantir segurança, conformidade e validação de softwares que incorporam IA, incluindo modelos tradicionais e tecnologias generativas.

 

Neste artigo, você entenderá os principais pontos do guia e como eles impactam diretamente a validação de sistemas dentro das empresas de life science.

 

Por que um novo guia era necessário?

 

A farmacovigilância está passando por uma transformação intensa. Modelos capazes de interpretar linguagem natural, analisar padrões e priorizar eventos adversos passaram a integrar rotinas críticas — porém, sem diretrizes claras, o uso desgovernado da IA pode gerar riscos significativos, como:

 

  • Falhas silenciosas ou alucinações de IA;
  • Decisões automáticas sem rastreabilidade;
  • Falta de controles humanos;
  • Vieses que comprometem análises regulatórias;
  • Vulnerabilidades de segurança e privacidade;
  • Inconsistências durante auditorias e inspeções.

 

O CIOMS reconhece que, diferentemente de sistemas tradicionais, modelos de IA exigem uma abordagem de validação muito mais dinâmica, contínua e baseada em risco. Essa necessidade motivou a criação de um guia global unificado.

 

  1. Abordagem Baseada em Risco: o coração da validação de IA

 

Segundo o guia, a validação de sistemas com IA deve começar pela avaliação de risco, considerando:

 

  • Criticidade da atividade apoiada pela IA;
  • Impacto potencial sobre a segurança do paciente;
  • Autonomia do modelo;
  • Dependência da decisão final em relação ao algoritmo;
  • Probabilidade de falha e grau de detecção.

 

Isso significa que modelos usados para auxiliar decisões críticas — como avaliação de causalidade, priorização de sinais ou triagens automatizadas — necessitam de níveis mais robustos de validação e supervisão humana.

 

Além disso, o guia alerta para a necessidade de considerar riscos específicos de IA generativa, como comportamento não determinístico e possibilidade de produção de conteúdos incorretos.

 

  1. Supervisão Humana: elemento obrigatório e auditável

 

O CIOMS reforça que a IA não substitui o especialista de farmacovigilância. A supervisão humana deve ser:

 

  • Human-in-the-loop – revisão obrigatória antes da decisão final;
  • Human-on-the-loop – monitoramento contínuo com capacidade de intervenção;
  • Human-in-command – autoridade técnica final sobre o sistema.

 

Esse requisito deve ser documentado na validação, nos fluxos de trabalho e nos procedimentos operacionais padrão (SOPs), garantindo que auditores e autoridades possam verificar que a IA não está operando sem controle.

 

  1. Validade, Robustez e Reprodutibilidade

 

A validação de sistemas com IA deve demonstrar:

 

  • Acurácia em condições reais, com dados representativos;
  • Testes de desempenho contínuos, para detectar degradação (model drift);
  • Mitigação de vieses algoritmos;
  • Resistência a falhas e variabilidade;
  • Reprodutibilidade, mesmo em modelos estocásticos.

Um ponto importante é que a validação não é um evento pontual: o ciclo completo de vida da IA deve ser monitorado, testado e ajustado conforme seu uso evolui.

 

  1. Transparência e Explicabilidade

 

Modelos utilizados em farmacovigilância devem oferecer nível suficiente de explicabilidade, permitindo que profissionais entendam:

  • Como o modelo toma decisões;
  • Quais dados utiliza;
  • Incertezas associadas à resposta;
  • limitações técnicas.

 

Mesmo quando a explicabilidade é limitada — como em redes neurais profundas ou LLMs — a organização deve documentar riscos, mitigações e justificativas técnicas.

Essa transparência é crucial para inspeções, investigações de desvios e validação regulatória.

 

  1. Privacidade de Dados: nova atenção com IA generativa

 

O guia destaca que o uso de IA amplia os riscos de:

  • Re-identificação de pacientes;
  • Vazamento de dados sensíveis;
  • Tratamento inadequado de informações protegidas;
  • Uso indevido de dados para treinar modelos.

Por isso, medidas como anonimização, segregação de ambientes, controle de logs e avaliação de impacto (DPIA) devem ser integradas à validação.

 

  1. Fairness e Equity: evitando vieses em análises críticas

 

Modelos podem aprender vieses a partir dos dados de treinamento. O guia exige que a validação inclua:

  • Análise de desempenho por subgrupos;
  • Identificação de vieses que comprometam análises clínicas ou de segurança;
  • Estratégias de mitigação e documentação.

Esse aspecto é especialmente importante em farmacovigilância, onde decisões incorretas podem afetar populações inteiras.

 

  1. Governança e Accountability: o novo framework obrigatório

 

O CIOMS estabelece que toda solução de IA deve estar vinculada a um sistema formal de governança contendo:

  • Responsabilização clara por cada etapa;
  • Versionamento técnico e rastreabilidade;
  • Documentação contínua;
  • Revisões periódicas;
  • Plano de continuidade e contingência.

 

Ou seja, não basta validar o sistema: é preciso garantir seu funcionamento seguro ao longo de todo o ciclo de vida.

 

O que este guia significa para a indústria farmacêutica e regulada?

 

Em resumo: a era da IA exige uma nova era da validação.

 

Empresas que utilizam ou pretendem utilizar soluções com IA — especialmente em áreas sensíveis como farmacovigilância, qualidade, segurança do paciente e análise regulatória — precisarão:

 

  • Revisar seus procedimentos de CSV (Computerized System Validation);
  • Incluir metodologias específicas para IA e IA generativa;
  • Estabelecer governança;
  • Documentar supervisão humana;
  • Realizar testes de robustez contínuos;
  • Adotar uma abordagem baseada em risco.

 

A boa notícia é que o guia oferece um caminho claro para que empresas adotem IA de forma segura, responsável e totalmente alinhada às expectativas regulatórias internacionais.

 

O novo guia CIOMS inaugura uma etapa decisiva para o uso seguro e regulado da inteligência artificial em farmacovigilância, trazendo princípios que deverão orientar validações, governança e decisões técnicas nos próximos anos. Esse movimento global se soma às atualizações europeias, como o Anexo 11 (sistemas computadorizados) e o Anexo 22 (gestão de dados e integridade) da EudraLex, que reforçam a necessidade de controles robustos, documentação estruturada e conformidade contínua. Todos esses temas — CIOMS, Anexo 11, Anexo 22 e as implicações práticas para equipes de Qualidade, TI, PV e áreas reguladas — serão aprofundados no nosso Treinamento VSC 5.0 – Conformidade e Validação de Softwares e IA, que já está com inscrições abertas.

 

👉 Garanta sua vaga com a promoção especial de final de ano:
https://conteudo.kivalita.com.br/treinamento-vsc-5-0-46

Confira outros conteúdos relacionados:

Olá! Preencha os campos abaixo para iniciar a conversa no WhatsApp
Ao informar meus dados, eu concordo com a Políticas de privacidade