Compartilhe:

Como utilizar IA no dia-a-dia da qualidade

Já falamos anteriormente que o uso de IA para aplicações com impacto direto nas boas práticas deve ser feito com muita parcimônia. Se o modelo de IA toma decisões críticas BPx, então ele precisa ser validado e o modelo precisa ser estático e dinâmico.

 

Mas se o uso não possui impacto nenhum ou o impacto é no máximo indireto, então você pode usar inclusive os LLMs disponíveis no mercado hoje (ChatGPT, Claude, Gemini, etc…).

 

Hoje eu vou compartilhar com vocês algumas atividades que eu faço com o apoio de alguma IA e que me dão ideias e me dão mais eficiência no meu trabalho.

 

Descrição de sistemas

 

Todos os modelos de documentos do ciclo de vida de validação que já trabalhei possuem um trecho para que você descreva o sistema objeto do seu estudo.

 

Antes, eu precisava ler o manual, buscar vídeos na internet e vários materiais para poder entender o que eu poderia escrever nessas descrições. Era uma atividade que demandava muito tempo de pesquisa e, consequentemente, atrasava um pouco a elaboração de alguns documentos.

 

Para me ajudar nessa tarefa, eu comecei a usar LLMs. Esses modelos geravam as descrições de acordo com a minha necessidade em questão de segundos.

 

O prompt que eu utilizo é algo assim:

 

“Descreva o sistema XPTO de uma maneira clara e objetiva, mencionando o seu principal uso dentro do processo da área XXXX. Adapte essa descrição para o contexto de um plano de validação específico para esse sistema. Ou seja, o foco da descrição deve ser fornecer um panorama geral do sistema sob a ótica da atividade de validação de sistemas computadorizados.”

Não precisa utilizar exatamente esse prompt, mas algo nessa linha já vai te ajudar a clarear a mente. E se você anexar o manual do sistema, vai ter uma resposta ainda mais assertiva.

Mas claro… mesmo assim, avalie o que foi escrito, pois a IA pode alucinar e te dar uma resposta sem sentido.

 

Lembre-se: você é o responsável final pela informação.

 

Criação de cenários de risco baseados em requisitos

 

Quando eu vou elaborar uma análise de riscos, eu costumo verificar se há Especificação de Requisitos do Usuário (ERU), manual, mapeamento do processo e outros documentos técnicos.

 

Grande parte dos meus riscos são padrão, mas cada sistema vai variar os seus riscos de acordo com o processo e com os requisitos dos usuários.

 

Para fazer essa avaliação bem feita, é necessário reservar um tempo considerável estudando o processo em que o sistema está inserido. Muitas vezes acaba dando “um branco” e não consigo pensar em mais riscos.

 

Quando isso acontece, eu recorro a algum LLM e vou pedindo para a IA pensar em cenários de riscos associados a cada requisito relevante.

 

Dessa forma, vários cenários de risco que eu não pensei vão aparecendo e “clareando” a minha mente.

 

Além disso, é uma forma de garantir que eu estou olhando para todos os requisitos na minha validação de uma maneira mais aprofundada.

Eu costumo usar o seguinte prompt para cada requisito:

 

“Dentro do contexto de validação de sistemas computadorizados, ajude-me a elaborar cenários de risco relacionados ao seguinte requisito:

COLE AQUI O REQUISITO

Cada cenário de risco deve ter um campo com a “Descrição do Risco”, “Efeito do Risco”, e também propostas de testes e mitigações (se aplicável) no campo “Mitigações/Testes/Verificações” e deve considerar riscos relacionados ao uso do sistema e erros sistêmicos”

 

Novamente… esse é só um exemplo de prompt. Inclusive, dá para aproveitar algo parecido para gerar testes detalhados relacionados aos requisitos relevantes. Isso me ajuda demais!

 

Auxílio na revisão de documentos

 

Para quem atua com um volume grande de documentos, fica cada vez mais difícil de fazer uma revisão detalhada e aprofundada.

 

Pensando nisso, eu comecei a utilizar um RAG (ex: NotebookLM) para me ajudar nesse processo.

 

Eu tive o trabalho de descrever quais são os meus critérios na hora de realizar a revisão e deixei essa instrução explícita nas configurações do modelo de IA. Algo parecido com isso aqui:

 

“Você é um analista de validação de sistemas computadorizados experiente. Revise análises de riscos de modo a identificar possíveis riscos repetidos, riscos que estão desconectados com o tipo de sistema e/ou de processo ou que possuem informações incompletas ou equivocadas, e também revise se a classificação de severidade, probabilidade e detectabilidade fazem sentido dentro do contexto descrito. A análise de riscos é realizada através da metodologia GAMP, combinando severidade e probabilidade do risco acontecer, e a detectabilidade desse risco para dar um resultado final. Cada um desses aspectos pode ser alto, médio ou baixo, e o critério para classificá-los está descrito no próprio documento de análise de riscos.”

 

Com essa configuração, basta você subir um documento de análise de riscos e pedir para o modelo de IA tipo RAG fazer a revisão. Ele vai olhar para os critérios da sua revisão e fará esse trabalho por você.

 

Claro… eu ainda permaneço fazendo a revisão manual, mas eu uso a IA como um recurso extra e peço a revisão só depois que eu já revisei manualmente para evitar me abster completamente do processo.

 

Muitas vezes a IA identifica pontos que eu não consegui enxergar sozinho, e isso vai trazendo uma qualidade maior para a revisão o documento.

 

Essas são algumas das formas que eu utilizo IA no meu dia a dia. Espero que alguma delas agregue valor para ti.

 

E se você quer ajuda para validar um sistema de IA que tem impacto direto nas Boas Práticas ou até mesmo um sistema tradicional, entre em contato conosco. Nós podemos te ajudar!

Confira outros conteúdos relacionados:

Olá! Preencha os campos abaixo para iniciar a conversa no WhatsApp
Ao informar meus dados, eu concordo com a Políticas de privacidade