9
Aplicando a estatística em processos laboratoriais [Marcela Curcio, Ronia Oisiovici, Roberto Accorsi e Mauro Pereira] A tomada de decisões pode ser definida como a conversão de informações em ações, ou seja, as decisões são escolhas tomadas com base em propósitos, e caracterizam-se por ações orientadas para um determinado objetivo. [1]. Basicamente, seis elementos configuram uma escolha [2]: (a) o tomador da decisão – pessoa que faz a seleção entre as diversas alternativas de atuação; (b) os objetivos da decisão – propósitos ou finalidade que se almeja alcançar com a ação de decisão; (c) as preferências do tomador da decisão – critérios baseados no juízo de valor do tomador da decisão; (d) a estratégia – diretriz sugerida para melhor atingir os objetivos com base nos recursos disponíveis; (e) a situação – aspectos ambientais que podem inadvertidamente influenciar a decisão e (f) o resultado – consequência da estratégia definida pelo decisor. O processo de decisão é uma constante na rotina de laboratórios de ensaios químicos: a escolha pela seleção de um determinado método em relação a outro, a avaliação de performance de metodologias e a adequação de frequências de verificações intermediárias de sistemas de medição são alguns dos exemplos de processos quantitativos que exigem deliberações por parte da equipe técnica. Existem, ainda, casos semi-quantitativos ou qualitativos nos quais uma resolução é exigida: a consistência de analistas e os resultados de pesquisas de satisfação de clientes são exemplos destas situações. Característica marcante no processo de decisão, o fator humano tende a interferir diretamente na resolução final, sobretudo quando a inferência está relacionada a processos semi-quantitativos e/ou qualitativos. Nesse contexto, a estatística oferece a possibilidade de atenuação da interferência que o fator humano pode causar em uma definição. Elementos como “tomador da decisão”, “preferências” e “situação” são anulados perante a estratégia de inferência com base em dados e fatos apontados por avaliações estatísticas, resumindo o processo de tomada de decisão nos elementos assertivos “objetivos da decisão”, “estratégia” e “resultado”. Os exemplos que seguem ilustram aplicações de ferramentas estatísticas na tomada de decisões em processos recorrentes no Departamento Controle Analítico de Paulínia (DCA) da Rhodia Poliamida e Especialidades. As aplicações estatísticas descritas pelo presente trabalho fundamentam-se em: (1) estatística descritiva, que consiste de estatística básica (medidas de localização central, medidas de dispersão, avaliação de simetrias e distorções de dados) e técnicas gráficas (histogramas, boxplots e normal probability plots) que são empregadas para sumarizar o conjunto de dados e (2) estatística inferencial, que baseada na estatística probabilística permite inferir sobre parâmetros de uma população baseando-se em amostras de dados (testes de hipóteses). Idealmente, análises estatísticas devem ser baseadas em espaços amostrais com o maior número de dados possível [3]. Tal premissa deriva do teorema do limite central, que estabelece que quanto maior o tamanho da amostra, menor é o erro padrão associado à média, ou seja, maior a probabilidade de que o espaço amostral seja representativo da população. A equação 1 descreve a relação entre o desvio padrão da amostra (s) e o desvio padrão esperado para a população em função do número de observações da amostra (n). A figura 1, por sua vez, ilustra a redução do erro padrão da média com o aumento de n para uma amostra hipotética com desvio padrão igual a 1. O valor de s tende a zero quando n tende ao infinito. O fato é que, em condições reais, a obtenção de um número grande de valores para a constituição de uma amostra nem sempre é possível e/ou viável. Sendo assim, para o desenvolvimento das avaliações apresentadas pelo presente trabalho, adotam-se conjuntos de dados com tamanho mínimo igual a sete [4], manipuladas com o auxílio de softwares comerciais de prateleira (Excel® e Minitab®).

Aplicando a estatística em processos laboratoriais

Embed Size (px)

Citation preview

Page 1: Aplicando a estatística em processos laboratoriais

Aplicando a estatística em processos laboratoriais

[Marcela Curcio, Ronia Oisiovici, Roberto Accorsi e Mauro Pereira]A tomada de decisões pode ser definida como a conversão de informações em ações, ou seja, as decisões são escolhas tomadas com base em propósitos, e caracterizam-se por ações orientadas para um determinado objetivo. [1]. Basicamente, seis elementos configuram uma escolha [2]: (a) o tomador da decisão – pessoa que faz a seleção entre as diversas alternativas de atuação; (b) os objetivos da decisão – propósitos ou finalidade que se almeja alcançar com a ação de decisão; (c) as preferências do tomador da decisão – critérios baseados no juízo de valor do tomador da decisão; (d) a estratégia – diretriz sugerida para melhor atingir os objetivos com base nos recursos disponíveis; (e) a situação – aspectos ambientais que podem inadvertidamente influenciar a decisão e (f) o resultado – consequência da estratégia definidapelo decisor.

O processo de decisão é uma constante na rotina de laboratórios de ensaios químicos: a escolha pela seleção de um determinado método em relação a outro, a avaliação de performance de metodologias e a adequação de frequências de verificações intermediárias de sistemas de medição são alguns dos exemplos de processos quantitativos que exigem deliberações por parte da equipe técnica. Existem, ainda, casos semi-quantitativos ou qualitativos nos quais uma resolução é exigida: a consistência de analistas e os resultados de pesquisas de satisfação de clientes são exemplos destas situações.

Característica marcante no processo de decisão, o fator humano tende a interferir diretamente na resolução final, sobretudo quando a inferência está relacionada a processos semi-quantitativos e/ou qualitativos.

Nesse contexto, a estatística oferece a possibilidade de atenuação da interferência que o fator humano pode causar em uma definição. Elementos como “tomador da decisão”, “preferências” e “situação” são anulados perante a estratégia de inferência com base em dados e fatos apontados por avaliações estatísticas, resumindo o processo de tomada de decisão nos elementos assertivos “objetivos da decisão”, “estratégia” e “resultado”.

Os exemplos que seguem ilustram aplicações de ferramentas estatísticas na tomada de decisões em processos recorrentes no Departamento Controle Analítico de Paulínia (DCA) da Rhodia Poliamida e Especialidades.As aplicações estatísticas descritas pelo presente trabalho fundamentam-se em:

(1) estatística descritiva, que consiste de estatística básica (medidas de localização central, medidas de dispersão, avaliação de simetrias e distorções de dados) e técnicas gráficas (histogramas, boxplots e normal probability plots) que são empregadas para sumarizar o conjunto de dados e (2) estatística inferencial, que baseada na estatística probabilística permite inferir sobre parâmetros de uma população baseando-se em amostras de dados (testes de hipóteses).

Idealmente, análises estatísticas devem ser baseadas em espaços amostrais com o maior número de dados possível [3]. Tal premissa deriva do teorema do limite central, que estabelece que quanto maior o tamanho da amostra, menor é o erro padrão associado à média, ou seja, maior a probabilidade de que o espaço amostral seja representativo da população.

A equação 1 descreve a relação entre o desvio padrão da amostra (s) e o desvio padrão esperado para a população em função do número de observações

da amostra (n). A figura 1, por sua vez, ilustra a redução do erro padrão da média com o aumento de n para uma amostra hipotética com desvio padrão igual a 1. O valor de s tende a zero quando n tende ao infinito.

O fato é que, em condições reais, a obtenção de um número grande de valores para a constituição de uma amostra nem sempre é possível e/ou viável. Sendo assim, para o desenvolvimento das avaliações apresentadas pelo presente trabalho, adotam-se conjuntos de dados com tamanho mínimo igual a sete [4], manipuladas com o auxílio de softwares comerciais de prateleira (Excel® e Minitab®).

Testes de hipótese são singularmente úteis para a tomada de decisões nas quais comparações de performance estão envolvidas. Metodologias adaptadas e/ou desenvolvidas podem ter sua performance comparada à de metodologias de referência e por meio da demonstração de equivalência estatística entre as mesmas, serem consideradas validadas [4]. Métodos diferentes em um mesmo laboratório, métodos iguais em laboratórios diferentes ou métodos diferentes em laboratórios diferentes podem ser comparados a fim de concluir sobre a equivalência de performance entre os mesmos. Analistas em treinamento podem ter seu desempenho analítico comparado ao de analistas seniores, e por meio da demonstração da equivalência estatística entre os mesmos, serem considerados qualificados. Estes são alguns exemplos das possibilidades de aplicação para os testes de equivalência estatística.

Page 2: Aplicando a estatística em processos laboratoriais

Em todos os casos, a coleta de dados ocorre por meio de medições em condições de repetibilidade – ou seja, medições sucessivas de um mesmo mensurando, efetuadas sob as mesmas condições de medição [4,5]. Em posse dos conjuntos de dados, testes de equivalência de variâncias (teste F) e médias (teste t) são aplicados.

A equação 2 expressa a fórmula de cálculo para o valor de F calculado, representativo do conjunto de dados. Nela, s12 e s12 são as variâncias de cada amostra, sendo s12 a maior variância dentre os conjuntos de dados. A variância é calculada conforme a equação 3, sendo n o número de dados, xi o valor determinado e o valor médio, determinado através da equação 4.

O valor de Fcalculado é então comparado ao valor de Ftabelado, dado em função de (n-1) graus de liberdade a um nível de confiança de 95%.

Se Fcalculado < Ftabelado, as variâncias entre os conjuntos de dados são consideradas equivalentes, e o teste t aplicável é aquele descrito pela equação 5. O tcalculado é então comparado ao ttabelado a (n1+n2-2) graus de liberdade com 95% de confiança, e se tcalculado < ttabelado, as médias podem ser consideradas iguais, comprovando a equivalência entre as situações em teste.

sendo s2 neste caso igual a

Se Fcalculado > Ftabelado, as variâncias entre os conjuntos de dados não são consideradas equivalentes, e o teste t aplicável é aquele descrito pela equação 7. O tcalculado é então comparado ao ttabelado a n graus de liberdade com 95% de confiança. A equação 8 define a fórmula de cálculo de n. Se tcalculado < ttabelado, as médias podem ser consideradas iguais, comprovando a equivalência entre as situações em teste.

Page 3: Aplicando a estatística em processos laboratoriais

Estas mesmas avaliações podem ser conduzidas de maneira simplificada com o auxílio do software Minitab® a partir dos testes “two-variances” e do “two sample-t test”. Em ambos os casos, a inferência a respeito da existência de equivalências é fundamentada em probabilidades expressas numericamente por meio de “p-values”: quando p-value > 0,05 é possível inferir que a equivalência se faz presente com 95% de confiança.

Adicionalmente, gráficos ilustrativos dos comportamentos de dispersão e médias dos conjuntos de dados podem ser gerados permitindo a visualização da lógica que existe por trás da matemática utilizada para a inferência estatística: a presença de intersecções entre os conjuntos de dados.

A figura 2 representa graficamente os testes estatísticos aplicados a conjuntos de dados sem equivalência de variâncias e médias enquanto a figura 3 ilustra graficamente os testes estatísticos aplicados a conjuntos de dados que apresentam equivalência de variâncias e médias. Classicamente, a precisão de métodos analíticos se faz presente na validação de metodologias e nas estimativas de incerteza de medição por denotar a dispersão de resultados decorrente da variabilidade natural de métodos [4,5].

Com o auxílio de softwares estatísticos como o Minitab®, estudos do tipo “Gage R&R” podem ser conduzidos com o objetivo de estender o campo de aplicação da precisão para outros tipos de avaliação: a adequação de métodos e a consistência entre analistas, por exemplo. A primeira abordagem baseia-se na

Page 4: Aplicando a estatística em processos laboratoriais

comparação entre variabilidade do método em relação à variabilidade das amostras nas quais o mesmo é aplicado, enquanto que a segunda abordagem baseia-se na comparação do perfil de quantificação entre os analistas.

O número de dados que constitui o espaço amostral deve obedecer à condição descrita pela equação 9 [6], que estabelece que um conjunto de b amostras deve ser analisado em réplicas de número r por t analistas diferentes, ou seja, em condições de repetibilidade e reprodutibilidade.

Avaliação da performance de métodos

Matematicamente, a variação total do processo de medição (sTotal2) deriva da variância observada para as amostras (sPart-to-part2) e a variância natural do método analítico (sGage R&R2), que pode, por sua vez, ser decomposta em componentes de repetibilidade (sRepeat2) e reprodutibilidade (sReprod2) [7]. A repetibilidade demonstra o grau de concordância entre os resultados de medições sucessivas de um mesmo mensurando efetuadas sob as mesmas condições de medição, enquanto a reprodutibilidade demonstra o grau de concordância entre os resultados das medições de um mesmo mensurando obtidas em condições variadas de medição [4]. As equações 10 e 11 expressam estas relações. De maneira geral, a repetibilidade faz alusão à variabilidade de instrumentos de medição e a reprodutibilidade faz alusão à variabilidade relacionada a fatores humanos.

Com base nestes conceitos, a adequação de um método analítico pode ser avaliada com base no percentual de contribuição do mesmo para a variabilidade total do processo de medição. A tabela 1 define os critérios de classificação utilizados [7].

A figura 4 ilustra a decomposição da variação total de um processo de medição nos componentes relacionados às amostras e ao método, gráfico automaticamente gerado pelo software Minitab® na aplicação R&R. As barras representam o percentual de contribuição de cada componente para a variação total do processo. As barras hachuradas, por sua vez, representam adecomposição da variabilidade do método em componentes de repetibilidade e reprodutibilidade.

Page 5: Aplicando a estatística em processos laboratoriais

Além do gráfico de decomposição dos componentes de variabilidade, o software Minitab® constrói um gráfico que permite comparar o perfil de quantificação dos t analistas em relação às b amostras utilizadas para a avaliação R&R. Tal ilustração encontra-se representada na figura 5.

Um sistema de medição ideal não apresenta distinção nos perfis de quantificação dos analistas. Na figura 5, por exemplo, é notável a distinção do perfil de quantificação dos analistas G, D, E e F em relação aos demais. Este tipo de avaliação permite identificar desvios no processo de medição e alertam para a necessidade de treinamento dos analistas.

As verificações de equipamentos e/ou métodos são realizadas com o objetivo de monitorar a conformidade dos sistemas de medição. Nelas, o valor indicado pelo sistema de medição é comparado ao valor teórico estabelecido para o padrão de verificação, que pode ser um material de referência, um material de referência certificado ou um reagente grau padrão analítico ou solução preparada a partir do mesmo.

Cartas de controle estatístico permitem a avaliação de resultados de verificações intermediárias de sistemas de medição assegurando que ações preventivas sejam tomadas em relação ao ajuste de métodos e equipamentos mediante a detecção detendências nos resultados. Tal avaliação é feita com base na comparação dos resultados das verificações intermediárias aos limites de controle e especificação estatisticamente determinados e às condições de tendência estabelecidas.

Os limites de controle são definidos como sendo a média ( ) mais ou menos três vezes o desvio padrão (s) de um conjunto de dados com no mínimo 10 pontos determinado em condições de repetibilidade a partir do padrão de verificação. De maneira semelhante, os limites de especificação são definidos como sendo a média mais ou menos quatro vezes o desvio padrão deste conjunto de dados [3]. As equações 12 e 13 definem as fórmulas de cálculo para os limites de controle e especificação, respectivamente.

Quando o valor determinado pelo sistema de medição encontra-se entre os limites de controle – ou seja, no intervalo de –

entende-se que o sistema apresenta uma variabilidade normal e pode ser considerado conforme, a menos que pelo menos uma das três condições de tendência estabelecidas pela tabela 2 seja verificada. Neste caso, entende-se que o sistema de medição tende a apresentar um desvio em breve e devepreventivamente ser ajustado.

Page 6: Aplicando a estatística em processos laboratoriais

Na ocorrência de um resultado que ultrapasse os limites de controle, mas não os limites de especificação – ou seja, um resultado no intervalo de ou – entendese que o sistema apresenta um desvio aceitável e deve sofrer um

ajuste.

Quando o valor determinado pelo sistema de medição encontra-se acima dos limites de especificação – ou seja, ou –

entende-se que o sistema sofreu um desvio inaceitável e seu uso deve ser interrompido.

Os resultados são monitorados em cartas controle pré-progamadas no Excel®, que alertam automaticamente os analistas quando os limites de controle, limites de especificação ou as condições de tendência acontecem. A figura 7 ilustra a carta controle representativa dos resultados das verificações e os alarmes quando do atendimento das condições de tendência e/ou limites de controle e /ou especificação.

Frequências de verificações intermediárias podem ser estabelecidas e reavaliadas através do indicador de capacidade do processo, Cp, matematicamente definido na equação 14. Nela, USL corresponde ao limite superior de especificação (equação 15), LSL corresponde ao limite inferior de especificação (equação 16), e s ao desvio padrão do processo de medição. Resumidamente, o Cp compara a localização dos dados em relação aos limites de especificação. Um processo de verificação ideal apresenta uma média equivalente ao valor médio entre USL e LSL e um desvio padrão tal que seis vezes o mesmo implique em uma amplitude menor que a diferença entre USL e LSL.

Page 7: Aplicando a estatística em processos laboratoriais

A Figura 8 ilustra um processo com capacidade de medição ideal. Os critérios para classificação da capacidade de processos encontram-se definidos na Tabela 3.

Com base nos critérios definidos pela Tabela 3, é possível decidir se a frequência de verificação está inadequada (processo incapaz) ou se a frequência de verificação está adequada (processo capaz). Uma vez verificado que o sistema de medição apresenta capacidade adequada, a frequência de verificação pode então ser diminuída. O contrário também é válido: quando o sistema de medição apresenta capacidade inadequada, a frequência de verificação deve ser aumentada.

Especial destaque tem a estatística na avaliação dos resultados da Pesquisa de Satisfação de Clientes nos moldes em que foi concebida pelo Departamento Controle Analítico da Rhodia Poliamida e Especialidades (DCA) com o objetivo de atender ao requisito da norma ABNT NBR ISO/IEC 17025:2005. Nesta aplicação, a mesma é utilizada na avaliação de dados qualitativos (percepções e expectativas).

Em cada item de avaliação da pesquisa, o cliente manifesta, em números de 1 a 5, qual seria sua expectativa em relação ao mesmo e qual foi o desempenho do DCA de acordo com os critérios pré-estabelecidos constantes na tabela 4. A média de expectativas dos clientes e a performance média do DCA são determinadas para cada um dos itens e com base nestes valores são estimados:

(1) o grau de satisfação global dos clientes, calculado através da equação 17, que corresponde ao parâmetro usado para a avaliação de performance do DCA; (2) o “gap” médio do laboratório por variável, correspondente à diferença entre as médias de performance do DCA e expectativa dos clientes (equação 18) e (3) o percentual de insatisfação por variável, determinado através da quantificação do número de gaps negativos – decorrentes da obtenção de notas de performance inferiores à expectativa dos clientes, definido pela equação 19.

Page 8: Aplicando a estatística em processos laboratoriais

A combinação destes dois últimos atributos no fator “GPEI” – gap ponderado pela expectativa multiplicado pelo percentual de insatisfação, expresso pela equação 20 – permite classificar as variáveis de acordo com o sinal que o valor de GPEI assume e possibilita priorizá-las de acordo com a ordem de grandeza do |GPEI|.

Neste contexto, as mesmas são classificadas como potenciais não conformidades, oportunidades de melhoria e pontos fortes no atendimento do laboratório de acordo com os critérios definidos na Tabela 5.

AgradecimentosÀ Rhodia Poliamida e Especialidades Ltda., pela oportunidade de apresentação dos processos de trabalho adotados pelo Departamento Controle Analítico de Paulínia; e a toda a equipe do DCA, que permite, com sua colaboração constante, que estesprocessos sejam aplicados e otimizados no dia a dia.

Referências[1] D.P.R. Oliveira, “Sistemas de informações gerenciais: estratégias, táticas, operacionais”, 9 ed., Atlas, São Paulo, 2004.[2] I. Chiavenato, “Introdução à Teoria da Administração”, 5 ed., Makron Books, São Paulo, 1997.[3] J.C. Miller, J.N. Miller – Statistics for analytical chemistry, 1 ed., 1984.[4] DOQ-CGCRE-008 – Orientação sobre validação de métodos de ensaios químicos, INMETRO, 2003.[5] VIM – Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia, 1995.[6] ABNT NBR 14597:2000 – Precisão de métodos analíticos – Determinação da repetibilidade e reprodutibilidade de métodos para ensaio de produtos químicos, 2000.[7] MSA - Análise dos sistemas de medição, 2 ed., Chrysler Corporation, Ford Motor Company e General Motors Corporation, 1995.[8] K. Ishikawa - Guide to quality control, 2 ed., 1986.

Marcela Curcio, Ronia Oisiovici, Roberto Accorsi e Mauro Pereira são funcionários da Rhodia Poliamida e Especialidades - [email protected];[email protected]; [email protected]; [email protected]