Baixe o app para aproveitar ainda mais
Prévia do material em texto
INTRODUÇÃO AO CONTROLO DA QUALIDADE Setúbal, Dezembro de 2018 Nuno R.P. Costa Prof. Adjunto ÍNDICE i INTRODUÇÃO AO CONTROLO DA QUALIDADE© Nuno Costa ÍNDICE Preâmbulo iv Introdução 1 1. SISTEMAS DE MEDIÇÃO 5 1.1. Gestão dos Dispositivos de Monitorização e Medição 5 1.1.1- Identificação da necessidade 6 1.1.2- Caraterização e Seleção do DMM 6 1.1.3- Receção e Colocação em Serviço 17 1.2. Avaliação de Sistemas de Medição 35 1.2.1- Estudos de Repetibilidade e Reprodutibilidade 35 1.2.2- Técnica Kappa e Intraclasses 51 2. AMOSTRAGEM 63 2.1. Introdução 63 2.2. Tipos de Controlo 64 2.3. Recolha da Amostra 65 2.4. Plano de Amostragem 66 2.5. Riscos no Controlo por Amostragem 66 2.6. Probabilidade de Aceitação 67 2.7. Curva Caraterística 69 2.8. Definição de Planos de Amostragem 72 2.9. Modelos para o Controlo por Amostragem 76 2.10. Controlo por Amostragem de Atributos 76 2.10.1- Níveis de Controlo 77 2.10.2- Não Conformidades 79 2.10.3- Nível de Qualidade Aceitável 79 2.10.4- Amostragem Simples, Dupla e Múltipla 80 2.10.5- Definição de Planos de Amostragem 84 ÍNDICE ii INTRODUÇÃO AO CONTROLO DA QUALIDADE© Nuno Costa 2.10.6- Curvas Caraterísticas e Curvas ASN 87 2.10.7- Qualidade Média Resultante 90 2.11. Controlo por Amostragem de Variáveis 95 2.11.1- Vantagens e Inconvenientes 95 2.11.2- Tipos de Planos 96 2.11.3- A Norma ANSI/ASQC Z1.9 96 2.11.3.1- O Método K e o Método M 98 2.11.3.2- Especificação Unilateral 98 2.11.3.3- Especificação Bilateral 100 2.11.3.4- Como Utilizar a Norma ANSI/ASQC Z1.9 101 3. CONTROLO ESTATÍSTICO DO PROCESSO 113 3.1. Ferramentas da Qualidade 114 3.2. Cartas de Controlo 127 3.3. Controlo de Variáveis 132 3.3.1- Cartas R/ 132 3.3.1.1- Recolha e Registo de Dados 133 3.3.1.2- Interpretação das Cartas R/ 137 3.3.1.3- Controlo Contínuo do Processo 142 3.3.1.4- Controlo de Processos com Tendências 143 3.3.2- Cartas S/ 144 3.3.2.1- Limites de Controlo nas Cartas S/ 145 3.4. Cartas R/ e S/ com Amostras de Dimensão Variável 147 3.5. A Distribuição Normal dos Dados 148 3.6. Limites de Controlo e Especificações 149 3.7. Controlo de Médias versus Valores Individuais 150 3.8. Carta de Valores Individuais e de Amplitudes Móveis 151 3.8.1- Construção e Interpretação 152 3.9 Cartas de Controlo de Atributos 153 3.9.1- Seleção da Carta 154 ÍNDICE iii INTRODUÇÃO AO CONTROLO DA QUALIDADE© Nuno Costa 3.9.2- Vantagens e Limitações 154 3.9.3- Carta p 156 3.9.3.1- Recolha e Registo de dados 156 3.9.3.2- Interpretação da Carta p 159 3.9.4- Carta np 159 3.9.5- Carta c 160 3.9.6- Carta u 161 4. CAPABILIDADE DO PROCESSO 165 4.1. Capabilidade versus Capacidade 165 4.2. Objetivos do Estudo da Capabilidade do Processo 166 4.3. Tipos de Estudo da Capabilidade do Processo 166 4.4. Fases num Estudo da Capabilidade do Processo 167 4.5. Índices da Capabilidade do Processo 168 BIBLIOGRAFIA 171 ANEXO A – SISTEMAS DE MEDIÇÃO ANEXO B – AMOSTRAGEM ANEXO C – CARTAS DE CONTROLO ANEXO D – EXERCÍCIOS RESOLVIDOS E PROPOSTOS PREÂMBULO IV INTRODUÇÃO AO CONTROLO DA QUALIDADE© Nuno Costa PREÂMBULO Como tem sido exaustivamente divulgado, a Qualidade não é estática; a sua melhoria tem de ser contínua. Neste sentido, é o envolvimento e a determinação de todos em contribuir para a melhoria da Qualidade num contexto industrial que continua a ser a força que conduz à Excelência do desempenho pessoal e organizacional. Este documento pretende servir de suporte ao estudo e facilitar a aplicação num contexto empresarial de algumas das ferramentas e técnicas de controlo e melhoria da qualidade mais relevantes, tendo sido elaborado para os alunos do 3º ano do curso de Licenciatura em Engª Mecânica – Produção, Automóvel, Aeronáutica, Energia e de Licenciatura em Eng.ª Eletrotécnica e Computadores – Electromecânica da ESTSetubal. O Controlo por Amostragem e o Controlo Estatístico do Processo revestem-se de uma importância crítica em empresas que assumam como filosofia a melhoria contínua da qualidade dos processos e/ou dos produtos, sendo expostas e exemplificadas neste documento. A sua aplicação tem subjacente o conhecimento e o domínio de conceitos e de técnicas adequadas à avaliação de Sistemas de Medição pelo que são também alvo de apresentação neste documento. Importa realçar que não há um conjunto de melhores ferramentas ou técnicas, todas serão úteis se as empresas tiverem como filosofia a Melhoria Contínua. Este documento aborda com o rigor e a profundidade adequados os temas em questão, mas não dispensa o aluno de estar presente nas aulas nem a leitura de outros documentos, nomeadamente livros e artigos científicos, nos quais estes conteúdos sejam adequadamente tratados. Fica, portanto, aqui uma mensagem: “Sê o melhor de ti e torna-te contagioso” - (Agostinho da Silva) CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 1 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa INTRODUÇÃO Alterações mais ou menos profundas e frequentes na tecnologia, nos processos, nos produtos, nos comportamentos das pessoas e o rápido desenvolvimento da sociedade da informação são razões pelas quais as empresas vivem atualmente sob uma pressão concorrencial nunca conhecida e que não deixará de crescer com a globalização dos mercados. Neste contexto, a gestão de uma empresa requer competências muito diferentes daquelas que eram exigidas há alguns anos e todas aquelas que se preocupam com as caraterísticas dos produtos/serviços que fornecem e com o desempenho do respetivo processo produtivo devem ter como objetivo permanente a melhoria contínua. Esperar progressos sólidos e direcionados em oposição a resultados esporádicos e não sustentáveis será possível se as empresas utilizarem corretamente e de uma forma sistemática as ferramentas e técnicas mais adequadas ao controlo e melhoria da qualidade. No entanto a aplicação destas técnicas tem subjacente o conhecimento e o domínio dos conceitos e das técnicas adequadas à avaliação dos Sistemas de Medição. Saber interpretar as caraterísticas dos dispositivos de medição, entender o conceito de Incerteza e avaliar os sistemas de medição são exemplos de atividades fundamentais para a melhoria da qualidade dos processos e dos produtos. Por esta razão o primeiro capítulo deste documento é dedicado a estas temáticas. No segundo e terceiro capítulo são apresentadas as denominadas Técnicas de Controlo e Melhoria da Qualidade com maior aplicação nas empresas1, nomeadamente: O Controlo por Amostragem O Controlo (Estatístico) do Processo Uma questão importante que se pode levantar neste momento é a seguinte: “Qual é a função que cada uma delas desempenha no processo de produção do produto/serviço” e que evolução tem existido na utilização das referidas técnicas? 1 A apresentação detalhada do Planeamento de Experiências está fora do âmbito deste manual. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 2 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa Ao observarmos a figura seguinte, na qual se ilustra a evolução no uso das técnicas de controlo e melhoria da qualidade atrás mencionadas, constata-se que numa fase inicial, quando as empresas ainda não estavam suficientemente sensibilizadas para a melhoria da Qualidade, o Controlo por Amostragem foi a técnicaque começou por ser utilizada. O seu desenvolvimento teórico ocorreu na década de 1920, após a 1ª Guerra Mundial, à semelhança do Controlo Estatístico do Processo. Porém, foi só depois da segunda metade da década de 1940, após a 2ª Guerra Mundial, e inicialmente no Japão, que começaram a ser utilizadas de um modo mais generalizado no controlo e melhoria da qualidade dos produtos e dos processos. O Controlo por Amostragem consiste na recolha de amostras (elementos de um conjunto maior) e em função dos resultados obtidos da sua análise fazer inferência sobre a qualidade da totalidade das matérias-primas, componentes ou produtos acabados. Este tipo de controlo começou a ser utilizado por algumas empresas no controlo da qualidade das matérias-primas à entrada e à saída do processo de produção. No entanto, à medida que as empresas começaram a apostar na melhoria da qualidade dos produtos/serviços e dos processos perceberam que uma inspeção sobre o produto final seguida de ações sobre o processo tinha por base uma estratégia de deteção/correção de problemas da qual decorriam toda uma série de inconvenientes que poderiam ser eliminados ao ser adotada uma verdadeira estratégia de prevenção. Nesta altura tornou-se também evidente que para garantir a qualidade dos produtos/serviços e dos processos era necessário aplicar técnicas de controlo e melhoria da qualidade ao longo de todo o processo produtivo. É neste contexto que CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 3 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa começou a sentir-se necessidade de implementar o Controlo Estatístico do Processo e, mais recentemente, do Planeamento de Experiências. Estas técnicas não são, naturalmente, as únicas disponíveis. Outras poderão complementar estas para que as empresas consigam melhorar a qualidade, maximizar a produtividade e a competitividade. De qualquer maneira, o impacto que têm tido no desempenho das empresas justifica uma maior aplicação em contexto real de trabalho. O Planeamento de Experiências é uma técnica especialmente adequada para ser aplicada na fase de conceção e de desenvolvimento de produtos e processos, que têm sido consideradas atividades críticas para a competitividade das empresas, embora possa também ser utilizada na melhoria ou resolução dos respetivos problemas. De facto, o Planeamento de Experiências é uma técnica estratégica no apoio às referidas atividades. Com a sua utilização procura-se conceber produtos e processos que sejam insensíveis às causas do(s) problema(s) em vez de se identificar e eliminar as respetivas causas. Posto isto, torna-se necessário utilizar uma técnica on-line, ou seja, uma técnica especialmente adequada para monitorar os parâmetros do processo ou do produto, nomeadamente os valores das variáveis consideradas críticas. Essa técnica é o Controlo Estatístico do Processo, ou mais concretamente uma das suas ferramentas denominada Cartas de Controlo, cuja apresentação será feita no Capítulo 3 deste documento. As técnicas atrás referidas, quando aplicadas de uma forma adequada, sistemática e integrada com outras técnicas à conceção e desenvolvimento do produto e do processo ou à resolução dos respetivos problemas são certamente uma chave determinante para o sucesso das empresas. Só deste modo será possível ganhar vantagens competitivas e garantir a sustentabilidade dos negócios a longo prazo, indo ao encontro das expetativas e necessidades dos clientes, dos colaboradores e da sociedade em geral. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 4 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 5 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa 1. SISTEMAS DE MEDIÇÃO Num mercado cada vez mais global e competitivo as organizações devem estar conscientes de que “Não se pode melhorar nada que não se consiga medir”. De facto, independentemente da dimensão, área de atividade e complexidade do negócio, os denominados Dispositivos de Monitorização e Medição (DMM) assumem um papel determinante na melhoria contínua das organizações, seja do ponto de vista técnico e/ou económico. No entanto, constata-se que o conhecimento sobre os mais diversos aspetos daquilo que entendemos designar por Gestão dos DMM é superficial ou não existe. Neste documento é usado o termo “Gestão” dos DMM em detrimento do termo “Controlo” dos DMM, o qual é utilizado em vários contextos, porque a palavra “Controlo” é redutora da importância que deve ser dada aos DMM e, por conseguinte, às atividades que as organizações devem efetuar e evidenciar neste âmbito. Além disto, e no sentido de harmonizar a terminologia usada em diferentes documentos públicos (Normas, Regulamentos Guias, etc.), será usado o termo “dispositivo” em alternativa aos termos “instrumento” e “equipamento”. 1.1 Gestão dos Dispositivos de Monitorização e Medição Uma efetiva Gestão dos DMM tem inerente várias vantagens, sendo de destacar as seguintes: - Garantirá que serão identificados e utilizados os dispositivos necessários para medir e monitorar os parâmetros do processo e/ou do produto previamente definidos; - Assegurará a compatibilidade dos DMM com as especificações do processo e/ou do produto; - Permitirá evidenciar que os DMM estão em condições de serem utilizados e que é evitada e minimizada a sua degradação e indisponibilidade. Por conseguinte, a gestão dos DMM deve ser sustentada num procedimento documentado que inclua as seguintes fases: 1- Identificação da necessidade 2- Caraterização e Seleção CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 6 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa 3- Receção e Colocação em serviço 4- Acompanhamento do desempenho Importa salientar que cada uma destas fases não deve ser entendida como um compartimento estanque. Tanto ou mais importante que o formalismo da “arrumação” da informação é o seu conteúdo e a respetiva atualização. 1.1.1- Identificação da necessidade A aquisição de um DMM não pode ser feita sem que seja efetivamente documentada a justificação da sua necessidade. A justificação é muitas vezes simples na medida em que pode ser evidente a necessidade de medir uma determinada caraterística e não existe dispositivo para o efeito, ou ser conveniente substituir um dispositivo existente para simplificar o processo de medição, obter resultados mais exatos, melhorar compatibilidade entre os dispositivos existentes, etc. O pedido de aquisição deve ser efetuado por escrito, deve identificar quem faz a solicitação, pessoa, departamento ou secção da organização, a data do pedido e apresentar a justificação para a aquisição do dispositivo em questão. No seguimento disto procede-se à análise e eventual aprovação do pedido por quem tenha essa responsabilidade formalmente definida dentro da organização. 1.1.2- Caraterização e Seleção do DMM Se a identificação da necessidade de um DMM e respetiva aprovação são muitas vezes óbvias, o mesmo não se poderá dizer da necessária caraterização e seleção do DMM que se pretende adquirir. Nesta fase levantam-se, logo à partida, duas questões: - Quem é que vende esse dispositivo? - Quais as caraterísticas que o dispositivo deve possuir? A resposta à primeira questão pode envolver apenas algum dispêndio de tempo para identificar, contatar e posteriormente analisar e negociar as condições comerciais propostas pelos eventuais fornecedores do dispositivo(s). Estas são atividades CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 7 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa importantes que não devem ser menosprezadas. A resposta à segunda questão exige conhecimentos técnicos para interpretar e analisar as caraterísticas dos DMM, tendo em conta o contexto em que serão efetuadas as medições (condiçõesambientais, parâmetros/caraterísticas do processo e/ou produto a medir e respetiva ordem de grandeza, tolerâncias, etc.). Estas são competências que quem define as caraterísticas e seleciona os DMM deve, efetivamente, possuir. No entanto estas competências nem sempre existem, nem são promovidas no âmbito do plano de formação dos recursos humanos das organizações, facto que deve, naturalmente, ser corrigido. É no sentido de colmatar esta ausência ou insuficiência de conhecimentos sobre as caraterísticas dos DMM que se apresentam algumas daquelas que são comuns a muitos dos dispositivos disponíveis no mercado, além da correspondente designação anglo- saxónica. O significado dessas caraterísticas está de acordo com o Vocabulário Internacional de Metrologia (VIM, 2012) e/ou com o Measurement System Analysis (MSA, 2010). A apresentação das caraterísticas dos DMM assume ainda uma especial relevância porque não existe uma uniformização na utilização dos conceitos associados, pelo menos, de algumas caraterísticas dos DMM. As caraterísticas (metrológicas) dos DMM que se entendeu ser pertinente apresentar para que a atividade de caraterização e seleção dos DMM seja efetuada com um maior conhecimento de causa são as seguintes: - Exatidão (Accuracy) Esta caraterística deve ser entendida como a aptidão de um dispositivo de medição para dar indicações próximas do (verdadeiro) valor da grandeza medida. A exatidão é um conceito qualitativo, não sendo por isso passível de quantificação. Embora se aplique a medidas materializadas (VIM, 2012), muitos fabricantes de DMM quantificam, erradamente, a exatidão, entendendo-a como a diferença, em termos percentuais, entre o valor medido, ou a média dos valores medidos num determinado ponto da escala do dispositivo, e o valor que se esperava ou deveria obter (valor de referência ou valor convencionalmente verdadeiro). Não é por isso invulgar que o conceito de exatidão seja muitas vezes confundido com o de Bias error, dado que o Bias error é a diferença entre CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 8 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa a média das leituras num ponto e o valor (convencionalmente verdadeiro) desse ponto. Note-se que no MSA (2010) é utilizado o termo Tendência para caraterizar este tipo de erro. Se a um dispositivo for incorretamente associada uma “exatidão” de ±1 %, em princípio, deve-se entender que os valores indicados por esse dispositivo estarão compreendidos entre o valor indicado ±1 % desse valor. Por exemplo, se um dispositivo indicar que a tensão da corrente é de 5 V, deve-se assumir que o valor dessa tensão é, na realidade, um valor compreendido entre [5 ± 0,01 x 5] V = [5 ± 0,05] V. É a incerteza da medição, e não a exatidão, que associada ao resultado da medição permite definir o intervalo de valores dentro do qual está o valor (convencionalmente verdadeiro) da grandeza que se mediu. A incerteza da medição não deve por isto ser confundida com a exatidão. Ter-se-á oportunidade de demonstrar que qualquer resultado de uma medição só faz sentido se puder ser escrito na forma de um intervalo de valores, ou seja, se ao valor medido for associada a incerteza da medição. A exatidão não é quantificável, embora alguns fabricantes, incorretamente, o façam. Para agravar a situação, muitas vezes também não se consegue perceber se esse valor corresponde ao Bias error ou à incerteza da medição. O termo “precisão” é também confundido com o de “exatidão”. No entanto eles são distintos. A exatidão reflete a aptidão do dispositivo para dar valores tão próximos quanto possível do valor (verdadeiro) da grandeza medida, enquanto a precisão reflete a aptidão do dispositivo para fornecer valores com a mínima dispersão entre eles, ou seja, para fornecer informação sobre a Repetibilidade do dispositivo, tal como se define seguidamente. A precisão é um conceito que deve ser evitado e que faz sentido apenas num contexto legal, ou seja, quando os dispositivos estão enquadrados por exigências definidas por Lei. Mesmo quando isto não se verifica, alguns dispositivos ainda são inadequadamente classificados pela “classe de precisão”. O que será mais correto é denominar a classe (I, II, A, B, ...) que carateriza o dispositivo por este manter os erros de medição dentro de limites especificados de “classe de exatidão” do dispositivo. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 9 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa - Repetibilidade (Repeatability) Esta é uma caraterística que traduz a dispersão dos resultados de medições sucessivas do mesmo valor de uma determinada grandeza efetuadas com o mesmo dispositivo, o mesmo método de medição, o mesmo procedimento de medição, o mesmo operador, as mesmas condições ambientais, no mesmo local e num curto intervalo de tempo. O valor da Repetibilidade é vulgarmente expresso nas unidades da grandeza medida, embora por vezes seja expresso em termos percentuais relativamente ao valor medido. Por exemplo, o analisador probatório do hálito, que deve indicar o resultado da medição em mg/l, para concentrações até 0,4 mg/l, o desvio padrão dos resultados de 10 medições deve ser inferior a 0,007 mg/l. Para concentrações iguais ou superiores a 0,4 mg/l mas iguais ou inferiores a 2 mg/l, o desvio padrão dos resultados de 10 medições deve ser inferior a 1,75 %. Para concentrações superiores a 2 mg/l, o desvio padrão dos resultados de 10 medições deve ser inferior a 6 %, ou seja, inferior a (0,06 x 2) = 0,12 mg/l. Em termos qualitativos, e para efeitos da seleção ou caraterização de um dispositivo de medição, quanto menor for o valor da Repetibilidade melhor. Isto significa que a dispersão das leituras em torno de um valor medido será a menor possível. Esta é uma caraterística importante dos dispositivos que se reflete no seu custo. Quanto menor for o valor da Repetibilidade associada ao dispositivo, ou seja, quanto menor for a dispersão das leituras obtidas na medição repetida do valor de uma determinada grandeza, maior será o preço de venda/compra desse dispositivo. Importa salientar que repetibilidade não é sinónimo de exatidão, ou seja, um dispositivo pode apresentar a mínima dispersão nos resultados das medições efetuadas e não ter a exatidão desejável. Isto significa que os valores das medições não se distribuem em torno do (verdadeiro) valor da grandeza medida, ainda que esses resultados apresentem uma mínima dispersão, tal como se ilustra na figura. No entanto, tal como é desejável, um dispositivo pode apresentar a mínima dispersão nos valores medidos e ser exato, tal como se ilustra na figura com fundo branco. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 10 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa - REPRODUTIBILIDADE (Reproducibility) A reprodutibilidade de um dispositivo, ou sistema de medição (conjunto homem- dispositivo), traduz a dispersão dos resultados das medições sucessivas de um mesmo valor de uma determinada grandeza medida no caso em que não se mantiveram constantes as condições de medição, por exemplo, o método de medição, o procedimento de medição, o operador, o local da medição, as condições ambientais e o/ou o momento (data e/ou hora) em que se efetuaram as medições. Por exemplo, as leituras obtidas com o sistema de medição A podem não ser exatamente iguais às obtidos com o sistema B. De modo semelhante, as leituras obtidas pelo sistema de medição A na parte da manhã de um determinado dia não são necessariamente iguais às da manhã do dia anterior, quer em termos do valor médio quer em termos do desvio padrão. A reprodutibilidade de um dispositivo é uma caraterística que não é apresentada pelos fabricantes. No entanto pode e deve ser determinada e combinada com a repetibilidade com base num estudo de Repetibilidade e Reprodutibilidade(estudo R&R), sendo assim possível avaliar e comparar o desempenho de dois ou mais dispositivos ou conjuntos pessoa-dispositivo (sistemas de medição). - INTERVALO DE MEDIÇÃO, ALCANCE, GAMA DE INDICAÇÃO (Range) Estes conceitos caraterizam o conjunto de valores que se conseguem medir com o dispositivo e para os quais o erro de indicação do dispositivo de medição se mantém entre determinados limites. Os valores limites (indicações extremas), denominados valor mínimo (alcance mínimo) e valor máximo (alcance máximo), são expressos nas unidades da escala do dispositivo e podem ser apresentados, por exemplo, por -10V a +10V, ou simplesmente pelo alcance máximo, no caso em que o alcance mínimo é zero. Por exemplo, se o intervalo de valores dentro do qual o dispositivo consegue obter resultados for de 0 a 50V, a Intervalo de Medição ou Gama de Indicação é 50V. É importante que os conceitos atrás referidos não sejam confundidos com o de “Gama de trabalho”. Este deve ser entendido como o intervalo de valores dentro do qual o dispositivo é ou deve ser utilizado. Por exemplo, se um paquímetro com um alcance máximo de 250 mm for utilizado para efetuar medições em peças cujo comprimento CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 11 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa varia entre 100 mm e os 150 mm, este intervalo de valores será a gama de trabalho. A diferença entre o maior e o menor valor da gama de trabalho é designada de Amplitude de trabalho, sendo na linguagem anglo-saxónica usualmente designada de “Span”. A definição da gama de trabalho é bastante importante não só para a seleção do dispositivo, mas também porque, sempre que haja necessidade de calibrar o dispositivo, deve ser solicitado ao laboratório que efetuar a calibração que o faça nesse intervalo de valores. - ZONA MORTA, FOLGA (Dead Band) A Zona Morta ou Folga corresponde ao maior intervalo de valores dentro do qual um sinal de entrada pode variar em ambos os sentidos, sem produzir variação na resposta do DMM, tal como se ilustra na figura. Em determinados dispositivos pode ser definida pelo utilizador. Por exemplo, no caso dos pressostatos deve ser definido um intervalo de pressão para o qual o pressostato não atua, evitando assim arranques e paragens sucessivas no processo de pressurização devido a pequenas variações na pressão. Esta é uma caraterística que está diretamente relacionada com o Limiar de Mobilidade (Threshold - maior variação no sinal de entrada que não provoca uma variação percetível na resposta do dispositivo) dado que, a amplitude do intervalo que carateriza a Zona morta corresponde ao valor do Limiar de Mobilidade. - DISCRIMINAÇÃO, RESOLUÇÃO (Resolution) Por resolução deve-se entender a menor variação da grandeza medida que causa uma variação percetível na indicação correspondente (VIM, 2012). Para um dispositivo que apresente o resultado da medição num mostrador digital a resolução corresponde à ordem de grandeza do último dígito do mostrador. Porém, num dispositivo de medição analógico (com escala graduada) a resolução deve corresponder à divisão da escala de referência do dispositivo, sendo a divisão da escala o menor valor entre duas marcas sucessivas. Quando a divisão da escala é de 0,01 mm, isto significa que a menor leitura que pode ser feita pelo dispositivo é de 0,01 mm. No caso de um operador conseguir ler valores inferiores a 0,01mm, ainda que recorrendo a processos óticos (lupas, etc.), a aceitação desses valores deve ser cuidadosamente avaliada. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 12 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa Esta é uma caraterística particularmente importante em termos da caraterização e seleção dos dispositivos por razões técnicas e económicas. Em termos técnicos nenhum dispositivo deve ser utilizado para efetuar medições de grandezas cujos valores sejam inferiores à sua resolução/divisão da escala do dispositivo. Na prática recomenda-se que os dispositivos utilizados tenham uma resolução 10 vezes superior ao valor das grandezas que se pretendem medir. Em termos económicos, quanto maior for a resolução do dispositivo maior é o seu custo. Perante isto, impõem-se que se encontre um equilíbrio entre as questões técnicas e económicas. - ERRO DE INDICAÇÃO (Error) Esta caraterística dos dispositivos traduz a diferença entre o resultado da medição e o valor (convencionalmente verdadeiro) da grandeza medida, ou seja, a diferença entre o valor apresentado pelo dispositivo e o valor medido. O valor máximo do erro de indicação, geralmente fornecido pelo fabricante do dispositivo ou definido em regulamentação específica, é denominado Erro Máximo Admissível. Este erro pode ser expresso das seguintes maneiras: a) Em função da leitura; b) Em função do fim de escala; c) Em função de um valor absoluto fixo. Quando o erro máximo admissível é dado em função da leitura, existem duas formas típicas de apresentação: - em percentagem [%] da leitura; - em partes por milhão [ppm] da leitura. Assim, um dispositivo com uma gama de medição de 0 – 10 V e um erro máximo admissível de ±5% da leitura na gama de medição do dispositivo tem como valores limite para uma leitura, por exemplo, de 7 V: (7 ± 0,05 x 7) V = (7 ± 0,35) V. O mesmo dispositivo, com um erro máximo admissível de ±10 ppm da leitura na gama de medição do dispositivo tem como valores limite para a leitura de 7V os valores (7 ± 0,00007) V. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 13 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa Se o erro máximo admissível do dispositivo for definido em função do fim de escala (F.S.), esse erro terá sempre o mesmo valor para qualquer leitura efetuada. Assim, para um instrumento com uma gama de medição de 10 a 100 m3 e um erro máximo admissível de ±5% do F.S. tem, para qualquer leitura efetuada, os valores limite definidos por (leitura ± 5) m3. O mesmo dispositivo, com um erro máximo admissível de ±10 ppm (F.S.) tem como valores limite: (leitura ± 0,001) m3. Na seleção de dispositivos que apresentem o erro de indicação em função do fim de escala recomenda-se algum cuidado. Isto porque, por exemplo, se o dispositivo tiver um alcance máximo de 1000 N e apresentar um erro de indicação em função do fim de escala de 1%, ou seja, de 10 N, quando este dispositivo efetua uma medição de 50 N o valor da grandeza medida será um valor compreendido entre (500 ± 10) N. Isto significa que para leituras da ordem de grandeza dos 50 N, o erro em termos do valor medido é, efetivamente, de 20% dos 50 N, ou seja, de 10 N, o que em determinados contextos poderá ser considerado inadmissível. Como se constata no quadro seguinte, à medida que os valores medidos diminuem em termos de ordem de grandeza, o erro em termos do valor medido assume valores inadmissíveis. ERRO DE INDICAÇÃO DE 1% EM FUNÇÃO DO FIM DE ESCALA Valor medido (N) Erro (N) Valor percentual do erro relativamente ao valor medido 1000 10 1% 500 10 2% 100 10 10% 50 10 20% 10 10 100% 5 10 200% Quando o erro máximo admissível é definido em função de um valor absoluto fixo, o cálculo dos valores limites das leituras é obtido por adição ou subtração desse valor limite à leitura obtida com o dispositivo. Este tipo de erro é, usualmente, denominado pelos fabricantes dos dispositivos de “Erro Sistemático”. Assim, para um dispositivo com um erro máximo admissível de ± 3 g e uma gama de indicação de 0 - 2 kg, os valores limite associados a qualquer leitura serão iguais à (leitura ± 3) g. No caso do erro máximo admissível ser de 25 Contagens (25xResolução) e estarmos perante um dispositivo com 4½ dígitos, ou seja, o valor máximo que o dispositivo conseguirá CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 14 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa apresentarno visor é 1999,9 g, sendo a sua resolução igual a 0,1 g (2000 – 1999,9 = 0,1), as 25 Contagens correspondem a 25 x 0,1 g = 2,5 g. Assim, qualquer leitura efetuada tem como valores limite a leitura ± 2,5 g. No caso do erro máximo admissível ser definido na forma de ± (0,7 % da leitura + 4 dígitos), os 4 dígitos correspondem a 4 vezes a resolução. Assim, no caso de um multímetro com 4½ dígitos e uma gama de medição dos 0-500 mV, os valores limite dentro dos quais está o verdadeiro valor da grandeza medida numa leitura de 300 mV são os seguintes: O erro de indicação em função da leitura é igual a 0,7% x 300 mV = 2,1 mV; O erro de indicação correspondente aos 4 dígitos é igual a 4 x 0,01 mV = 0,04 mV, dado que a menor divisão da escala é de 0,01 mV (no display/visor poderá aparecer 499,99 mV). Assim, o erro de indicação do multímetro para a leitura de 300 mV é de ± (2,10 mV + 0,04 mV) = ± 2,14 mV. Os valores limite da leitura são: (30,00 ± 2,14) mV. O erro máximo admissível é uma caraterística muito importante num dispositivo, não só porque condiciona o valor de outras caraterísticas, como por exemplo a Repetibilidade e a Histerese, mas porque o erro máximo admissível em conjunto com a incerteza da medição poderá inviabilizar a utilização do dispositivo na medição de parâmetros do processo ou do produto com determinadas especificações. – HISTERESE (Hysteresis) A Histerese é uma caraterística dos dispositivos de medição que se traduz pela obtenção de resultados de medição diferentes para o mesmo valor da grandeza medida quando a leitura é feita na “curva de carga” e na “curva de descarga”. A curva de carga representa o resultado da medição de sucessivos valores crescentes da grandeza medida ao longo da gama de medição do dispositivo. A curva de descarga representa o resultado da medição de sucessivos valores decrescentes, tal como se representa na figura. A existência desta caraterística, por exemplo, em sensores de temperatura faz com que a temperatura medida num dado CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 15 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa espaço quando esta é alcançada no sentido crescente seja diferente da temperatura a que esse espaço efetivamente está quando a temperatura medida for alcançada no sentido decrescente, ou seja, se a temperatura diminuir de um determinado valor até ao valor desejado. Da mesma forma, quando se vai colocando carne em cima de uma balança para se atingir um determinado peso, a quantidade de carne assim obtida poderá não ser a mesma do que a que se obtém quando se coloca carne em excesso em cima da balança e depois se vai retirando carne até obter o peso desejado. Neste sentido, é recomendável que o valor da Histerese, a diferença máxima encontrada entre as curvas de carga e descarga expressa nas unidades dessa grandeza, seja o mais pequeno possível em função do contexto em que o dispositivo for utilizado. - NEUTRALIDADE (Transparency) Aptidão do dispositivo de medição para não alterar o valor da grandeza a medir define a sua neutralidade. Por exemplo, a balança é por natureza um dispositivo neutro na medição de massas, enquanto um termómetro de resistência que aquece o meio cuja temperatura é suposto medir não é neutro. - CONSISTÊNCIA (Consistency) Esta caraterística traduz a aptidão de um dispositivo de medição para conservar no tempo as suas caraterísticas metrológicas, nomeadamente o valor da repetibilidade (MSA, 2012). Um dispositivo é tanto mais consistente quanto menor for a variação nos valores da repetibilidade ao longo do tempo. Usualmente, os fabricantes não quantificam ou qualificam a Consistência de um dispositivo. É responsabilidade do utilizador assegurá-la através das atividades de manutenção, controlo (não confundir com verificação2) e calibração periódicas, tendo como referência, entre outras, as orientações do fabricante. - ESTABILIDADE (Stability) A Estabilidade é a aptidão de um dispositivo de medição para conservar no tempo as suas caraterísticas metrológicas, nomeadamente a Tendência (Bias error) em vários 2 Note que, de acordo com o VIML (V 3.12), a verificação de um instrumento de medição deve ser entendida como o procedimento que compreende o exame, a marcação e/ou a emissão de um certificado de verificação e que constata e confirma que o instrumento de medição satisfaz às exigências regulamentares. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 16 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa pontos da escala do dispositivo. Esta é outra das caraterísticas desejáveis nos dispositivos que não é quantificada ou qualificada pelos fabricantes, sendo da responsabilidade do utilizador avaliá-la, quantificá-la e minimizar o seu valor através das atividades de manutenção, controlo/verificação e calibração periódicas a que o dispositivo deve estar submetido. Note-se que estas atividades devem ser efetuadas tendo como referência as orientações do fabricante e outras consideradas relevantes. Mesmo assim é possível que alguns dispositivos apresentem “Deriva – Drift”, ou seja, apresentem uma degradação gradual das caraterísticas metrológicas, que é passível de ser quantificada. A natural degradação gradual das caraterísticas dos dispositivos é, muitas das vezes, prematuramente desencadeada pela severidade das condições ambientais em que o dispositivo é utilizado. A utilização do dispositivo em condições ambientais diferentes das especificadas pelos fabricantes origina não só a degradação, mas também leituras incorretas do valor da grandeza medida que, em determinados contextos, podem pôr em causa a segurança de pessoas e bens, o desempenho do processo e/ou a qualidade do produto. Em particular, variações nas condições ambientais podem provocar nos dispositivos o que se denomina de “Deriva de zero” e “Deriva de sensibilidade”. No caso de apenas existir deriva de zero, isto significaria que, para qualquer valor medido, o erro de medição seria constante ao longo da gama de medição do dispositivo. Existindo deriva de sensibilidade ou deriva do fator de escala o erro de medição ao longo da gama de medição do dispositivo deixa de ser constante. Ambas as situações são ilustradas na figura apresentada. Importa salientar que não são só as condições ambientais, como a temperatura e humidade, que poderão dar origem a erros nas leituras efetuadas com um dispositivo. Outras grandezas de influência, tais como, vibrações, poeiras, pressão atmosférica, intensidade e tensão da corrente elétrica e as radiações eletromagnéticas, poderão aumentar e/ou dar origem a erros nessas leituras. Neste sentido, compete ao fabricante Com Deriva de zero e de sensibilidade Sem Deriva Input Output CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 17 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa especificar as condições ambientais em que o DMM deve ser utilizado. Existem casos em que as condições ambientais não são expressas explicitamente, mas sim, em termos das classes, grupos ou índices de proteção definidos em regulamentação específica, tais como normas, diretivas ou documentos legais. - TEMPO DE RESPOSTA Tempo que um dispositivo demora a apresentar um resultado de medição estável, dentro de limites de erro especificados, após variação do sinal de entrada. É usual, sempre que justificado, os fabricantes apresentarem o valor da Constante de tempo (), o qual corresponde ao tempo necessário para que o dispositivo apresente um valor entre os 63% e os 90% do valor final da grandeza medida. É importante não confundir este conceito com o de “Constante do dispositivo”, que é o coeficiente pelo qual se deve multiplicar o resultado indicado pelo dispositivo para obter o valor da grandeza medida. Um exemplo simples desta constanteé o que é apresentado nos conta rotações dos veículos automóveis (x 1000). Pode não ser fácil caraterizar um DMM!! Muito mais difícil se torna esta caraterização se forem, e devem ser, ponderados em termos técnicos e económicos aspetos complementares aos já apresentados como, por exemplo, os da segurança para o operador na utilização do dispositivo, a facilidade de instalação, de utilização, de movimentação e manutenção do dispositivo, as garantias e certificados associados ao dispositivo, o conteúdo dos manuais, o apoio técnico disponibilizado bem como a formação de técnicos de operação e manutenção do dispositivo. Existem no mercado muitos tipos de dispositivos com caraterísticas difíceis de comparar e com preços muito diversos. Sendo impossível apresentar todas as caraterísticas dos dispositivos e muito menos tipificar as situações em que o dispositivo A é mais adequado que o dispositivo B, ou que a caraterística X é mais importante que a caraterística Y, fica como mensagem que a Caraterização e Seleção dos DMM é uma atividade que deve ser efetuada por quem tenha o conhecimento necessário e ser documentada, tendo em conta as atividades atuais e, se possível, futuras da organização. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 18 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa 1.1.3 - Receção e Colocação em Serviço A receção de um dispositivo de monitorização e/ou medição (DMM) por parte de quem o comprou não se deve limitar à constatação de que o DMM não apresenta qualquer dano ou deficiência e que possui as caraterísticas previamente estabelecidas em função das especificações do produto, do processo e das condições (ambientais) em que se efetuarão as medições. Para além disto, é necessário definir quais as atividades de acompanhamento a que o dispositivo deve ficar sujeito e confirmar que o mesmo vem acompanhado dos acessórios e dos documentos técnicos adequados à sua correta instalação, utilização e preservação. Toda esta informação e outra entendida como indispensável e pertinente devem ser registadas. Por exemplo, deve fazer parte da informação a registar aquela que resulta da resposta a questões importantes, tais como: - O dispositivo ficará sujeito a calibração periódica? - A incerteza é compatível com as especificações do produto e do processo? - Qual a periodicidade e o tipo de operações de manutenção a que o dispositivo ficará sujeito? - São necessárias instruções de trabalho para a utilização e realização das atividades de acompanhamento a que o dispositivo vai ficar sujeito? Para que a resposta a estas questões possa ser dada com conhecimento de causa, uma vez que a qualidade dos dados obtidos com esse dispositivo e por consequência a análise que seja efetuada relativamente ao desempenho do processo, à qualidade do produto e à vida útil do dispositivo ficará desde logo condicionada, é necessário entender o significado dos conceitos de “Calibração” e de “Incerteza da medição”. De acordo com o Vocabulário Internacional de Metrologia (VIM, 2012), uma CALIBRAÇÃO é a operação que estabelece, sob condições especificadas, num primeiro passo, uma relação entre os valores e as incertezas de medição fornecidos por padrões e as indicações correspondentes com as incertezas associadas; num segundo passo, utiliza esta informação para estabelecer uma relação visando a obtenção dum resultado de medição a partir duma indicação. Em termos práticos, apenas dispositivos calibrados permitem obter medições válidas e credíveis não apenas na perspetiva interna da organização, mas também ao nível externo no âmbito das transações comerciais. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 19 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa Saliente-se que, tal como já se referiu anteriormente, o termo dispositivo assume aqui um significado abrangente, podendo significar um instrumento de medição, um equipamento, um sistema de medição, os valores representados por uma medida materializada ou um material de referência. A incerteza do resultado da medição, ou mais simplesmente, a INCERTEZA DA MEDIÇÃO3, é um parâmetro que permite caracterizar o intervalo de valores no qual se estima, com um determinado nível de confiança, que se encontra o valor (verdadeiro) da grandeza medida. A incerteza da medição é uma evidência de que o valor de uma determinada grandeza que se pretende medir (mensuranda) não existe apenas um único resultado, mas sim, um conjunto de resultados dentro de um determinado intervalo que são consistentes com os conhecimentos existentes. Numa perspetiva negativista pode-se dizer que a Incerteza da medição denuncia uma incapacidade de se conhecer o valor (verdadeiro) da mensuranda. Neste sentido, o valor indicado por um dispositivo de medição não pode ser assumido como o valor verdadeiro da medição. O valor indicado por um dispositivo de medição deve ser entendido como a melhor estimativa do valor da mensuranda. O resultado de uma medição deve permitir concluir se o valor da mensuranda está, ou não, em conformidade com a especificação. Porém, essa conclusão só é consistente e fiável, se o valor indicado pelo dispositivo tiver associado a incerteza da medição. Isto significa que o resultado de qualquer medição deve ser expresso na forma de um intervalo de medição, ou seja: Resultado da medição = valor indicado pelo dispositivo Incerteza da medição. A importância do conhecimento da incerteza Para que se compreenda melhor a importância de conhecer e associar ao valor indicado pelo dispositivo a respetiva incerteza, considere-se que uma determinada caraterística 3 Detalhes sobre o cálculo da incerteza podem ser estudados no GUM - Guide to the Expression of Uncertainty in Measurement, editado pela ISO – International Standard Organization. CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 20 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa do produto ou do processo, cujas especificações superior e inferior estão perfeitamente definidas, foi submetida a medição e os valores obtidos apresentados na figura seguinte. Da análise da figura, em que “” e “I” representam, respetivamente, o valor da mensuranda e a incerteza associada, é possível concluir que: Caso 1 - o valor obtido está acima do limite superior especificado, mesmo tendo em conta a incerteza que lhe está associada. Este é um caso de clara não conformidade com as especificações. Caso 2 - o valor obtido está acima do limite superior especificado, mas de um valor menor que o da incerteza. Com base no valor da incerteza representado, não é possível assumir a não conformidade com as especificações. Caso 3 - o valor obtido está abaixo do limite superior especificado, mas de um valor menor que o da incerteza. Para o valor da incerteza representado, não é possível assumir a conformidade com as especificações. Caso 4 - o valor obtido está dentro dos limites, mesmo tendo em conta o respetivo valor da incerteza. Neste caso, deve ser assumida a conformidade com as especificações. O conhecimento da incerteza é, pelo que se acabou de demonstrar, “obrigatório” seja qual for o tipo e a finalidade da medição. Esta é, efetivamente, uma das caraterísticas relevantes que deve ser conhecida antes da colocação em serviço do DMM. Neste contexto, algumas questões pertinentes que se podem levantar são as seguintes: - Se o conhecimento da incerteza é “obrigatório” e é obtido da calibração do dispositivo, então todos os dispositivos de medição têm de ser sujeitos a calibração? CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 21 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa Numa perspetiva radical, poder-se-ia dizer que todos os dispositivos utilizados na medição dos parâmetros especificados para o processo, parao produto e para as condições ambientais, se for o caso, devem ser submetidos a calibração regular ou periódica. Contudo, atendendo às dificuldades técnicas e económicas que a calibração dos DMM levanta nas organizações, a calibração de alguns dispositivos pode ser dispensada desde que esta opção seja devidamente justificada. Exemplos de critérios que poderão permitir identificar os dispositivos de medição que devem ser submetidos a calibração num laboratório devidamente acreditado para o efeito são os seguintes: “Os dispositivos submetidos a calibração são aqueles que são utilizados na medição das caraterísticas críticas e significativas do processo e do produto”. Este critério tem subjacente o facto de que essas caraterísticas estão perfeitamente identificadas, documentadas, tendo em conta as especificidades do processo e do produto em questão. “Os dispositivos submetidos a calibração são aqueles que são utilizados na regulação de parâmetros de máquinas e equipamentos do processo considerados críticos, no controlo de parâmetros ambientais e de parâmetros relacionados com a energia e com a segurança e saúde no trabalho”. Tal como o anterior, este critério tem subjacente o facto de que esses parâmetros estão perfeitamente identificados e documentados. - Qual é que deve ser a periodicidade (intervalo) de calibração de um DMM? Genericamente, o intervalo de calibração de um dispositivo de medição deve ser definido de modo a impossibilitar a utilização do mesmo após terem ocorrido alterações nas respetivas caraterísticas (metrológicas), por exemplo, na incerteza, que o impeçam de satisfazer o critério de aceitação definido. Na realidade, é muito complicado fixar um intervalo de calibração que garanta com uma probabilidade de 100% que uma determinada caraterística do dispositivo de medição em causa não se alterará antes do fim do intervalo de tempo estabelecido. Optar por diminuir os intervalos de calibração, ainda que gradualmente, de modo a garantir a estabilidade do dispositivo num determinado intervalo de tempo sem que essa decisão esteja devidamente fundamentada não é uma solução. Para além disto, intervalos de calibração demasiado pequenos conduzem a uma frequência de calibração elevada e por consequência a um aumento de CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 22 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa custos que podem ser insustentáveis e a uma maior indisponibilidade do dispositivo para a normal execução das atividades onde é utilizado. Optar pelo alargamento do intervalo de calibração só é justificável se a decisão estiver fundamentada e não deixar dúvidas relativamente ao facto de que, nesse espaço de tempo, a degradação das caraterísticas metrológicas do dispositivo não será suficiente para que estas deixem de satisfazer as especificações previamente definidas. Embora não seja invulgar encontrar-se o que se pode chamar de "saber-fazer" ou de intuição como sendo a base da definição de um intervalo de calibração, os fatores que devem ser tomados em consideração para a (re)definição do intervalo de calibração de um DMM são os seguintes: a) recomendações do fabricante; b) frequência e a severidade das condições de utilização; c) estabilidade do dispositivo; d) tendências obtidas a partir dos relatórios de calibração anteriores; e) histórico dos dados de reparação, ajustes, controlo/verificação e calibração; f) restrições externas de natureza económica, legal, regulamentar ou normativa; g) condições ambientais de utilização (temperatura, humidade, vibrações, poeira, etc.); h) consequências de um valor medido ser aceite como correto devido a uma falha do dispositivo de medição, quando de facto é um valor incorreto. É evidente que pode não ser fácil definir um intervalo de calibração. Embora esta dificuldade possa existir não deverá ser motivo para que se defina um único intervalo de calibração para todos os dispositivos de medição ou tipos de dispositivos de medição existentes. Como ponto de partida é possível assumir como referência os intervalos de calibração apresentados na Recomendação do CNQ 4/99 (já anulada) ou outras recomendações e/ou documentos normativos e legais aplicáveis. De qualquer maneira, os intervalos de calibração têm de ser regularmente revistos, tendo em consideração o que atrás se referiu. Para essa revisão pode-se aplicar, por exemplo, um dos seguintes métodos: CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 23 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa - Método do ajuste automático ou "em escada: o intervalo de calibração deverá ser aumentado se o dispositivo após calibração não satisfaz o critério de aceitação e diminuído se satisfizer esse critério. - Método do Tempo de Calendário: é fixado um intervalo de calibração para cada grupo de DMM, sendo esse intervalo diminuído se uma determinada percentagem de dispositivos não satisfizer o critério de aceitação. - Método do Tempo de Utilização: o intervalo de calibração é expresso em função de um determinado número de horas de utilização, podendo ser aumentado no caso das condições de medição não se alterarem e o dispositivo satisfizer o critério de aceitação em calibrações sucessivas. - Método das Ponderações: o intervalo de calibração (IC), definido como IC = ICA(CCFS)(FNC) onde ICA representa o valor do intervalo de calibração anteriormente estabelecido. Exemplos de valores para as várias variáveis são apresentados na tabela seguinte. Alguns casos particulares Em alguns contextos, e de acordo com critérios devidamente fundamentados, nem todos os dispositivos de medição necessitam de ser calibrados periodicamente. Contudo, isto não dispensa a organização de ter de os submeter às atividades de acompanhamento regular necessárias que permitam constatar a validade das caraterísticas metrológicas do VARIÁVEL FATOR DE PONDERAÇÃO Custo da calibração (CC) - Muito elevado - Razoável 1.2 1.0 Facilidade de substituição (FS) - Muita - Pouca - Nenhuma 1.0 0.7 0.4 Fiabilidade (F) F 90% 90% F 50% F 50% 0.5 0.7 1.0 Consequências das Não-Conformidades (NC) - Sem consequências - Empresa e/ou Partes interessadas 0.5 1.1-1.3 CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 24 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa dispositivo em questão. Essas atividades de acompanhamento incluem a comparação de resultados entre o dispositivo em causa e um outro que permita medir a mesma grandeza, a medição de um material de referência certificado ou de uma medida materializada, bem como uma simples inspeção visual. Assim, e dado que não é possível caracterizar todas as situações que podem existir, considerem-se os seguintes casos (muito) particulares: a) As fitas métricas não necessitam de ser calibradas periodicamente. Porém, o seu estado deve ser regularmente avaliado em termos da facilidade de leitura (visibilidade) das divisões da escala, de eventuais empenos ou dobras e do estado do encosto de referência ou gancho/patilha de zero absoluto. Para além disto, apenas devem ser usadas fitas métricas cujo erro e incerteza seja conhecido e compatível com as especificações definidas para a sua utilização. Isto significa que devem ser adquiridas fitas métricas e outras medidas materializadas de comprimento que estejam enquadradas por Diretivas europeias. b) No caso de um forno que é constituído por dezenas de sensores de temperatura, para além de não ser tecnicamente viável estar a retirar os sensores para os calibrar, nem ser economicamente sustentável, o mais razoável é proceder-se à sua substituição antes de findar o tempo de vida útil definido pelo fabricante ou estabelecido pelo utilizador em função das condições reais de utilização desses sensores. c) Tendo em consideração o contextoem que é utilizado ou até mesmo por recomendação do fabricante, um analisador de gases, antes e depois de cada utilização, pode ser sujeito a uma avaliação das suas condições de funcionamento no sentido de validar os resultados obtidos. Esta validação torna-se necessariamente uma exigência quando as decisões tomadas na sequência dos valores medidos pelo dispositivo possam por em causa, particularmente, a segurança e a saúde de pessoas e bens. Para o efeito, o dispositivo é submetido à medição de um determinado gás padrão, devidamente certificado e recomendado pelo fabricante do dispositivo, e os valores obtidos comparados com os valores máximo e mínimo admissíveis estabelecidos pelo fabricante ou pelos responsáveis do processo em que essa medição irá ser efetuada. No caso em que os valores obtidos satisfazem com uma determinada margem de segurança as CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 25 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa especificações do fabricante é possível assumir que as caraterísticas metrológicas do dispositivo se mantêm válidas e compatíveis com as especificações definidas. Se as especificações do fabricante não forem cumpridas é possível, por exemplo, proceder-se à substituição de um ou vários componentes de modo a repor a validade das caraterísticas metrológicas do dispositivo. Estas atividades podem ser efetuadas pelos utilizadores do dispositivo ou por quem tenha os conhecimentos e a competência para o efeito. Independentemente do tipo de atividades de manutenção, ajuste, reparação a que o dispositivo esteja sujeito, é necessário reconfirmar o cumprimento das especificações do fabricante ou outras estabelecidas em função do contexto em que as medições são efetuadas. De qualquer modo, é conveniente estabelecer em que condições e qual o tipo de atividades que exigem a intervenção do fabricante ou de qualquer representante do mesmo de modo a validar as caraterísticas metrológicas do dispositivo. Existem casos em que a substituição de alguns componentes pode não ser suficiente para que o dispositivo cumpra as especificações. Quando assim é, o dispositivo deve ser enviado para o fabricante ou reparador autorizado para ser sujeito a reparação e consequente determinação e validação das suas caraterísticas metrológicas. A incerteza da medição e as especificações do produto/processo A calibração de um dispositivo por si só não assegura que este é adequado ao fim a que se destina. Antes de se efetuarem medições no produto ou no processo é necessário garantir que o dispositivo utilizado tem caraterísticas metrológicas compatíveis com as especificações associadas a esse produto ou processo. Para o efeito é necessário constatar que o dispositivo satisfaz um determinado critério de aceitação/aprovação. De modo a justificar o critério adotado e a exemplificara a sua aplicação, considerem-se as seguintes situações: a) Uma determinada transformação deve dar-se a uma temperatura entre os 45ºC e os 55ºC. Sendo estes limites de trabalho determinados por razões técnicas, ou tecnológicas, sabe-se que o valor da incerteza associada ao termómetro utilizado na medição da temperatura é de 2ºC. Assim, se por alguma razão, a operação decorrer a 45ºC, ou a 55ºC, o que significa que a temperatura pode na realidade estar a 43ºC, ou a 57ºC, o responsável do processo tem de saber decidir se situações destas são aceitáveis ou não são aceitáveis. No caso das referidas situações serem aceitáveis, então podemos aprovar CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 26 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa o termómetro com a incerteza que lhe está associada. Se não, dado que a substituição por um termómetro com uma incerteza menor nunca irá impedir que os limites de especificação sejam desrespeitados, a decisão que deve ser tomada é a de reduzir (teoricamente) o intervalo em que a operação tem de decorrer. Neste caso, os valores medidos pelo termómetro nunca podem ser inferiores a 47ºC nem superiores a 53ºC. Deste modo, os valores de especificação, os 45ºC e os 55ºC, nunca serão desrespeitados. No caso de se decidir comprar um dispositivo com uma incerteza menor, por exemplo de 1ºC, a diferença relativamente ao exemplo anterior é que os valores medidos pelo termómetro nunca podem ser inferiores 46ºC nem superiores a 54ºC para que os limites especificados não sejam desrespeitados. Porém, esta opção acarretaria mais custos que, aparentemente, não se justificariam. b) Uma determinada empresa solicitou o fabrico de uma peça de aço com as seguintes especificações: Comprimento Nominal – 10 cm ; Tolerância - ±0,1 cm. Quando recebeu a peça, esta vinha acompanhada de um documento onde constava: Comprimento - 10,003 cm ; Incerteza - ±0,02 cm O problema que agora se coloca é o de saber se a peça está, ou não, em condições de ser aprovada / aceite. Para que se possa tomar uma decisão é necessário saber interpretar a informação constante no referido documento, tendo presente alguns conceitos importantes (conforme se apresentam no Vocabulário Internacional de Metrologia- VIM). Neste sentido, para além do conceito de Incerteza da medição, já apresentado, deve-se entender por: Tolerância – parâmetro que permite determinar os limites de variação, inferior e superior, de um valor nominal especificado. Neste exemplo, sendo a tolerância de ±0,1 cm, os limites inferior e superior para o comprimento da peça seriam de 9,9 cm e 10,1 cm, respetivamente. Erro (absoluto) - diferença entre o resultado da medição e o valor nominal de referência, que neste caso seria o valor especificado. Neste exemplo, o erro CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 27 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa (absoluto) seria igual a (10,003 –10) = +0,003 cm. Assim, um Critério de Aprovação/Aceitação para a situação em questão poderia ser (| Erro | + | Incerteza |) < | Tolerância | Neste caso, para os valores do Erro = +0,003 cm, da Incerteza = + 0,02 cm, e da Tolerância = + 0,1 cm, ter-se-ia 0,003 + 0,02 = 0,023 cm < 0,1 cm, pelo que, o Critério de Aprovação/Aceitação é satisfeito e por isso a peça pode ser aprovada/aceite. De qualquer maneira, importa salientar que este critério não é o mais usado/recomendado. Critérios mais frequentemente utilizados consideram 1/3 a 1/10 da tolerância, o que conduziria à rejeição da peça para qualquer valor escolhido. c) Um paquímetro digital, com uma resolução de 0,01 mm, foi submetido a calibração num laboratório acreditado para o efeito, tendo este emitido um certificado de calibração no qual, entre outras informações, estava expresso o seguinte: Bloco padrão (mm) Leitura no paquímetro (mm) Erro (mm) Incerteza expandida (mm) Limite de erro3 (mm) 25,000 25,00 0,003 0,0111 0,02 25,00 25,01 Média = 25,0033 3 De acordo com a norma DIN 862 Perante esta informação, a decisão de Aceitar/Aprovar o dispositivo deve ser tomada tendo em consideração a resposta às seguintes perguntas: - O paquímetro devia ser calibrado com base num padrão com 28 mm? Dado que o paquímetro foi calibrado com base nas leituras dum bloco padrão de 25 mm, o valor do erro e da incerteza da medição indicados no certificado não são (teoricamente) válidos para os diferentes valores da escala de medição do dispositivo. Porém, na prática, pode ser razoável assumir que os valores da escala em torno do valor medido, neste caso os 25 mm, têm associados o mesmo erro e incerteza. Mesmo que este pressuposto seja assumido, é recomendável que a calibração de um dispositivo de medição seja efetuada em vários pontos da sua escala. Quantos mais forem os pontos da escala para os quais se determinam os respetivos erros e incertezas melhor será. Porém, CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 28 Instituto Politécnico de Setúbal - ESTSetubalNuno Costa esta opção conduz a um aumento nos custos e no tempo associados à atividade de calibração. Na prática, os valores da escala em que a calibração deverá ser efetuada serão identificados com base na gama de trabalho do dispositivo, devendo estar distribuídos ao longo dessa gama de modo a que seja possível construir a denominada Curva de Calibração (figura ao lado). Construindo esta curva será possível estimar os erros e as incertezas associadas aos valores (xi) medidos pelo dispositivo nos valores da escala a que essa curva se aplica. Por exemplo, se o dispositivo de medição que tem a curva de calibração apresentada na figura seguinte apresenta-se um valor y1 na leitura do ponto xo significaria que o erro da leitura neste ponto seria de (y1-yo) com uma incerteza Z. Curva de Calibração Os cálculos subjacentes à construção da curva de calibração estão fora do âmbito deste texto. Para mais detalhes consulte, por exemplo, o documento “Preparation of Calibration Curves - A Guide to Best Practice”, LGC 2003. - O critério de Aceitação/Aprovação do dispositivo deve utilizar o Limite de erro? Ao ser utilizado o limite de erro está-se a assumir que o dispositivo de medição deve manter as caraterísticas metrológicas fornecidas pelo fabricante. Isto significa que não se admite qualquer deriva resultante da sua utilização. Em muitos contextos, esta não é a melhor decisão. Uma prática mais adequada poderá ser a de utilizar no critério de aceitação a tolerância das especificações que se pretendem medir com esse dispositivo. - O valor da incerteza expandida necessita de ser corrigido? A Incerteza expandida é a incerteza da medição (incerteza padrão) multiplicada por um fator de abrangência (uma constante). Esta é a incerteza que pode ser utilizada no critério de Aceitação/Aprovação do dispositivo. Contudo, ao utilizar-se este valor está-se a admitir que a incerteza determinada experimentalmente pelo laboratório de calibração se mantém válida nas condições ambientais e com os recursos humanos utilizados nas CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 29 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa atividades de medição em que esse dispositivo é utilizado dentro da organização. Tal facto pode não ser muito realista, pelo que, é importante ter consciência que a incerteza que deve ser associada ao valor de uma determinada caraterística do produto ou do processo não é necessariamente a mesma que foi associada ao dispositivo na sequência da sua calibração. Embora seja possível e recomendável corrigir o valor da incerteza determinada pelo laboratório de calibração, uma forma de minimizar a eventual dificuldade de o fazer será através da definição de um critério de aceitação/rejeição do dispositivo “mais exigente”. Com isto pretende-se minimizar a possibilidade de aceitar um dispositivo que deveria ser rejeitado ou de rejeitar um dispositivo que deveria ser aceite. Para o efeito, a definição do critério de Aceitação/Aprovação de um dispositivo de medição deve ter em consideração o que estava expresso na norma NP EN 30012-1: “É conveniente que o erro atribuído à calibração seja o mais pequeno possível e que não ultrapasse, na maioria das áreas de medição, um terço e de preferência um décimo do erro máximo admissível do equipamento confirmado durante a sua utilização”. Neste sentido, desde que não exista qualquer outro critério imposto ou sugerido, por exemplo, por um documento normativo ou regulamento, um critério de Aceitação/Aprovação para os DMM pode ser expresso da seguinte forma: (| Erro | + | Incerteza |) < | Tolerância | ou (| Erro | + | Incerteza |) < | Tolerância | É importante salientar que, em termos genéricos, não existe um critério de decisão que seja mais correto do que qualquer outro. No entanto, tendo em consideração o que se referiu nos parágrafos anteriores, entre os dois critérios apresentados a opção deverá ser por aquele que considera um décimo da tolerância associada ao produto ou ao processo. Independentemente do critério que se adotar o que se pretende é que esse critério garanta que num determinado contexto o risco de serem tomadas decisões erradas sobre o processo ou o produto decorrentes das leituras obtidas com o DMM é eliminado ou pelo menos bastante minimizado. Em alguns contextos, pode inclusivamente acontecer que 3 1 10 1 CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 30 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa esse critério esteja legalmente definido, tal como acontece por exemplo para os postos de abastecimento de combustível e máquinas de enchimento de garrafas de bebida, iogurtes e outros produtos pré-embalados. Por exemplo, na Portaria 1198/91, Art.º 15, está escrito o seguinte: “A incerteza cometida na medição do conteúdo efetivo de um produto pré-embalado deve ser, no máximo, igual à quinta parte do erro máximo admissível do correspondente pré-embalado”. Critério de aceitação/aprovação: Exemplo No caso do paquímetro digital anteriormente referido, sabendo-se que este era utilizado para medir uma caraterística no produto com uma especificação 28,00 ± 0,04 mm, o paquímetro deve ser Aprovado ou Rejeitado para a medição da caraterística referida? Assumindo que o critério mais adequado poderia ser expresso por (| Erro | + | Incerteza |) < | Tolerância | então o dispositivo deveria ser Reprovado, dado que 0,003 + 0,0111 0,04/5 , ou seja, 0,014 0,008. Este exemplo tem a vantagem de evidenciar que a rejeição de um DMM após ter sido calibrado poderá ocorrer se a sua resolução não for adequada ao valor da grandeza que se pretende medir. É uma prática corrente e recomendável utilizar dispositivos de medição cuja resolução seja pelo menos 10 vezes superior ao valor da grandeza que se pretende medir. Quando assim não for, dado que a resolução do dispositivo condiciona o valor da incerteza que lhe está associada, é provável que o dispositivo seja rejeitado mesmo no caso em que se considerou no critério um quinto da tolerância definida para uma determinada caraterística do produto, tal como se acabou de exemplificar. Receção dos DMMs - Registos A receção dos DMM pode envolver não só o registo de informação necessária à sua caracterização, à definição e planeamento das atividades de acompanhamento a que o dispositivo vai ficar sujeito, nomeadamente, a periodicidade de calibração, de 5 1 CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 31 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa controlo/verificação, das inspeções visuais e de substituição de componentes, mas também estudos de R&R. O resultado destas atividades bem como as avarias, modificações e/ou upgrades nos dispositivos deve também ser registado. Os impressos utilizados para o efeito têm de ser concebidos de forma a serem o mais possível adequados à realidade de cada organização. Antes da colocação em serviço de um DMM é necessário garantir uma adequada identificação, integridade e preservação dos dispositivos. Sendo fundamental dar a conhecer a cada momento, em particular aos utilizadores, o estado de calibração e de controlo/verificação de cada DMM, recomenda-se que para o efeito se usem etiquetas. Estas devem identificar inequivocamente o dispositivo e evidenciar o respetivo estado através das datas em que essas atividades foram realizadas e das próximas datas em que serão efetuadas. Sempre que adequado podem também evidenciar restrições à utilização do dispositivo, por exemplo, “Não usar”; “Calibrar antes de usar”; “Usar apenas na gama dos 50 -70 mm”. Se o dispositivo não tiver dimensões suficientes para lhe serem colocadas as etiquetas é admissível que essas etiquetas sejam aplicadas na caixa do dispositivo ou em outro local previamente estabelecido para o efeito. Isto implica que as etiquetas sejam facilmente identificadas,reconhecidas e interpretáveis e adequadas às condições de degradação a que estarão sujeitas. O código associado a cada dispositivo, e que deve constar nas etiquetas, pode em muitos casos ser o número de série do próprio dispositivo. Porém, principalmente em grandes organizações, pode ser conveniente associar o código do dispositivo ao departamento, secção ou área a que está afeto bem como à sua função no processo. De modo a exemplificar possíveis formas de codificação dos dispositivos, considerem- se os seguintes exemplos: -Quando não exista a necessidade de afetar o dispositivo a nenhuma área, secção ou departamento da organização é admissível adotar a seguinte codificação: > PQ – UNI - 001: Paquímetro Universal 001 > PQ – PRF - 001: Paquímetro Profundidade 001 CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 32 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa Neste caso definiram-se famílias ou grupos de dispositivos, usando-se o seu tipo e um número sequencial para definir o código. -Quando for conveniente associar os dispositivos a departamentos, secções ou áreas sugere-se a seguinte forma de codificação: > PQ – 999 - 001 ou PQ – QUA – 001 em que PQ representa a abreviação do nome do instrumento em questão, neste caso um paquímetro; 999 representa o número do centro de custo associado ao departamento, secção ou área a que o dispositivo está afeto; QUA representa o nome do departamento, secção ou área a que o dispositivo está afeto; 001 representa o número do dispositivo. Outra forma alternativa para a codificação pode ser a seguinte: XX - YY - VV - ZZ em que XX representa o Grupo de dispositivos, YY representa o Tipo de dispositivo, VV representa a Gama de medição do dispositivo e ZZ representa a Número de ordem do dispositivo. Como exemplo, a codificação de um Micrómetro externo com ponta tipo disco para medir entre 75 a 100 mm em engrenagens poderia ser codificado da seguinte forma: 13 15 04 01 Número de ordem Gama de medição: 75 - 100 mm Tipo de dispositivo: ponta de disco Grupo de dispositivos: micrómetros No que respeita à integridade é necessário garantir que os elementos de ajuste do DMM são selados ou salvaguardados de qualquer outra forma de modo a impedir o acesso por pessoal não autorizado. A selagem deve ser concebida para que seja evidente a sua violação ou dano. Esta exigência não se aplica aos mecanismos de regulação que supostamente devem ser usados pelo utilizador sem a necessidade do uso de referências externas, como por exemplo, ajustes do zero. A escolha dos dispositivos, dos comandos ou funções que devem ser alvo de um determinado tipo de proteção (soldadura, CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 33 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa lacragem, pintura, etc.), incluindo software que seja determinante para as caraterísticas metrológicas do dispositivo e para a monitorização e/ou medição das caraterísticas do produto, do processo e das condições ambientais especificadas, esteja ele integrado, acoplado ou usado separadamente, deve ser analisada caso a caso. No que respeita ao software, este só poderá ser utilizado se, para além de ter sido assegurada a sua integridade através de password, tiver sido previamente testado e avaliados os resultados com ele obtidos. No entanto, software comercial, como por exemplo, os processadores de texto, bases de dados e programas de estatística, podem ser considerados validados. O mesmo não acontece com as configurações e modificações feitas nesse software, as quais devem ser documentadas com detalhe e adequadamente validadas. Para garantir a preservação do dispositivo é necessário que sejam respeitadas as especificações mais exigentes sejam elas definidas pelo fabricante ou pela organização em função das condições de funcionamento, nomeadamente, ambientais e de segurança e saúde dos operadores. Neste sentido, é recomendável que o dispositivo seja corretamente instalado e que sejam colocadas à disposição dos utilizadores, sempre que adequado, documentos e instruções atualizadas sobre a instalação, a utilização, a controlo/verificação, a calibração, o manuseamento, a reparação, a substituição de componentes, a limpeza, o armazenamento e o transporte dos dispositivos para além da documentação técnica fornecida pelo fabricante. Por exemplo, no caso de vidrarias volumétricas, procedimentos de limpeza, armazenagem e segregação destes dispositivos podem ser decisivos para impedir contaminações sejam elas originadas pela estrutura do equipamento em si, que pode não ser inerte, ou pela contaminação cruzada originada pelo uso anterior. Naturalmente que, subjacente a tudo o que se acabou de referir está a necessidade de garantir a adequada competência técnica dos recursos humanos envolvidos nas atividades de gestão dos DMM. A necessária qualificação e formação técnica dos que utilizam e asseguram as adequadas atividades de acompanhamento dos dispositivos, mas também dos que avaliam, emitem opiniões e assinam relatórios/certificados de controlo/verificação e/ou calibração não deve ter por base apenas as exigências associadas à gestão dos DMM. Ela deve resultar da política de formação e da estratégia da empresa. A identificação das necessidades de formação e a definição dos objetivos, CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 34 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa no que se refere às habilitações, formação e perícia dos recursos humanos, deve ser objeto de uma análise cuidadosa e ter em conta a realidade atual e futura da organização, em particular, no que respeita às atividades associadas à gestão dos DMM. Nota: Numa próxima edição deste documento será abordada a temática: Acompanhamento do Desempenho dos Dispositivos de Monitorização e Medição CONTROLO DA QUALIDADE – SISTEMAS DE MEDIÇÃO® 35 Instituto Politécnico de Setúbal - ESTSetubal Nuno Costa 1.2 AVALIAÇÃO DE SISTEMAS DE MEDIÇÃO A avaliação de sistemas de medição é usualmente feita com os seguintes objetivos: - Avaliar (novos) sistemas de medição ou métodos de medição; - Comparar dispositivos de medição do mesmo tipo; - Avaliar os dispositivos de medição depois de reparações ou ajustes; - Assegurar a confiança nas medições para o controlo dos processos/produtos. Para o efeito são utilizadas técnicas estatísticas que analisam/quantificam a variação nos dados obtidos em termos da sua localização (Tendência e Linearidade) e dispersão (repetibilidade e reprodutibilidade), bem como a resolução do sistema de medição (aptidão do sistema para medir variáveis da ordem de grandeza requerida (estabelecida pelo fabricante ou exigida pelo mercado/cliente). Neste documento são apresentadas técnicas para avaliar a Repetibilidade, Reprodutibilidade e a Resolução (Discriminação) dos sistemas de medição. Além disto, são apresentadas e ilustradas técnicas que permitem avaliar a concordância das decisões dos avaliadores entre si e com um padrão. No que respeita à análise da Tendência e Linearidade de um sistema de medição, além de todas as temáticas relativas à avaliação dos sistemas de medição, remete-se o leitor para as duas primeiras referências listadas na bibliografia deste documento. 1.2.1 Estudos de Repetibilidade e Reprodutibilidade - Estudos R&R A repetibilidade (variação resultante da incapacidade do dispositivo de obter repetidamente um mesmo resultado e da incapacidade do operador de operar e ler o valor de uma grandeza exatamente da mesma forma várias vezes seguidas) e a reprodutibilidade (variação resultante da incapacidade do sistema de medição, envolvendo vários operadores e/ou dispositivos, de operar e obter um mesmo valor médio da grandeza medida repetidamente quando se verifica uma alteração em alguma das condições de medição, as quais incluem o princípio de
Compartilhar