Para controlar um sistema, é preciso medi-lo. Mas nenhum instrumento de medição, mesmo os mais sofisticados, consegue apresentar um resultado exato, ou seja, por definição não existe instrumento de medição que apresente um resultado igual ao valor real do que se está medindo. Os instrumentos sempre trabalham dentro de uma faixa de incerteza estimada conhecida e, quanto menor a incerteza, maior a qualidade das medições efetuadas pelo instrumento ou padrão, e vice-versa. Existem instrumentos de medição e padrões metrológicos adequados para cada finalidade, mas todos precisam ser calibrados.
Mas, o que é calibração? Celso Saraiva, professor da Unicamp/CTC/Deel e pesquisador do CPqD, frisa que é importante esclarecer o atual significado formal da palavra calibração, que durante muitos anos foi confundida com ajuste: de acordo com o novo Vocabulário de Metrologia (aprovado pela portaria 319 do Inmetro) calibração é a operação que estabelece, numa primeira etapa e sob condições especificadas, uma relação entre os valores e as incertezas de medição fornecidos por padrões e as indicações correspondentes com as incertezas associadas; numa segunda etapa, utiliza esta informação para estabelecer uma relação visando à obtenção de um resultado de medição a partir de uma indicação.
“Fisicamente falando, inexiste equipamento ou sistema de medição que não varie seus parâmetros ao longo do tempo: estatisticamente, qualquer instrumento de medição tem uma deriva instrumental (item 4.21 do VIM), cujos erros (função aproximadamente linear com o tempo) e incertezas (função gaussiana) variam sistematicamente e necessitam validação metrológica periódica. A rastreabilidade das medições (requisito internacional para validação de uma medição) também requer que o equipamento seja periodicamente calibrado”.
De uma maneira geral, a calibração é um processo de comparação entre o instrumento a ser calibrado e padrões de qualidade metrológica adequada. Então, qualquer desvio entre o resultado do instrumento é conhecido e levado em consideração quando o instrumento é utilizado. Com o passar do tempo e a utilização, os instrumentos perdem qualidade metrológica: a incerteza passa a ser maior.
A calibração permite conhecer as discrepâncias do instrumento e assim ajustá-las. Ainda, por mais sofisticado que seja o sistema de controle, ele precisa estar referenciado aos padrões das grandezas físicas com os quais trabalha, caso contrário a rastreabilidade e a confiabilidade metrológica ficam comprometidas. Se olharmos um transmissor 4-20 mA, ele tem um sensor, um conversor A/D, um processador, e um conversor D/A.
A principal calibração que ocorria era o Trim de corrente, ou seja, calibrar o 4-20 mA em relação ao que o sensor media – o que não é necessário nos instrumentos de tecnologia Fieldbus Foundation e ProfibusA, pois o D/A não existe. Já a calibração do sensor continua necessária. Em função dos avanços dessas tecnologias, alguns instrumentos prometem garantia de calibração de 12, 15, 20 anos! Mas isto depende das condições de uso, então eventualmente depende do processo no qual o transmissor é colocado.
Uma recomendação importante é ter sempre em mente o período ótimo entre calibrações necessário para cada instrumento. E aí entram os softwares especialistas porque eles documentam e testam a performance dos instrumentos, tornando as rotinas de calibração em geral mais rápidas e acuradas. Essas ferramentas podem ser encontradas nos sites dos fornecedores e os instrumentos inteligentes já trazem embutidos softwares de auto-diagnóstico que avisam quando é necessário re-calibrar.
Os handhelds usados para calibrações no campo, que lidam muito bem com a tecnologia Hart, devem incorporar em breve outros protocolos. Por enquanto, podem-se utilizar funcionalidades das tecnologias EDDL e FDT/DTM para realizar as calibrações dos instrumentos digitais inteligentes. Mas ainda acontece do usuário apenas trocar por instrumento novo o que falhou enquanto este último vai para a revisão no fornecedor. Podemos dizer, então, que estamos num período de transição entre a calibração periódica e a calibração preditiva, já que os instrumentos estão cada vez mais inteligentes e os processos, cada vez mais estáveis.
Mesmo em plantas inteligentes, contudo, a calibração continuará necessária nos períodos de comissionamento e nas paradas programadas. Apenas as tecnologias levarão de volta à planta a calibração – referenciada, sim, mas feita por instrumentos, softwares, handhelds e técnicos da própria planta. Como nos velhos tempos. Vinícius Nunes, presidente da Presys, lembra que a calibração de instrumentos Fieldbus Foundation é, em essência, igual à de qualquer outro instrumento de medição ou assemelhado.
A diferença entre calibrar um 4-20 mA, Hart, Fieldbus Foundation ou Profibus é apenas quanto a leitura do sinal de saída, que no caso de um 4-20mA é facilmente lido por diversos tipos de instrumentos medidores, de uso já amplamente difundido na área de instrumentação - o sinal de saída de um manômetro de ponteiro, por exemplo, é obtido vendo-se a posição do ponteiro em sua escala, não necessitando de nenhum tipo de instrumento calibrador para obter o sinal de saída, apenas para gerar o sinal de entrada; nos outros casos a leitura do sinal de saída é mais exigente.
“Coloca-se um sinal conhecido e confiável na entrada do instrumento, lê-se a saída deste mesmo instrumento e se faz comparações para determinar o nível de desempenho metrológico do aparelho Fieldbus Foundation. Do ponto de vista mais prático, o que ocorre é que o instrumento FF é trabalhoso para se visualizar o sinal de saída: precisa ser colocado num simulador ou arranjo que permita a leitura do valor de sua saída para cada valor aplicado à sua entrada.
Assim muitas vezes o processo de calibração é feito visualizando o sinal de saída na própria malha em que ele aparece na tela do computador em que o software supervisório está rodando”. E as calibrações podem ser feitas em um laboratório, oficina de calibração ou no campo. No laboratório o desempenho da calibração é melhor já que se pode condicionar a temperatura, existem padrões mais elaborados, o ambiente é favorável para o trabalho, etc., mas há a necessidade de deslocar o instrumento.
Para os instrumentos FF é muito comum gerar o sinal de entrada no campo e visualizar o sinal de saída na sala de controle, na tela do computador: o técnico no campo se comunica com o outro técnico na sala de controle através de rádio. César Cassiolato, da Smar, afirma que a calibração em um equipamento Profibus é simples e exemplifica: “em um transmissor de pressão LD303, Profibus-PA, existem dois parâmetros chamados CAL_POINT_LO e CAL_POINT_HI, que são respectivamente os pontos inferior e superior a serem calibrados.
O usuário aplica a pressão referente ao valor inferior e escreve o valor aplicado no parâmetro CAL_POINT_LO. Depois, se necessário, ele aplica a pressão referente ao valor superior e escreve o valor aplicado no parâmetro CAL_POINT_HI. Existe um terceiro parâmetro que é o CAL_UNIT, onde o usuário seleciona a unidade. A partir daí o equipamento indicará a pressão de acordo com a calibração feita. Essa interface com o usuário pode ser feita via EDDL ou DTM de comunicação.
Os nossos equipamentos possuem ajuste local que também permite esta operação. E, em outra situação como no caso de um posicionador inteligente, que possui um método de auto setup, a partir do ajuste local pode acontecer a calibração de posição em 0% e 100%”. Todas as normas de qualidade preconizam a calibração periódica de instrumentos e equipamentos.
A ABNT NBR ISO 9001:2000 estabelece que quando for necessário assegurar resultados válidos, o dispositivo de medição deve ser calibrado ou verificado a intervalos especificados ou, antes do uso, contra padrões de medição rastreáveis a padrões de medição internacionais ou nacionais; quando este padrão não existir, a base usada para calibração ou verificação deve ser registrada. Existem métodos manuais de calcular isso tudo se não houver possibilidade de utilizar um software.
Existem métodos estatísticos para orientar o estabelecimento da periodicidade das calibrações e softwares como o Isoplan da Presys disponibilizam este tipo de recurso. Na prática nem sempre é possível seguir esses métodos porque demandariam muitas paradas em equipamentos do processo produtivo. Neste caso, o técnico pode acomodar as calibrações com as paradas já previstas ou de rotina, levando em conta principalmente as recomendações dos fabricantes e os históricos para determinar o intervalo de tempo em que o instrumento deve ser re-calibrado.
Vinícius Nunes ressalta que o ideal é encontrar a melhor rotina, que se estabelece pelo conhecimento da própria planta e o levantamento do que precisa ser calibrado. O esforço do processo de medição deve ser compatível com a importância das medições para a qualidade do produto final. Então, não precisam aumentar a lista de calibrações obrigatórias os instrumentos que fazem medições ou fornecem saídas conhecidas, que são monitoradas durante o uso por dispositivo ou escala devidamente calibrada; instrumentos cujas medições são requeridas mais para suprir uma mera indicação de condição operacional do que um valor numérico; instrumentos que serão descartados após um curto ciclo de vida, dentro do qual a confiabilidade de suas medições permanecerá em um nível aceitável; e os padrões fundamentais.
“É preciso identificar quais os instrumentos devem ser calibrados na planta e estabelecer os valores e parâmetros para cada calibração. Também é preciso estabelecer os critérios de aceitação do instrumento após a calibração e ter tudo documentado”.
Com isso em mente, os principais fatores a serem considerados para se estabelecer quais instrumentos requerem calibração incluem a incerteza de medição requerida ou declarada pelo laboratório; o risco do instrumento de medição exceder os limites do erro máximo permissível quando em uso; o custo da correção da medição necessária quando é descoberto que o instrumento não estava apropriado ao uso sobre um longo período de tempo; o tipo de instrumento; a tendência no uso e deriva; as recomendações do fabricante; a severidade do uso; condições ambientais (climáticas, radiações ionizantes, ambiente eletromagnético, limpeza e contaminação, iluminação, etc.); dados de calibrações anteriores; registros históricos de manutenção e de serviço; frequência de verificações cruzadas contra outros padrões de referência ou dispositivos de medição; frequência e qualidade das verificações intermediárias ao longo do tempo; arranjos no transporte e riscos associados; e grau de conhecimento do pessoal.
Por tradição, equipamentos e instrumentos devem ser calibrados a intervalos periódicos para garantir níveis aceitáveis de exatidão e confiabilidade – probabilidade de permanecer dentro da tolerância pelo intervalo especificado. E existe uma norma para isso: a MIL STD 45662A/1988 trata a análise de intervalos pela teoria da confiabilidade. Mas existe também o ajuste desse intervalo que pode ser estendido quando o instrumento é encontrado dentro de 80% do erro máximo requerido – ou reduzido se estiver fora do permissível.
Podemse também ajustar os intervalos entre calibrações com a análise das cartas de controle – o que requer muito conhecimento. O pesquisador Celso Saraiva ressalta que, sob o ponto de vista puramente técnico, a periodicidade ótima de calibração pode ser determinada estatisticamente e evolui seguindo aproximadamente a distribuição de Weibull, dependendo de cada tipo de instrumento. Sob o ponto de vista legal, a periodicidade deve ser estabelecida para que a probabilidade de erros para quaisquer instrumentos da classe estejam dentro de certos limites atribuíveis àquela classe e devem, evidentemente, ser mais conservadores para assegurar, dentro daquele intervalo de tempo, a justiça e isenção das medições e das relações de consumo a ela associadas.
|