Revista Controle & Instrumentação – Edição nº 238 – 2018



¤ Cover Page
 
 
 
 
Oque separa uma planta que opera razoavelmente bem de outra que atinge um alto nível de excelência? Muito provavelmente, é a capacidade de usar os dados de diagnósticos de forma eficaz, dando transparência à planta – possibilitando a visualização de como cada parte está funcionando, em tempo real. Para que cada parte funcione da maneira ideal, as malhas de controle que as suportam devem trabalhar como projetado, o que depende dos instrumentos operarem de maneira confiável para fornecer dados precisos.

Instrumentos inteligentes são capazes de monitorar seu próprio desempenho, e podem dizer muito sobre o que está acontecendo com um processo. Mas, quem os está monitorando? A tomada de decisões de forma mais rápida e inteligente depende do acesso a dados precisos. Existem duas verdades sobre os dados: todo mundo quer ter acesso a eles para saber o que está acontecendo na planta em tempo real e os dados carregam imprecisão.
 
André Pereira, Gerente de Marketing para América do Sul e Central da HBM, ressalta a importância da precisão dos dados: “Não importa qual a grandeza que se deseja adquirir, isso deve ser feito levando em consideração a qualidade da medição, incluindo o sensor, a eletrônica de condicionamento e a digitalização. Algo que vale comentar é o fato de que uma vez que os dados são adquiridos com baixa qualidade, nenhuma decisão tomada com base em tais informações pode ser realmente precisa. Por exemplo, na medição de uma grandeza mecânica como força, com alta e baixa precisão. É necessário estimar a precisão da medição do transdutor para avaliar o processo. Para implementar uma avaliação boa/ruim, os componentes só podem ser avaliados como OK quando estiverem dentro da faixa de ponto de ajuste, menos a tolerância de medição (na figura X, simbolizada nos diagramas pelas linhas tracejadas azuis). Pode ser facilmente reconhecido que o número de partes toleráveis aumenta quando a precisão da medição também aumenta. Expresso de uma maneira diferente, o número de peças a serem rejeitadas também depende da precisão da medição da cadeia de medição de força. Os transdutores de força modernos, como o S9M ou o U10M da HBM, alcançam altas precisões, bem acima do padrão de classe, sobretudo no que diz respeito aos fatores de influência dependentes do valor final na incerteza de medição. Além disso, existe a possibilidade de usar uma cadeia de medição através da operação em uma área de carga parcial e, assim, aumentar significativamente a tolerância contra sobrecargas. Isso permite que uma confiabilidade aprimorada seja alcançada. Acima de tudo, é a influência mínima da temperatura no ponto zero que torna possível usar o mesmo sensor para várias faixas de medição ou aumentar a porcentagem de peças boas, devido à alta precisão”.
 
Os engenheiros de controle estão usando inúmeras ferramentas para garantir que seus dados sejam precisos. Com os avanços na instrumentação, o aumento na capacidade de armazenamento e a melhoria no desempenho dos meios computacionais, às vezes, milhares de variáveis são simultaneamente medidas e registradas e, então, esses dados podem ser disponibilizados e acessados. Isso deu poderosas ferramentas para o monitoramento contínuo em tempo real do comportamento do processo para desenvolvimento de modelos mais robustos e para fins de otimização e controle. Mas, como os dados são obtidos através de instrumentos físicos e rotinas de medição, que apresentam precisão finita, naturalmente possuem erros, são inerentemente inconsistentes, seja por erro do instrumento ou por flutuação do processo. No entanto, as empresas usam dados de fábrica para suporte, manutenção, planejamento e otimização de operações. Eles também enviam esses dados para o sistema de planejamento de recursos empresariais (ERP). Então, a precisão é crítica; dados defeituosos podem resultar em problemas de anomalias, incluindo decisões operacionais inseguras ou insatisfatórias.

As medições dos processos estão sujeitas à incidência de erros durante as etapas de medição, processamento e transmissão do sinal erro total em uma medição, que é a diferença entre o valor medido e o valor real da variável e podem ser representadas pela soma da contribuição de dois tipos de erro – aleatórios e sistemáticos.

O erro aleatório não possui características de poder ser predito com acurácia: um mesmo experimento, sob as mesmas circunstâncias pode ter resultados diferentes, dependendo do erro aleatório; ele é melhor caracterizado com o uso de distribuição de probabilidade. E esses erros podem ser causados por diversas fontes e, ainda que não possam ser totalmente eliminados numa medição, correspondem a um componente de alta frequência e baixa magnitude, exceto pelos picos esporádicos de ocorrência.
 
 
 
Já os erros sistemáticos são causados por eventos não aleatórios, como mau funcionamento do instrumento, falta de calibração, falha na comunicação, sensores desgastados, etc. Mas a não aleatoriedade desse erro implica que, se a medição for repetida sob as mesmas circunstâncias, sua contribuição sistemática será a mesma.

Os erros sistemáticos podem ser evitados ou minimizados com manutenção e calibração adequadas – alguns causadores desses erros aumentam a magnitude do erro durante um longo período. Mas, é possível reduzir os efeitos dos erros aleatórios e eliminar os sistemáticos com a reconciliação de dados, técnica que promove o ajuste das medições de um processo, de modo a alcançar um conjunto de dados consistentes com o balanço material e de energia. Dos dados reconciliados, espera-se maior acurácia. Mas, para que as técnicas utilizadas sejam efetivas, não deve haver erros sistemáticos – e existem técnicas para detectá-los. As técnicas exploram a redundância de medições para alcançar a redução dos erros. Técnicas de processamento de sinais e reconciliação de dados podem ser aplicadas em conjunto, recebendo o nome de condicionamento de dados.

Para sistemas que tenham variáveis medidas e não medidas, a melhor forma de abordar o assunto é com a decomposição da reconciliação: reconciliação de variáveis medidas com redundância e variáveis não medidas.

A reconciliação de dados permite obter uma maior eficiência no desempenho das malhas, já que seu objetivo é efetuar estimações mais precisas de determinadas medições, relacionadas ao modelo do processo – dado por um conjunto de equações algébrico-diferenciais, que podem representar as leis de conservação de massa, conservação de energia ou qualquer outra função que relaciona as variáveis medidas com as variáveis do modelo.

Utilizam-se as leis de conservação, porque elas são essenciais para a análise dos sistemas e as chances de falharem são muito pequenas, mesmo que ocorram erros em parâmetros do sistema analisado. Uma lei genérica para a quantidade total de massa pode ser descrita como segue. Ela consiste basicamente em uma descrição de fluxos de massa de entrada e saída de um processo, cujo princípio se baseia na lei de conservação de massa, sendo expresso por: Entrada – Saída + Geração – Consumo = Acúmulo.
 
Os balanços de massa podem ser classificados nos processos químicos com base na entrada e saída de matéria do volume de controle (processos em batelada, contínuos e semicontínuos) e na dependência das variáveis de processo em relação ao tempo (processos em regime permanente e em regime transiente) bem como apresentadas as equações de balanço de massa para esses processos, com base na equação geral de balanço. “Na reconciliação de dados e balanço de massas e energia, podemos ter diversas variáveis, tais como a quantidade de matéria (armazenada, escoando, reagindo), vazão, densidade/concentração, nível/volume, temperatura, pressão, etc. Através do balanço de massa, podemos verificar dados de processo, aferir rendimentos, verificar perdas de materiais, projetar a capacidade de equipamentos, etc. Mas, por que, então, o balanço de massas, às vezes, não bate? Porque os dados colhidos são muitas vezes inconsistentes e apresentam erros”, lembra César Cassiolato, presidente e CEO da Vivace.
 
A reconciliação de dados possibilita aumento de confiabilidade dos mesmos, já que faz a consistência dos dados em uma frequência que permite a identificação e correção dos erros; reduz perdas nos processos com consequente redução de custos; melhora a performance nas medições, já que permite facilmente a identificação dos instrumentos que estão incertos, descalibrados e causando erros; reduz custos de manutenção, já que permite uma melhor avaliação na manutenção de equipamentos com problemas nas medições com consequente aumento da disponibilidade.
 
 
Então, o grande desafio da reconciliação de dados é permitir a reconciliação em tempo real e que possa agregar valor ao processo, tornando a operação mais eficiente, menos custosa e que os erros grosseiros possam ser identificados quase que instantaneamente. Normalmente, reconciliar dados é uma operação de alta complexidade e processamento, tais como soluções de sistemas não lineares, derivadas, técnicas de ordenamento de matrizes, etc. A identificação correta de cada fonte de informação e a garantia de sua consistência trarão qualidade ao processo de reconciliação e é fundamental.
 
Em uma planta industrial, existem diversas etapas de preparação do produto final, como reatores biológicos, tanques de estocagem, secadores, entre outros equipamentos, que buscam alterar a forma, peso, textura e propriedades do produto em processamento. Secundários ao fluxo de massa do produto, estão as chamadas utilidades, cujo objetivo é especificamente auxiliar nesse processo, que são o ar seco utilizado em secagem, a adição de outros componentes ao processo (água, ácidos, sais, etc.) para modificar a estrutura química de componentes, entre outros. Fernanda Cunha, engenheira de aplicações da Vaisala, em Boston, lembra que, em certos processos, existe até mesmo o aumento de massa, como em bioreatores.
“Os sistemas de reconciliação de dados são aplicados especificamente a indústrias de processo e se propõem a dar maior confiabilidade às informações de produção, contribuir com a redução de perdas e melhorar os sistemas de medições. A reconciliação de dados é a técnica utilizada para dar consistência às informações de fluxos de matérias-primas e produtos do processo produtivo nas indústrias de processo.
 
Sistemas informatizados e metodologias de implantação facilitam a aplicação da reconciliação de dados e dão potencialidade ao seu uso, ampliando os benefícios às indústrias. É, de fato, muito comum que os dados de uma planta não satisfaçam às restrições dos balanços de massa e energia, devido a inconsistências das medidas realizadas. A reconciliação de dados é, então, o método ou algoritmo responsável pelo ajuste das medições de processo que contêm erros aleatórios, de maneira que as medições satisfaçam às restrições de balanços de massa e energia, por meio de uma otimização de um sistema, linear ou não linear, dependendo das características do processo. Por esse processo, se deve atribuir maior erro ao instrumento de maior incerteza”, diz Cassiolato.

“Durante o processamento, temos de levar em conta as perdas, que são chamadas de erros grosseiros e erros randômicos: estes são os vazamentos, perdas de produtos que passam despercebidas, e erros devido a medições incorretas e mal funcionamento de equipamentos.

A reconciliação de dados, no contexto de processos industriais, pode ser definida como a utilização de um algoritmo complexo e outras ferramentas que buscam satisfazer o balanço de massa e energia de um regime permanente, levando em conta os erros grosseiros, com o objetivo de obter dados confiáveis de controle e indicadores de performance,” lembra Fernanda.
 
 
Balanços de massa com reconciliação e certificação de dados é um tema que Agremis G. Barbosa e Marco Coghi – presidente da ISA Campinas – mantêm no seu radar há algum tempo (veja artigo nesta edição!).

“Perguntamo-nos, a cada momento, se podemos confiar totalmente em nossos instrumentos, se os balanços fecham... As respostas não são triviais e nos levam a outras perguntas. Será que, se fizermos os balanços de massa possíveis em torno dos equipamentos, unidades e no processo inteiro, eles sempre fecharão? Ou colocamos os desbalanços na conta das variáveis que não medimos diretamente?”
 
Marcos Straioto, gerente de desenvolvimento de produtos da Emerson/ Micro Motion América Latina ressalta que, “sem um balanço de massa, não é possível analisar a performance das operações unitárias e o rendimento dos equipamentos que transformam matérias-primas em produtos intermediários ou até mesmo produtos finais. Nível e vazão (principalmente em massa) são normalmente as mais importantes; temperatura, pressão e densidade serão utilizadas para as devidas correções, no caso da utilização do nível ou vazão volumétrica. Mas, é importante que a consolidação dos dados seja realizada corretamente, principalmente com relação às correções de volume para massa. Muitas vezes, a leitura de densidade é realizada por amostragem, e levada ao laboratório causando erros na manipulação da amostra, ou até mesmo no local de retirada da mesma”.
 
Cassius Barros, Supervisor de Engenharia de Aplicações da Yokogawa, conta que, no dia-adia, a reconciliação de dados é trabalhada como a capacidade de combinar variáveis de controle como segurança, monitoração, etc., de modo a permitir a criação de modelos analíticos com propostas diversas. “Qualquer variável medida pode ser uma fonte de dados para análise, modelagem e/ou criação de histórico. É preciso apenas garantir que a variável seja confiável para, por exemplo, combinar variáveis de processo e alimentar um modelo que entrega performance de equipamento mecânico, ou, então, combinar variáveis de monitoração para acompanhar o desempenho de uma bomba/trocador de calor”.
 
“Instrumentação industrial pode ser considerada uma ciência que estuda e desenvolve técnicas e aplicações para adequar os instrumentos de medição, transmissão, indicação, controle e registro das variáveis físicas dos equipamentos em processos industriais. A organização americana de instrumentação (ISA – Instrument Society of America) define um instrumento industrial como sendo todo dispositivo usado direta ou indiretamente para medir/controlar uma variável. Na WIKA, nós temos pesquisas que atestam que as grandezas Pressão e Temperatura lideram como as variáveis físicas mais presentes nos processos industriais em geral, ambas estão presentes em mais de 90% das plantas, seguidas por Vazão e Nível, com pouco mais de 80% de presença. E, foi com base nesses estudos, que expandimos nossos negócios nos últimos anos, e, hoje, além dessas quatro grandezas, adicionamos uma quinta, Força, para entregar um pacote completo de atendimento”, comenta Hugo Silva, Gerente de Contas Especiais da WIKA do Brasil.
 
Existem várias soluções para a imprecisão dos dados, muitos sensores se tornaram inteligentes o suficiente para se policiarem; na maioria dos protocolos, há um ponto em que a qualidade dos dados é conhecida; os sistemas de controle e o MES também podem detectar dados imprecisos por meio de modelos e aplicativos de reconciliação de dados; alguns aplicativos também podem identificar sensores com erro, que precisem ser substituídos ou calibrados.
 
 
Filtrar dados por imprecisões não é algo novo, porém, como mais dados estão sendo compartilhados com mais interessados, esse compartilhamento diminui as distâncias, dentro e fora das plantas, e tem se tornado acessível para indústrias menores. A validação periódica de dados, que pode ser realizada por um terceiro independente (como um laboratório externo) ou por um OEM como parte de um contrato de serviço, é essencial para garantir a integridade dos dados. O esforço para validar dados e identificar rapidamente os desvios dos valores esperados deve ser apoiado pela comunicação e colaboração entre departamentos tradicionalmente isolados: um dos benefícios das tecnologias de automação conectadas é que elas estreitam os laços entre as equipes de TI e TO, e entre o corporativo e o chão-de-fábrica.

Para se certificar de que os dados adquiridos e analisados estão corretos é preciso utilizar sensores que sejam provenientes de fabricantes com alta reputação no mercado de medições, e que ofereçam garantia de seus produtos, além de suporte técnico. E os transmissores de medição devem apresentar um certificado de calibração feita em um laboratório credenciado a organizações que reforçam padrões internacionais de competência técnica.

“Mais do que instrumentos de alta precisão, os processos e sistemas de análise precisam que os sensores de campo estejam em condições normais de operação e dentro dos limites de precisão, conforme projeto. Diferente de sistemas de controle, onde é possível o uso de servidores dedicados para gestão de ativos, monitoração de desempenho, os valores disponibilizados em nuvem, usados para criação de Big Data, devem ser confiáveis. Para isso, os sensores de campo devem ter, internamente, a capacidade de resolver questões de diagnóstico durante operação e comparação dinâmica da precisão/degradação dos transdutores, em relação à condição de projeto. Se tudo estiver em condições normais, um sinal simples indicará para as camadas superiores de análise que os dados provenientes do sensor são confiáveis e de boa qualidade,” comenta Cassius.
 
Para Marcelo Penha, gerente nacional de vendas de válvulas da Metso Brasil, os profissionais não podem somente ser guiados por um gráfico e/ou ações do passado. “Faz-se necessário embasamento técnico e, também, que os fabricantes dos equipamentos, os quais suportam as operações, estejam presentes no dia-a-dia, distribuindo conhecimento, auxiliando nas interpretações, trazendo novas tecnologias, metodologias e, por vezes, contribuir na tomada de decisão, pois, qualquer manobra inadequada poderá comprometer a performance da planta, operabilidade dos instrumentos, bem como a qualidade do produto final”.
 
“Quanto maior o erro de medição, maior a incerteza nos dados de processo. Essa incerteza afeta não somente a qualidade do produto, mas, em muitos casos, a segurança do produto final, principalmente em aplicações críticas como na indústria de alimentos e farmacêutica. Perdas de produto devido a erros grosseiros, como a falta de calibração de instrumentos, podem ocasionar grandes perdas econômicas. Os instrumentos precisam ser robustos e resistirem às demandas de processo, e serem práticos do ponto de vista de manutenção e calibração. É importante ter parceiros que ofereçam diversas ferramentas para calibração em campo e troca de peças sobressalentes, sem a necessidade de executar uma manutenção intensiva e demorada. Sem dúvida, a manutenção preventiva ainda é a melhor solução para evitar problemas e garantir que a precisão do sensor seja confiável”, conta Fernanda.
 
 
“Qualquer variável de processo, que possa ser transduzida em grandeza ou valor numérico, pode ser empregada nos modelos de controle e ou geração de KPIs. O desafio na área de instrumentos e sensores está na tecnologia, que garante o desempenho destes dentro dos valores de projeto, garantindo assim a confiabilidade na variável. Tecnologias com “Total Insight” levam à inteligência para dentro dos sensores. Mais do que medir a variável de processo, os sensores têm a capacidade dinâmica de garantir que seu funcionamento está dentro dos limites de projeto. Como uma assinatura dos transdutores, o instrumento consegue analisar a degradação e entregar a previsão de falha ou a expectativa de operação. Essa tecnologia garante, por meio de um simples “flag”, que o instrumento está em condições normais de operação”, afirma Cassius.

Straiolo ressalta que dados “defeituosos” podem resultar em decisões operacionais inseguras ou insatisfatórias, e até mesmo acidentes, então, “um ponto muito importante é o aspecto humano, ou seja, quem configura o sistema precisa entender o que está fazendo com relação ao processo, não simplesmente reunir dados e montar malhas de controle. Mas, um sistema que permita disponibilizar os dados dentro do que se propõe a Industria 4.0 também é essencial, uma vez que a quantidade de dados pode confundir os usuários, a entrega dos dados necessários para cada disciplina permite a análise dos dados corretos – sempre levando em consideração a segurança e confiabilidade dos dados, no caminho entre instrumentos de planta e rede corporativa”.

“Fica clara a importância que boas informações têm na estratégia de negócios das empresas. Falando na gestão de negócios, lembramos do PIMS e ERPs: os dados de uma planta são normalmente armazenados nos sistemas de gerenciamento de informações de plantas (PIMS) e, aí, são lidos pelos sistemas de reconciliação de dados, produzindo os dados reconciliados, e que são armazenados no próprio PIMS, que fica sendo, assim, a base única de informações da Planta. A integração do chão-de-fábrica com o ERP é feita então, com base nesses dados reconciliados”, lembra Cassiolato.

Então, quando a instrumentação existente não fornecer os dados necessários, deve ser hora de atualizá-la!
 
 
 
 
LEIA MAIS NA EDIÇÃO IMPRESSA

DESEJANDO MAIS INFORMAÇÕES: redacao@editoravalete.com.br
Clique na capa da revista para
ler a edição na íntegra


© Copyrigth 2001 – Valete Editora Técnica Comercial Ltda – São Paulo, SP