Revista Controle & Instrumentação Edição nº 238 2018
|
|
¤
Cover Page
|
|
|
|
|
|
|
|
Oque separa uma planta que opera razoavelmente
bem de outra que atinge um alto nível
de excelência? Muito provavelmente, é a capacidade
de usar os dados de diagnósticos de forma eficaz,
dando transparência à planta – possibilitando a visualização
de como cada parte está funcionando, em tempo
real. Para que cada parte funcione da maneira ideal,
as malhas de controle que as suportam devem trabalhar
como projetado, o que depende dos instrumentos operarem
de maneira confiável para fornecer dados precisos.
Instrumentos inteligentes são capazes de monitorar seu
próprio desempenho, e podem dizer muito sobre o
que está acontecendo com um processo. Mas,
quem os está monitorando? A tomada de
decisões de forma mais rápida e inteligente
depende do acesso a dados precisos. Existem
duas verdades sobre os dados: todo
mundo quer ter acesso a eles para saber o
que está acontecendo na planta em tempo
real e os dados carregam imprecisão. |
|
|
André Pereira, Gerente de Marketing
para América do Sul e Central da HBM, ressalta
a importância da precisão dos dados: “Não importa
qual a grandeza que se deseja adquirir, isso deve ser
feito levando em consideração a qualidade da medição,
incluindo o sensor, a eletrônica de condicionamento e a
digitalização. Algo que vale comentar é o fato de que uma
vez que os dados são adquiridos com baixa qualidade,
nenhuma decisão tomada com base em tais informações
pode ser realmente precisa. Por exemplo, na medição de
uma grandeza mecânica como força, com alta e baixa
precisão. É necessário estimar a precisão da medição do
transdutor para avaliar o processo. Para implementar uma
avaliação boa/ruim, os componentes só podem ser avaliados
como OK quando estiverem dentro da faixa de ponto
de ajuste, menos a tolerância de medição (na figura
X, simbolizada nos diagramas pelas linhas tracejadas
azuis). Pode ser facilmente reconhecido
que o número de partes toleráveis aumenta
quando a precisão da medição também aumenta.
Expresso de uma maneira diferente,
o número de peças a serem rejeitadas também
depende da precisão da medição da
cadeia de medição de força. Os transdutores
de força modernos, como o S9M ou o U10M
da HBM, alcançam altas precisões, bem acima do
padrão de classe, sobretudo no que diz respeito aos fatores
de influência dependentes do valor final na incerteza de medição. Além disso, existe a
possibilidade de usar uma cadeia
de medição através da operação
em uma área de carga parcial
e, assim, aumentar significativamente
a tolerância contra sobrecargas.
Isso permite que uma
confiabilidade aprimorada seja
alcançada. Acima de tudo, é a influência
mínima da temperatura
no ponto zero que torna possível
usar o mesmo sensor para várias
faixas de medição ou aumentar a
porcentagem de peças boas, devido
à alta precisão”. |
|
|
Os engenheiros de controle
estão usando inúmeras ferramentas para garantir que seus
dados sejam precisos. Com os avanços na instrumentação,
o aumento na capacidade de armazenamento e a
melhoria no desempenho dos meios computacionais, às
vezes, milhares de variáveis são simultaneamente medidas
e registradas e, então, esses dados podem ser disponibilizados
e acessados. Isso deu poderosas ferramentas para
o monitoramento contínuo em tempo real do comportamento
do processo para desenvolvimento de modelos
mais robustos e para fins de otimização e controle. Mas,
como os dados são obtidos através de instrumentos físicos
e rotinas de medição, que apresentam precisão finita,
naturalmente possuem erros, são inerentemente inconsistentes,
seja por erro do instrumento ou por flutuação do
processo. No entanto, as empresas usam dados de fábrica
para suporte, manutenção, planejamento e otimização
de operações. Eles também enviam esses dados para o
sistema de planejamento de recursos empresariais (ERP).
Então, a precisão é crítica; dados defeituosos podem resultar
em problemas de anomalias, incluindo decisões
operacionais inseguras ou insatisfatórias.
As medições dos processos estão sujeitas à incidência
de erros durante as etapas de medição, processamento e
transmissão do sinal erro total em uma medição, que é a
diferença entre o valor medido e o valor real da variável
e podem ser representadas pela soma da contribuição de
dois tipos de erro – aleatórios e sistemáticos.
O erro aleatório não possui características de poder
ser predito com acurácia: um mesmo experimento, sob
as mesmas circunstâncias pode ter resultados diferentes,
dependendo do erro aleatório; ele é melhor caracterizado
com o uso de distribuição de probabilidade. E esses
erros podem ser causados por diversas fontes e, ainda
que não possam ser totalmente eliminados numa medição,
correspondem a um componente de alta frequência
e baixa magnitude, exceto pelos picos esporádicos de
ocorrência. |
|
|
|
|
|
Já os erros sistemáticos são causados por eventos não
aleatórios, como mau funcionamento do instrumento,
falta de calibração, falha na comunicação, sensores desgastados,
etc. Mas a não aleatoriedade desse erro implica
que, se a medição for repetida sob as mesmas circunstâncias,
sua contribuição sistemática será a mesma.
Os erros sistemáticos podem ser evitados ou minimizados
com manutenção e calibração adequadas – alguns
causadores desses erros aumentam a magnitude do
erro durante um longo período. Mas, é possível reduzir os
efeitos dos erros aleatórios e eliminar os sistemáticos com
a reconciliação de dados, técnica que promove o ajuste
das medições de um processo, de modo a alcançar um
conjunto de dados consistentes com o balanço material
e de energia. Dos dados reconciliados, espera-se maior
acurácia. Mas, para que as técnicas utilizadas sejam efetivas,
não deve haver erros sistemáticos – e existem técnicas
para detectá-los. As técnicas exploram a redundância
de medições para alcançar a redução dos erros. Técnicas
de processamento de sinais e reconciliação de dados podem
ser aplicadas em conjunto, recebendo o nome de
condicionamento de dados.
Para sistemas que tenham variáveis medidas e não
medidas, a melhor forma de abordar o assunto é com a
decomposição da reconciliação: reconciliação de variáveis
medidas com redundância e variáveis não medidas.
A reconciliação de dados permite obter uma maior
eficiência no desempenho das malhas, já que seu objetivo
é efetuar estimações mais precisas de determinadas
medições, relacionadas ao modelo do processo – dado
por um conjunto de equações algébrico-diferenciais, que podem representar as
leis de conservação de
massa, conservação de
energia ou qualquer outra
função que relaciona
as variáveis medidas
com as variáveis do modelo.
Utilizam-se as leis
de conservação, porque
elas são essenciais para
a análise dos sistemas e
as chances de falharem
são muito pequenas,
mesmo que ocorram
erros em parâmetros do
sistema analisado.
Uma lei genérica
para a quantidade total
de massa pode ser descrita
como segue. Ela
consiste basicamente em
uma descrição de fluxos
de massa de entrada e
saída de um processo,
cujo princípio se baseia
na lei de conservação
de massa, sendo expresso
por: Entrada – Saída
+ Geração – Consumo
= Acúmulo. |
|
|
Os balanços de massa podem ser classificados nos
processos químicos com base na entrada e saída de matéria
do volume de controle (processos em batelada, contínuos
e semicontínuos) e na dependência das variáveis de
processo em relação ao tempo (processos em regime permanente
e em regime transiente) bem como apresentadas
as equações de balanço de massa para esses processos,
com base na equação geral de balanço. “Na reconciliação
de dados e balanço de massas e energia, podemos ter
diversas variáveis, tais como a quantidade de matéria (armazenada,
escoando, reagindo), vazão, densidade/concentração,
nível/volume, temperatura, pressão, etc. Através do
balanço de massa, podemos verificar dados de processo,
aferir rendimentos, verificar perdas de materiais, projetar
a capacidade de equipamentos, etc. Mas, por que, então,
o balanço de massas, às vezes, não bate? Porque os
dados colhidos são muitas vezes inconsistentes e
apresentam erros”, lembra César Cassiolato,
presidente e CEO da Vivace. |
|
|
A reconciliação de dados possibilita
aumento de confiabilidade dos mesmos,
já que faz a consistência dos dados em
uma frequência que permite a identificação
e correção dos erros; reduz perdas nos
processos com consequente redução de custos;
melhora a performance nas medições, já
que permite facilmente a identificação dos instrumentos
que estão incertos, descalibrados e causando erros; reduz
custos de manutenção, já que permite uma melhor avaliação
na manutenção de equipamentos com problemas
nas medições com consequente aumento da disponibilidade. |
|
|
|
Então, o grande desafio da reconciliação de dados é
permitir a reconciliação em tempo real e que possa agregar
valor ao processo, tornando a operação mais eficiente,
menos custosa e que os erros grosseiros possam ser identificados
quase que instantaneamente. Normalmente, reconciliar
dados é uma operação de alta complexidade e
processamento, tais como soluções de sistemas não lineares,
derivadas, técnicas de ordenamento de matrizes, etc.
A identificação correta de cada fonte de informação e a
garantia de sua consistência trarão qualidade ao processo
de reconciliação e é fundamental. |
|
|
Em uma planta industrial, existem diversas etapas de preparação do produto final, como reatores biológicos, tanques de estocagem, secadores, entre outros equipamentos, que buscam alterar a forma, peso, textura e propriedades do produto em processamento. Secundários ao fluxo de massa do produto, estão as chamadas utilidades, cujo objetivo é especificamente auxiliar nesse processo, que são o ar seco utilizado em secagem, a adição de outros componentes ao processo (água, ácidos, sais, etc.) para modificar a estrutura química de componentes, entre outros. Fernanda Cunha, engenheira de aplicações da Vaisala, em Boston, lembra que, em certos processos, existe até mesmo o aumento de massa, como em bioreatores. “Os sistemas de reconciliação de dados
são aplicados especificamente a indústrias
de processo e se propõem a dar maior
confiabilidade às informações de produção,
contribuir com a redução de perdas e melhorar os
sistemas de medições. A reconciliação de dados é a técnica
utilizada para dar consistência às informações de fluxos
de matérias-primas e produtos do processo produtivo nas
indústrias de processo. |
|
|
Sistemas informatizados e metodologias de implantação
facilitam a aplicação da reconciliação de dados e
dão potencialidade ao seu uso, ampliando os benefícios
às indústrias. É, de fato, muito comum que os dados de
uma planta não satisfaçam às restrições dos balanços de
massa e energia, devido a inconsistências das medidas
realizadas. A reconciliação de dados é, então, o método
ou algoritmo responsável pelo ajuste das medições de
processo que contêm erros aleatórios, de maneira que as
medições satisfaçam às restrições de balanços de massa
e energia, por meio de uma otimização de um sistema,
linear ou não linear, dependendo das características do
processo. Por esse processo, se deve atribuir maior erro
ao instrumento de maior incerteza”, diz Cassiolato.
“Durante o processamento, temos de levar em conta
as perdas, que são chamadas de erros grosseiros e erros
randômicos: estes são os vazamentos, perdas de produtos
que passam despercebidas, e erros devido a medições incorretas
e mal funcionamento de equipamentos.
A reconciliação de dados, no contexto de processos
industriais, pode ser definida como a utilização de um
algoritmo complexo e outras ferramentas que buscam
satisfazer o balanço de massa e energia de um regime
permanente, levando em conta os erros grosseiros, com
o objetivo de obter dados confiáveis de controle e indicadores
de performance,” lembra Fernanda. |
|
|
|
Balanços de massa com reconciliação e certificação de
dados é um tema que Agremis G. Barbosa e Marco Coghi
– presidente da ISA Campinas – mantêm no
seu radar há algum tempo (veja artigo nesta
edição!).
“Perguntamo-nos, a cada momento,
se podemos confiar totalmente em nossos
instrumentos, se os balanços fecham...
As respostas não são triviais e nos levam
a outras perguntas. Será que, se fizermos
os balanços de massa possíveis em torno
dos equipamentos, unidades e no processo
inteiro, eles sempre fecharão? Ou colocamos os
desbalanços na conta das variáveis que não medimos
diretamente?” |
|
|
Marcos Straioto, gerente de
desenvolvimento de produtos
da Emerson/ Micro Motion
América Latina ressalta que,
“sem um balanço de massa,
não é possível analisar a
performance das operações
unitárias e o rendimento
dos equipamentos que transformam
matérias-primas em
produtos intermediários ou até
mesmo produtos finais. Nível e vazão (principalmente
em massa) são normalmente as mais importantes; temperatura,
pressão e densidade serão utilizadas para as
devidas correções, no caso da utilização do nível ou
vazão volumétrica. Mas, é importante que a consolidação
dos dados seja realizada corretamente, principalmente
com relação às correções de volume para massa.
Muitas vezes, a leitura de densidade é realizada por
amostragem, e levada ao laboratório causando erros
na manipulação da amostra, ou até mesmo no local de
retirada da mesma”. |
|
|
|
Cassius Barros, Supervisor
de Engenharia de Aplicações da
Yokogawa, conta que, no dia-adia,
a reconciliação de dados
é trabalhada como a capacidade
de combinar variáveis
de controle como segurança,
monitoração, etc., de modo a
permitir a criação de modelos
analíticos com propostas diversas.
“Qualquer variável medida pode ser
uma fonte de dados para análise, modelagem e/ou criação
de histórico. É preciso apenas garantir que a variável seja
confiável para, por exemplo, combinar variáveis de processo
e alimentar um modelo que entrega performance
de equipamento mecânico, ou, então, combinar variáveis
de monitoração para acompanhar o desempenho de uma
bomba/trocador de calor”. |
|
|
|
“Instrumentação industrial pode ser considerada uma ciência que estuda e desenvolve técnicas e aplicações para adequar os instrumentos de medição, transmissão, indicação, controle e registro das variáveis físicas dos equipamentos em processos industriais. A organização americana de instrumentação (ISA – Instrument Society of America) define um instrumento industrial como sendo todo dispositivo usado direta ou indiretamente para medir/controlar uma variável. Na WIKA, nós temos pesquisas que atestam que as grandezas Pressão e Temperatura lideram como as variáveis físicas mais presentes nos processos industriais em geral, ambas estão presentes em mais de 90% das plantas, seguidas por Vazão e Nível, com pouco mais de 80% de presença. E, foi com base nesses estudos, que expandimos nossos negócios nos últimos anos, e, hoje, além dessas quatro grandezas, adicionamos uma quinta, Força, para entregar um pacote completo de atendimento”, comenta Hugo Silva, Gerente de Contas Especiais da WIKA do Brasil. |
|
|
Existem várias soluções para a imprecisão
dos dados, muitos sensores se tornaram
inteligentes o suficiente para se policiarem;
na maioria dos protocolos, há
um ponto em que a qualidade dos dados
é conhecida; os sistemas de controle e o
MES também podem detectar dados imprecisos
por meio de modelos e aplicativos
de reconciliação de dados; alguns aplicativos
também podem identificar sensores com erro, que precisem
ser substituídos ou calibrados. |
|
|
|
Filtrar dados por imprecisões não é algo
novo, porém, como mais dados estão sendo
compartilhados com mais interessados,
esse compartilhamento diminui as distâncias,
dentro e fora das plantas, e tem se
tornado acessível para indústrias menores.
A validação periódica de dados, que
pode ser realizada por um terceiro independente
(como um laboratório externo)
ou por um OEM como parte de um contrato de serviço, é essencial para garantir
a integridade dos dados.
O esforço para validar dados
e identificar rapidamente os
desvios dos valores esperados
deve ser apoiado pela comunicação
e colaboração entre departamentos
tradicionalmente
isolados: um dos benefícios
das tecnologias de automação
conectadas é que elas estreitam
os laços entre as equipes
de TI e TO, e entre o corporativo
e o chão-de-fábrica.
Para se certificar de que os
dados adquiridos e analisados estão
corretos é preciso utilizar sensores
que sejam provenientes de
fabricantes com alta reputação
no mercado de medições, e que
ofereçam garantia de seus produtos,
além de suporte técnico. E os
transmissores de medição devem
apresentar um certificado de calibração
feita em um laboratório
credenciado a organizações que
reforçam padrões internacionais
de competência técnica.
“Mais do que instrumentos
de alta precisão, os processos e
sistemas de análise precisam que
os sensores de campo estejam
em condições normais de operação
e dentro dos limites de
precisão, conforme projeto. Diferente
de sistemas de controle,
onde é possível o uso de servidores
dedicados para gestão de
ativos, monitoração de desempenho, os valores disponibilizados
em nuvem, usados para criação de Big Data, devem
ser confiáveis. Para isso, os sensores de campo devem
ter, internamente, a capacidade de resolver questões de
diagnóstico durante operação e comparação dinâmica da
precisão/degradação dos transdutores, em relação à condição
de projeto. Se tudo estiver em condições normais,
um sinal simples indicará para as camadas superiores
de análise que os dados provenientes do sensor
são confiáveis e de boa qualidade,” comenta
Cassius. |
|
|
Para Marcelo Penha, gerente nacional
de vendas de válvulas da Metso Brasil,
os profissionais não podem somente
ser guiados por um gráfico e/ou ações do
passado. “Faz-se necessário embasamento
técnico e, também, que os fabricantes
dos equipamentos, os quais suportam as operações,
estejam presentes no dia-a-dia, distribuindo conhecimento,
auxiliando nas interpretações, trazendo novas
tecnologias, metodologias e, por vezes, contribuir na
tomada de decisão, pois, qualquer manobra inadequada
poderá comprometer a performance da planta,
operabilidade dos instrumentos, bem como a qualidade
do produto final”. |
|
|
“Quanto maior o erro de medição, maior a incerteza nos dados de processo. Essa incerteza afeta não somente a qualidade do produto, mas, em muitos casos, a segurança do produto final, principalmente em aplicações críticas como na indústria de alimentos e farmacêutica. Perdas de produto devido a erros grosseiros, como a falta de calibração de instrumentos, podem ocasionar grandes perdas econômicas. Os instrumentos precisam ser robustos e resistirem às demandas de processo,
e serem práticos do ponto de vista de manutenção e calibração.
É importante ter parceiros que ofereçam diversas
ferramentas para calibração em campo e troca de peças
sobressalentes, sem a necessidade de executar uma manutenção
intensiva e demorada. Sem dúvida, a manutenção
preventiva ainda é a melhor solução para evitar problemas
e garantir que a precisão do sensor seja confiável”, conta
Fernanda. |
|
|
|
“Qualquer variável de processo, que possa ser transduzida em grandeza ou valor numérico, pode ser empregada nos modelos de controle e ou geração de KPIs. O desafio na área de instrumentos e sensores está na tecnologia, que garante o desempenho destes dentro dos valores de projeto, garantindo assim a confiabilidade na variável. Tecnologias com “Total Insight” levam à inteligência para dentro dos sensores. Mais do que medir a variável de processo, os sensores têm a capacidade dinâmica de garantir que seu funcionamento está dentro dos limites de projeto. Como uma assinatura dos transdutores, o instrumento consegue analisar a degradação e entregar a previsão de falha ou a expectativa de operação. Essa tecnologia garante, por meio de um simples “flag”, que o instrumento está em condições normais de operação”, afirma Cassius.
Straiolo ressalta que dados “defeituosos” podem resultar em decisões operacionais inseguras ou insatisfatórias, e até mesmo acidentes, então, “um ponto muito importante é o aspecto humano, ou seja, quem configura o sistema precisa entender o que está fazendo com relação ao processo, não simplesmente reunir dados e montar malhas de controle. Mas, um sistema que permita disponibilizar os dados dentro do que se propõe a Industria 4.0 também é essencial, uma vez que a quantidade de dados pode confundir os usuários, a entrega dos dados necessários para cada disciplina permite a análise dos dados corretos – sempre levando em consideração a segurança e confiabilidade dos dados, no caminho entre instrumentos de planta e rede corporativa”.
“Fica clara a importância que boas informações têm na estratégia de negócios das empresas. Falando na gestão de negócios, lembramos do PIMS e ERPs: os dados de uma planta são normalmente armazenados nos sistemas de gerenciamento de informações de plantas (PIMS) e, aí, são lidos pelos sistemas de reconciliação de dados, produzindo os dados reconciliados, e que são armazenados no próprio PIMS, que fica sendo, assim, a base única de informações da Planta. A integração do chão-de-fábrica com o ERP é feita então, com base nesses dados reconciliados”, lembra Cassiolato.
Então, quando a instrumentação existente não fornecer os dados necessários, deve ser hora de atualizá-la! |
|
|
|
|
LEIA MAIS
NA EDIÇÃO IMPRESSA |
|
DESEJANDO
MAIS INFORMAÇÕES: redacao@editoravalete.com.br
|
|
|
Clique na capa da revista para
ler a edição na íntegra |
|
|