ENGESV - ENGENHARIA SUSTENTÁVEL

ENGESV - ENGENHARIA SUSTENTÁVEL
ENERGIA LIMPA

segunda-feira, 20 de dezembro de 2010

Engenharia Mecatrônica - Controle e Automação

Engenharia de controle e automação, comumente chamada de "mecatrônica", é a área dentro da engenharia voltada ao controle de processos industriais utilizando-se para isso de elementos sensores, elementos atuadores, sistemas de controle, Sistemas de Supervisão e Aquisição de Dados e outros métodos que utilizem os recursos da eletrônica, da mecânica e da informática.

A Engenharia de Controle e Automação une os princípios de mecânica, eletrônica e computação que combinados geram um sistema mais simples, econômico, confiável e versátil. Baseia-se na modelagem geográfica de sistemas de diversas naturezas, analisando o seu comportamento dinâmico, e usando a teoria de controle para calcular os parâmetros de um controlador que faça o sistema evoluir da forma desejada, e adaptativa às mudanças dos principais elementos sob controle.
A Engenharia de Controle e Automação se concentra, acima de tudo, na automação de uma planta, que é fazer um processo manual tornar semi-automático ou totalmente automático. A automação é completa quando toda uma linha de produção funciona do começo ao fim sem a intervenção humana, agindo apenas pelo controle das próprias máquinas e controladores. Para obter a automação de um sistema é necessário conseguir uma visão global do processo produtivo, o que faz o profissional da área usar informações que relacionem áreas de conhecimento distintas, como é o caso da mecânica, da elétrica e da ciência da computação.
Esta relação entre elétrica, mecânica e ciência da computação também é conhecida como Mecatrônica, que para a educação em nível superior, no Brasil, é reconhecida pelo Ministério da Educação como Engenharia de Controle e Automação.
O termo Automação refere-se ao uso de tecnologia para facilitar o trabalho do ser humano ou estender sua capacidade física e mental.
O Controle utiliza teorias para calcular parâmetros de um controlador que faça o sistema evoluir da forma desejada e adaptativa às mudanças dos principais elementos sob controle. O engenheiro tem por objetivo tornar um sistema ou processo não-automático em semi-automático ou totalmente automático. Um sistema é considerado totalmente automático quando toda a linha de produção funciona do começo ao fim sem a intervenção humana, agindo apenas pelo controle das próprias máquinas e controladores. Um robô industrial é um ótimo exemplo de sistema de controle e automação que inclui aspectos de eletrônica, computação e mecânica nos trabalhos do dia-a-dia.

Diagrama de Automação

A figura ao lado é possível observar esta relação, e em especial a intercessão entre a mecânica, a ciência da computação e a elétrica - neste caso dividida em eletrônica e controle.
  que: “A Engenharia de Controle e Automação é uma habilitação específica que tem sua origem nas áreas Elétrica e Mecânica do curso de Engenharia” (Art. 1º). Isso permitiu rápido crescimento do curso de Engenharia de Controle e Automação, que passou de 8 em 1996 para 60 em 2005.

O nome Engenharia de Controle e Automação (que é o aceito atualmente pelo MEC) surgiu pelas ideias propostas abaixo: Controle significa Controle Automático (isto é, que se move ou age por si, sem operador) de Sistemas físicos quaisquer.
Compõe-se de dois grandes campos de conhecimento:
  • Controle dinâmico de sistemas dinâmicos (representados por equações diferenciais ou de diferenças, pelo menos na variável tempo);
  • Controle por eventos discretos de sistemas de eventos discretos (representados por modelos lógicos seqüenciais).
Automação (do inglês automation) significa o emprego do computador para automatizar, com ou sem controle dinâmico. Sua origem é um neologismo, em inglês, que na década de 60 foi adotado intensamente pelo marketing industrial, sendo muito mal recebido pela comunidade acadêmica de língua inglesa.
De acordo com a Larousse Cultural (1998), os nomes Automação e Automática são definidos assim: “Automação- Parte da automática que trata dos automatismos mais complexos. Palavra utilizada pela primeira vez em 1936... na General Motors...” “Automática- Ciência e técnica da automatização, agrupando o conjunto das disciplinas teóricas e tecnológicas que intervêm na concepção, construção... dos sistemas automáticos.”

A Pirâmide da Automação

O trabalho de um Engenheiro de Controle e Automação pode ser representado pela pirâmide abaixo:

Pirâmide da Automação
Nível 1: Aquisição de Dados e Controle Manual. Composto por máquinas, componentes e dispositivos da planta, como sensores, atuadores e dispositivos de campo.
Nível 2: Controle Individual (PLCs, SDCDs, relés). Nível onde se encontram os equipamentos que executam o controle automático das atividades da planta.
Nível 3: Controle de Grupo (célula de trabalho), gerenciamento e Otimização de Processo. Permite a supervisão do processo, normalmente possui banco de dados com informações relativas ao processo.
Nível 4: Controle fabril total, produção e programação. Nível responsável pela programação e pelo planejamento da produção realizando o controle e a logística de suprimentos. Condiz com o gerenciamento da planta.
Nível 5: Planejamento Estratégico e Controle sobre vendas e custos. Administração de recursos da empresa. Neste nível encontram-se os softwares para gestão de venda e gestão financeira, o gerenciamento corporativo.

Sistemas de Controle

Um sistema de controle é basicamente um sistema entrada(s)-saída(s). O sistema a ser controlado é, em geral, chamado de processo ou planta. O processo é um sistema dinâmico, ou seja, seu comportamento é descrito matematicamente por um conjunto de equações diferenciais. Como exemplos de sistemas dinâmicos temos, entre outros: sistemas elétricos, mecânicos, químicos, biológicos e econômicos. A entrada do processo é chamada de variável de controle ou variável manipulada (MV) e a saída do processo é chamada de variável controlada ou variável de processo(PV).
A filosofia básica de um sistema de controle é unir o resultado da leitura dos elementos sensores com a ação dos elementos atuadores. Eles recebem as informações lidas dos sensores para saber o atual estado do processo, executa cálculos e lógicas pré-definidas (também chamadas de lei de controle) e envia o resultado para os atuadores, de modo que a situação atual do processo seja modificada para que se atinja um ponto de operação próximo do desejado.
Para projetar um controlador são utilizadas diversas ferramentas computacionais, técnicas e teorias de controle. As ferramentas computacionais permitem que o processo seja simulado em um computador para que os parâmetros do controlador possam ser projetados sem a necessidade de utilizar o processo real. Uma vez projetado o controlador o mesmo é implementado e validado no processo real.
Os Sistemas de Controle unem o resultado da leitura dos elementos sensores com a ação dos elementos atuadores. Eles recebem as informações lidas dos sensores para saber o atual estado do processo, executa cálculos e lógicas pré-definidas (também chamadas de lei de controle) e envia o resultado para os atuadores, de modo que a situação atual do processo seja modificada para que se atinja um ponto de operação próximo do desejado.
Na era da modernidade, o uso dos sistemas de controle é disseminado: desde uma simples boia que controla o nível de um tanque d'água até os sistemas digitais das aeronaves mais sofisticadas.
Para implementar sistemas de controle, são utilizados dispositivos como microcontroladores, CLP's e microprocessadores, entre outros. Estes dispositivos possuem em comum entradas e saídas (Portas de entrada/saída), que servem para realizar a comunicação com os dispositivos periféricos (sensores e atuadores).
Estas portas de entrada/saída também podem ser destinadas a realizar a comunicação com outros sistemas, a fim de fornecer dados de leitura dos sensores ou até receber instruções externas para os atuadores.

Controladores

PLC
Ao final da década de 1960, o advento dos circuitos integrados permitiu o desenvolvimento de minicomputadores que logo foram utilizados para controle on-line de processos industriais. Em 1969 surgiram os primeiros controladores e, em 1970, eles incorporaram microprocessadores, sendo então denominados Controladores Lógicos Programáveis (CLPs ou PLCs, da sigla em inglês, a qual possui emprego mais amplo, uma vez que a primeira se tornou marca registrada de propriedade exclusiva de um fabricante nacional). Este dispositivo foi concebido para controlar e automatizar equipamentos e processos , devendo reagir e apresentar respostas a estímulos no menor tempo possível (operação em “tempo real”). Na automação, o emprego de CLPs deve-se considerar:
  • Compatibilidade entre instalação elétrica e pontos de Entrada/Saída
  • Existência de chaves de proteção de hardware
  • Tipo e forma de endereçamento
  • Estrutura da palavra
  • Tipo e forma dos sinais aceitáveis
  • Compatibilidade dos equipamentos eletromecânicos
Para ser considerado como CLP, o equipamento precisa reunir três características básicas:
  • Executar uma rotina cíclica de operação durante seu funcionamento
  • Forma básica de programação através de uma linguagem oriunda dos diagramas elétricos de relés
  • Produto projetado para operação em ambiente industrial, e sujeito a condições adversas (umidade, temperatura, gases inflamáveis, oxidações, poeira)
Um CLP é constituído basicamente por:
  • Fonte de alimentação
  • Unidade Central de Processamento (UCP)
  • Memórias dos tipos fixa (Memória de programa) e volátil (Memória de dados)
  • Dispositivos de entrada e saída
  • Terminal de programação
As linguagens de programação utilizadas por um CLP podem ser divididas em dois tipos básicos: as textuais (Lista de Instruções e Texto Estruturado), oriundas da programação baseada em mnemônicos, e as gráficas, representadas pelas linguagens tradicionais baseadas em relés e em blocos funcionais (Linguagem Ladder, Linguagem em Diagrama de Blocos Funcionais e Diagrama de Funções Sequenciais). Em geral, os CLPs permitem dois modos básicos de operação: o Modo de Programação, destinado à elaboração e alteração de programas aplicativos; e o Modo de Execução (run), destinado à execução do programa contido na memória do dispositivo (Ciclo de Execução). O Ciclo de Execução (scan) é realizado ciclicamente, e compreende:
  • Leitura dos valores de entrada e seu respectivo armazenamento na memória (imagem das entradas);
  • Processamento das instruções do programa aplicativo, empregando a imagem das entradas e gerando na memória os valores de saída (imagem das saídas);
  • Atualização das saídas , através do envio da respectiva imagem para os módulos de saída.
Microcontrolador
O microcontrolador é um Circuito integrado incorporado em um chip, composto por processador, entradas, saídas e memória. Através de uma programação feita pelo técnico, os microcontroladores podem controlar suas saídas, tendo como referência as entradas ou um valor pré-determinado no programa. Diferenças entre os microcontroladores:
  • Quantidade de memória interna.
  • Velocidade de processamento.
  • Quantidade de sinal de entrada e saída (I/O).
  • Alimentação.
  • Periféricos.
  • Arquitetura.
  • Set de instruções.
Características:
  • Consumo pequeno.
  • Modo de espera.
  • Tamanho reduzido.
  • Baixo custo.
Por apresentar tamanho reduzido, baixo consumo são muito utilizados em automação e controle. Exemplos: controle de motores automotivos, controles remotos, máquinas de escritório e residenciais, brinquedos, sistemas de supervisão, etc. Enfim eles são uma alternativa eficiente e barata para controlar muitos processos e aplicações.
Single loop e Multi loop
Controlador Single Loop e multi loop São um instrumento microprocessado, configurável e dedicado ao controle. A principal diferencia entre eles e que o single loop controla uma única malha (daí o nome, single loop) O baixo custo permite que o single loop seja dedicado a uma única malha. E o multi loop duas ou mais malhas. Sendo que as principais características são as mesmas para os dois. Eles resolve o algoritmo de controle para produzir uma saída controlada. Características:
  • Tamanho pequeno.
  • Funções de controle, qualquer função configurável.
  • Auto-sintonia: Programação temporal e sequenciamento de operações. Não está presente em todos single-loops.
  • A configuração pode ser feita através de teclados acoplados ao instrumento ou através de programadores separados.
  • O instrumento incorpora todos os avanços da tecnologia eletrônica, microprocessadores, displays novos e programas criativos.
  • Capacidade de auto/manual,
  • Ponto de ajuste múltiplo,
  • Memória.
As aplicações típicas do single-loop são em plantas pequenas e médias. E onde há malhas críticas que, por motivo de segurança, são controladas por controladores single-loop.

Elementos sensores

São os elementos responsáveis pela leitura do estado em que o processo se encontra. Os sensores (ou transdutores) medem grandezas mecânicas como de posição, de velocidade e aceleração; grandezas físicas como de temperatura, de fluxo, de nível e de pressão; grandezas químicas como de concentração, entre outras. Eles enviam para o controlador a atual situação do processo para que este possa tomar as medidas necessárias.
A obtenção de algumas dessas variáveis pode ser impossibilitada por razões operacionais ou econômicas. Para contornar essa limitação as grandezas de interesse podem ser estimadas através da medição de outras. Isso pode ser feito utilizando-se um estimador de estados ou através de inferência.

Elementos atuadores

Atuador é um elemento capaz de modificar grandezas físicas no sistema ao qual pertence (geralmente produzindo movimento) atendendo a comandos que podem ser manuais ou automáticos, nesse processo também acontece a conversão de diferentes tipos de energia, são exemplos de elementos atuadores: cilindros pneumáticos (pneumática) ou cilindros hidráulicos (Hidráulica)e motores (dispositivos rotativos com acionamento de diversas naturezas). Para se classificar os elementos atuadores podem ser usados três critérios diferentes,são eles:
  • Energia de saída: mecânica, térmica, óptica, etc.
  • Princípio de funcionamento: mecânico, pneumático, hidráulico, eletromagnético, etc.
  • Se for um atuador que gera movimento, pelo tipo de movimento: linear ou rotativo.

Técnicas de controle

Controle em Malha Fechada

No controle em malha fechada, informações sobre como a saída de controle está evoluindo são utilizadas para determinar o sinal de controle que deve ser aplicado ao processo em um instante específico. Isto é feito a partir de uma realimentação da saída para a entrada. Em geral, a fim de tornar o sistema mais preciso e de fazer com que ele reaja a perturbações externas, o sinal de saída é comparado com um sinal de referência (chamado no jargão industrial de set-point) e o desvio (erro) entre estes dois sinais é utilizado para determinar o sinal de controle que deve efetivamente ser aplicado ao processo. Assim, o sinal de controle é determinado de forma a corrigir este desvio entre a saída e o sinal de referência. O dispositivo que utiliza o sinal de erro para determinar ou calcular o sinal de controle a ser aplicado à planta é chamado de controlador ou compensador. Em resumo, a utilização da realimentação e, portanto, do controle em malha fechada, permite entre outros:
  • aumentar a precisão do sistema.
  • rejeitar o efeito de perturbações externas.
  • melhorar a dinâmica do sistema e, eventualmente, estabilizar um sistema naturalmente instável em malha aberta.
  • diminuir a sensibilidade do sistema a variações dos parâmetros do processo, ou seja, tornar o sistema robusto

Controle em Malha Aberta

O controle em malha aberta consiste em aplicar um sinal de controle pré-determinado, esperando-se que ao final de um determinado tempo a variável controlada atinja um determinado valor ou apresente um determinado comportamento. Neste tipo de sistema de controle não são utilizadas informações sobre evolução do processo para a determinar o sinal de controle a ser aplicado em um determinado instante. Mais especificamente, o sinal de controle não é calculado a partir de uma medição do sinal de saída. Características básicas de um sistema de controle que opera em malha aberta: imprecisão, nenhuma adaptação a variações externas (perturbações), dependência do julgamento e da estimativa humana. Por outro lado, este tipo de sistemas são em geral simples e baratos, pois não envolvem equipamentos sofisticados para a medição e/ou determinação do sinal de controle. (SILVA, J.M.G., 2010).
As técnicas de controle podem ser classificadas em 2 grandes grupos. O primeiro grupo é o de Controle clássico e utilizada os seguintes controladores:
O segundo grupo é composto pelo Controle moderno, o qual engloba os seguintes ramos:

Atribuições Profissionais

O Engenheiro de Controle e Automação recebe a seguinte designação profissional do CONFEA:
  • Grupo: 1 Engenharia
  • Modalidade: 2 Eletricista
  • Nível: 1 Graduação
  • Código: 121-03-00
  • Título: Engenheiro de Controle e Automação
Destaca-se que a estrutura do Curso foi concebida para que o aluno receba atribuição profissional básica semelhante aos Engenheiros Eletricistas, com ênfase nas seguintes áreas de atuação:
  • Controle e automação de processos;
  • Informática industrial;
  • Engenharia de sistemas e produtos;
Nessas áreas, o Engenheiro de Controle e Automação recebe atribuições para exercer 18 tipos de atividades:
  • Supervisão, coordenação e orientação técnica;
  • Estudo, planejamento, projeto e especificações;
  • Estudo de viabilidade técnico-econômica;
  • Assistência, assessoria e consultoria;
  • Direção de obra e serviço técnico;
  • Vistoria, perícia, avaliação, arbitramento, laudo e parecer técnico;
  • Desempenho de cargo e função técnica;
  • Ensino, pesquisa, análise, experimentação, ensaio e divulgação técnica; extensão;
  • Elaboração de orçamento;
  • Padronização, mensuração e controle de qualidade;
  • Execução de obra e serviço técnico;
  • Fiscalização de obra e serviço técnico;
  • Produção técnica e especializada;
  • Condução de trabalho técnico;
  • Condução de equipe de instalação, montagem, operação, reparo ou manutenção;
  • Execução de instalação, montagem e reparo;
  • Operação e manutenção de equipamento e instalação;
  • Execução de desenho técnico.

Perfil e Áreas de Atuação

A Engenharia de Controle e Automação é uma atividade-meio, ou seja, a mesma utiliza técnicas que são básicas para toda engenharia, além de ser instrumento para aplicação em quase todas as áreas do conhecimento. Ela está presente na indústria química, petroquímica, alimentícia, têxtil, papeleira e empresas de saneamento, uma vez que nos processos químicos que decorrem ao longo do percurso produtivo numa planta industrial, é necessário controlar o comportamento das variáveis que interferem na qualidade dos produtos de acordo com padrões pré-estabelecidos.
Todos os ramos da manufatura se beneficiam das técnicas de controle. Entre as aplicações neste ramo da indústria está a robótica industrial, usinagem de peças, controle de motores, entre outras.
O projeto de um sistema de controle automático requer o conhecimento amplo e aprofundado de varias outras disciplinas que vão desde a eletrônica até a otimização, passando pela informática, matemática discreta e a teoria de sistemas lineares e não-lineares.
Com base na Resolução 11/CNE/2002, é possível definir para os Engenheiros de Controle e Automação o conjunto de habilidades e competências necessárias ao exercício da profissão que deverá condicionar a formação, de modo a permitir aos egressos: equacionar problemas da área utilizando conhecimentos matemáticos, científicos, tecnológicos e instrumentais, com propostas de soluções adequadas e eficientes; criar e usar modelos de dispositivos e sistemas de qualquer natureza; coordenar, planejar, operar e manter sistemas na área de Engenharia de Controle e Automação a questões gerais encontradas em outras áreas; comunicar eficientemente nas formas oral, escrita e gráfica; ser consciente do impacto das atividades da Engenharia de Controle e Automação no contexto social e ambiental; atuar em equipes multidisciplinares; ter postura ética, responsável e de permanente busca de atualização profissional.
Assim, com base numa formação suficientemente abrangente para exercer uma ação integradora, o Engenheiro de Controle e Automação poderá, no que concerne às atividades de engenharia: trabalhar em setores industriais, comerciais, residenciais e de serviços, sendo responsável pela modernização, automação e otimização destes processos; atuar em empresas de engenharia, projetando e integrando sistemas de automação industrial, hospitalar e predial; participar de treinamento de recursos humanos em empresas em geral e instituições de ensino; executar projetos de engenharia básica visando planejar a expansão e automação de longo prazo; desenvolver produtos de instrumentação, controle, operação e supervisão de processos industriais, comerciais e residenciais. Além disso, dependendo das opções que fizer durante e após o curso, o profissional formado poderá também se dedicar ao desenvolvimento e gerência do próprio negócio, tornando-se um empresário.
O profissional formado deve ter sólida base teórica em física, química, matemática e informática, conhecimentos gerais em eletricidade e mecânica (instrumentação eletrônica e mecânica e acionamentos elétricos, mecânicos e hidráulicos) que lhe permitam compreender os efeitos das interfaces entre o mundo real e o sistema de automação.
De forma geral, tem-se:
  • Nível de componente: circuito integrado, sensor, atuador, mecanismo, mancal.
  • Nível de máquina: robôs, máquinas de usinagem, medição, inspeção, movimentação, embalagem.
  • Nível de sistema produtivo: projeto e análise auxiliados por computador, manufatura integrada por computador, sistema flexível de manufatura.
Quanto mais próximo do nível de componente, mais próximo de fenômenos físicos estará o Engenheiro de Controle e Automação. Quanto mais próximo do nível de sistema produtivo, mais interessado em informação e abstrações estará esse Engenheiro. A formação em Engenharia de Controle e Automação deve, portanto habilitá-lo a transitar por esses diferentes níveis, tendo a capacidade de integrar e combinar conhecimentos.
Algumas áreas em que o profissional pode atuar:
Automação comercial e robótica: Projetar sistemas automatizados de controle de equipamentos em edifícios comerciais e em residências, como elevadores, iluminação, aparelhos de ar condicionado e eletrodomésticos.
Automação industrial: Desenvolver e implantar projetos de automação em indústrias. Manipular robôs industriais.
Bioprocessos: Projetar, construir e operar equipamentos empregados nas indústrias de biotecnologia.
Informática: Projetar sistemas de informação e bancos de dados. Programar equipamentos automatizados.


Referências : Wikipedia



terça-feira, 16 de novembro de 2010

Como transformar empreendimentos existentes em empreendimentos sustentáveis

A cada dia que passa ouvimos falar mais sobre sustentabilidade, preservação do mei ambiente e aquecimento global. Estes conceitos, que até pouco tempo se restringiam aos grupos acadêmicos e ambientalistas, passaram a fazer parte de nossa realidade, devido ao aumento do acesso à informação e também aos primeiros indícios reais de esgotamento da capacidade do planeta em prover recursos naturais para a nossa sobrevivência.

A Construção Civil é responsável pelo consumo de boa parte dos recursos naturais do planeta, tanto na fase de obras quanto na fase de uso e operação dos edifícios. Apesar de ser uma fase de enorme impacto ambiental, a construção de edifícios dura no máximo dois anos, enquanto que o seu uso pode facilmente passar dos 50 ou 100 anos. Durante todo tempo de vida útil do edifício, ele irá consumir recursos naturais e despejar resíduos no planeta, consumindo muito mais energia, água e gerando muito mais resíduos do que na fase de obras.

Apesar do "boom" imobiliário dos últimos cinco anos, a idade média das construções na cidade de São Paulo ainda é de aproximadamente 25 anos. Isso significa que temos edifícios novos e eficientes, mas também edifícios muito antigos e ineficientes, que foram projetados e construídos numa época em que os conceitos de sustentabilidade e preservação ambiental nem sequer existiam! Portanto, apesar das iniciativas atuais de se construir de maneira sustentável, temos um grande desafio que é tornar os edifícios já existentes sustentáveis, pois eles acabam sendo os grandes responsáveis pelo esgotamento da água e energia do planeta.

O processo de reabilitação de edifícios para torná-los sustentáveis é bem mais complexo do que uma construção nova já sustentável. Em alguns casos mais críticos, a ocupação do edifício durante o processo de reabilitação pode tornar-se inviável, porém em outros a reabilitação ocorre com o edifício em funcionamento. Além da questão da ocupação dos edifícios, normalmente o processo de reabilitação sustentável encontra dificuldades devido ao canteiro de obras restrito, alta quantidade de resíduos de demolição, falta de cadastramento da situação real do edifício e incômodos gerados aos usuários e vizinhos.

O primeiro passo para tornar um edifício existente sustentável é uma análise minuciosa da situação atual em relação aos requisitos de Alta Qualidade Ambiental (AQUA), que são baseados na qualidade intrínseca do edifício (QI) e na qualidade ambiental das práticas (QAP). A qualidade intrínseca do edifício demonstra como a construção em si atende aos critérios de sustentabilidade, como elementos de sombreamento de fachada (brises), sistemas de ventilação natural, facilidade de acessos para manutenção, iluminação natural, entre outros.

A qualidade intrínseca do edifício não está diretamente relacionada ao emprego de soluções de alta tecnologia, e sim a um bom projeto arquitetônico e a uma execução consciente, que levam a um alto desempenho ambiental e a uma economia significativa de energia e água durante a operação. Já a qualidade ambiental das práticas (QAP) decorre da maneira pela qual os usuários se relacionam com o edifício, e é tão importante quanto a QI, uma vez que o usuário é o grande responsável pelos impactos ambientais decorrentes de sua operação. Para se ter uma ideia, uma simples torneira aberta por 6 minutos gasta toda a água necessária para uma pessoa sobreviver um dia inteiro, considerando o consumo per capita recomendado pela Organização Mundial da Saúde. Desta forma, não adianta nada o edifício ser totalmente sustentável se as práticas de operação não forem sustentáveis.

Uma vez concluída a análise inicial, chamada diagnóstico, é preciso traçar uma estratégia ambiental do edifício, hierarquizando quais iniciativas deverão ser postas em prática primeiro, sempre levando em consideração a relação custo x benefício x preservação do meio ambiente. A estratégia ambiental global do edifício tem como finalidade evitar que se tomem medidas isoladas, aparentemente sustentáveis, porém quando dentro de um contexto global sem resultados expressivos. Um exemplo interessante é a instalação de sensores de presença em todos os ambientes do edifício, inclusive os com lâmpadas fluorescentes: estudos comprovam que para ciclos menores do que 15 minutos é mais viável deixar o acionamento da lâmpada por interruptor do que instalar um sensor de presença.

Neste caso, a análise leva em conta, não só o consumo de energia, mas também o impacto ambiental decorrente do descarte das lâmpadas fluorescentes, que têm a sua durabilidade reduzida proporcionalmente ao número de ciclos. Resumindo, do ponto de vista global, a aparente redução no consumo de energia elétrica em uma lâmpada fluorescente com sensor de presença pode gerar um impacto ambiental maior, devido à redução da sua vida útil.

Por fim, não existe uma receita pronta para tornar os edifícios existentes em edifícios sustentáveis, pois a complexidade de uma construção é muito grande. A receita ideal é utilizar uma metodologia reconhecida para tornar o edifício sustentável, implementada por uma equipe que conheça a fundo os requisitos de Alta Qualidade Ambiental (AQUA), de modo que a reabilitação sustentável possa efetivamente atingir os resultados desejados, contribuindo efetivamente para a redução da escassez de recursos naturais e biodiversidade.

Por Luiz Henrique Ferreira, www.administradores.com.br


segunda-feira, 8 de novembro de 2010

Mercado promissor de energias renováveis e política nacional de incentivo ao uso de fontes renováveis de energia

“Como inserir o Brasil no promissor mercado (nacional e internacional) de energias renováveis. A expansão desse mercado no Brasil, no entanto, só é possível a partir do desenvolvimento de uma política efetiva de incentivo ao uso (comercial, residencial e industrial) de fontes alternativas de energia”, escreve Celso Oliveira, presidente da Associação Brasileira das Indústrias de Biomassa e Energia Renovável.
Nosso país possui um enorme potencial a ser explorado em energias renováveis, com o qual poderá gerar energia limpa para as atuais e futuras gerações, garantir novos empregos e dividendos financeiros e tributários e ajudar no combate mundial às mudanças climáticas, com a redução da emissão de gases de efeito estufa. A diversificação da matriz energética, além de abrir novas oportunidades para a indústria, é uma necessidade do País. Avaliem os comentários:

“O investimento nos setores de energia sustentável precisam continuar a crescer se os objetivos são a redução da emissão de gases estufa, aumento do uso de energia renovável e eficiência energética,” diz o relatório, preparado com o modelo de Finanças de Novas Energias aplicado no Reino Unido tomando como base a Iniciativa financeira para energia sustentável de Paris. “Os investimentos devem atingir, entre agora e 2030, $450 bilhões a partir de 2012, aumentando para mais de $600 bilhões por ano a partir de 2020. A performance geral do setor durante 2007 e em 2008 mostra um bom caminho para se atingir estes níveis.”

Mohamed El-Ashry, Chefe da Renewable Energy Global Policy Network REN21 disse: "Uma razão para o gradual crescimento dos renováveis é simplesmente econômica: enquanto os custos do combustível fóssil está crescendo, os custos da tecnologia para energia renovável está caindo. E com os renováveis não há custos de combustíveis nem emissão de carbono."

De acordo com o IEA, um montante de US$20 trilhões é esperado como investimento para suprir a demanda energética mundial até 2030. Se tais investimentos não forem feitos de uma forma consciente no que diz respeito ao clima, as emissões de gases estufa devem aumentar em 50% até 2050, enquanto a ciência nos diz que essas emissões devem ser reduzidas em 50% até 2050.

Os ativos financeiros na India cresceram significativamente, para $2.5 bilhões, em maior parte devido a 1.7GW em novos projetos de energia eólica. Tais instalações colocaram a Índia em quarta posição mundial, tanto em termos de nova capacidade adicionada quanto em capacidade total instalada. O investimento em capacidade renovável não-hidráulica na China aumentou mais de quatro vezes, para $10.8 bilhões, e a nova capacidade eólica dobrou para 6 gigawatts.

O Brasil precisa desenvolver urgente uma política de valorização e de uso das fontes de energias renováveis para atingir os objetivos econômicos, sociais e ambientais e de fazer face a desafios consideráveis em matéria de energia. Valorização com a desoneração tributárias para as empresas que atuam no setor de biomassa e para as empresas nacionais que produzem equipamentos e tecnologia industrial. .  É necessário que as fontes renováveis sejam incluídas nas atividades de interesse da política científica, tecnológica e industrial do país.

Para tanto, deve-se estabelecer uma estrutura regulatória sólida, vinculada à criação de uma política consistente de incentivo que permita o seu crescimento constante nas próximas décadas, contemplando o uso industrial de biomassa para fins de energia (woodchips, biomassa, pellets, agropellets e briquete), parques eólicos, energia solar, centrais termelétricas a biomassa e gases provenientes do tratamento de esgotos e resíduos urbanos sólidos. A consolidação de um mercado de renovável consistente só será possível com o estabelecimento de uma política nacional para energias renováveis que esperamos que venha em acontecer nos próximos anos.

A utilização de biomassa para aproveitamento energético é de notável importância, é considerada uma fonte alternativa de energia e também uma solução de um grande problema ambiental e econômico que é a disposição final de resíduos gerados nas mais diversas atividades do setor agrícola brasileiro.  Aumentar a diversificação da matriz energética de um país e reduzir sua dependência de combustíveis fósseis é uma medida estratégica importante para a garantia de suprimento de energia. 

Outra vantagem é a diversificação da matriz energética incluindo fontes alternativas de energia, e também consideradas sustentáveis. Essa fonte de energia pode ser considerada um dos potenciais de MDL  como fontes alternativas de energia: co-geração, gás natural e biomassa. A biomassa pode ser encontrada de várias formas como potencial energético como: os resíduos culturais agrícolas e florestais,  resíduos industriais  e plantios energéticos e florestas nativas.

O Estudo da KPMG Anual Global de Fusões e Aquisições de Energia Renovável em todo o mundo constatou que 37% dos grandes investidores planejam investir em projetos de biomassa, 36% tem planos de investir em energia solar e 35% em energia eólica.Os entrevistados indicam que preferem as empresas e usinas de biomassa devido ao seu potencial para render retornos muito superiores a outras tecnologias renováveis.

Com o mercado global de produtos de baixo carbono previsto para crescer 4% ao ano até 2015, temos oportunidade tremenda para assegurar que nosso futuro econômico seja baseado em bens e serviços verdes, de baixo carbono, que estimulem o crescimento, gerem empregos, combatam as mudanças climáticas e fomentem a segurança energética.

O mercado de produtos e serviços verdes do Reino Unido, que vale quase R$ 1 trilhão, já emprega cerca de 900 mil pessoas, diretamente ou na cadeia de oferta mais ampla. O Reino Unido vê a transição para uma economia verde, de baixo carbono, como importante oportunidade comercial e de emprego. A visão do Reino Unido é a de uma economia verde, de baixo carbono, com empregos gerados pelas novas tecnologias e mercados do futuro.

Com o conjunto certo de políticas, e com a adesão forte do setor privado, o Brasil tem a possibilidade de se tornar uma potência ambiental no século 21.

FONTE: Newsletter ABIB Energia Renovável

quinta-feira, 28 de outubro de 2010

A VERDADE SOBRE OS PRODUTOS BIODEGRADÁVEIS


A biodegradabilidade de compostos orgânicos é um assunto técnico que leva a muitas conclusões equivocadas.

Atualmente várias empresas fazem propaganda ressaltando que seus produtos são biodegradáveis. Isso virou praxe no ramo de produtos de limpeza, por exemplo.

O público leigo (inclusive muitos técnicos da área ambiental, na verdade) acaba acreditando que um produto dito biodegradável é ambientalmente correto. Há desconhecimento dos conceitos envolvidos.

Praticamente toda e qualquer substância orgânica é biodegradável. Nos sistemas de tratamento de efluentes, por exemplo, são aclimatados microrganismos para degradar mesmo os compostos orgânicos mais refratários. Lembro-me do Professor do Mestrado da UNICAMP falando de um projeto de tratamento biológico que desenvolveu para tratar efluentes de uma indústria de antibióticos. Microrganismos adequadamente aclimatados conseguem degradar até antibióticos.

Portanto, há um erro conceitual. Se o produto for inorgânico ou possuir parcela inorgânica, obviamente não será biodegradável. Porém, se o produto for orgânico, o que importa mesmo é a velocidade da biodegradação. Nesse caso, não significa nada dizer que o produto é biodegradável.

Se a substância for lentamente biodegradável (muitas vezes devido a sua toxicidade), a natureza, certamente, levará tempo para decompô-la. Então, haverá acúmulo desse tipo de substância no meio ambiente, pois a taxa de lançamento será mais elevada do que a taxa de degradação. Tal condição é ecologicamente insustentável.

Vamos usar o exemplo dos detergentes. Todos os fabricantes alegam que seus produtos são biodegradáveis; e efetivamente são. A questão importante é que quase todos os detergentes são lentamente biodegradáveis. Precisam de dias para se decompor. Entretanto, os sistemas biológicos de tratamento de esgotos operam com tempos de detenção na faixa de algumas horas, e não dias. Consequentemente, os detergentes passam direto pela grande maioria dos sistemas de tratamento e acabam prejudicando o ambiente mesmo sendo biodegradáveis.

Há vários ensaios de laboratório específicos para determinar a biodegradabilidade de substâncias orgânicas. O Método Respirométrico de Bartha avalia a degradabilidade de substâncias no solo. Há métodos analíticos específicos para avaliar a biodegradabilidade de tensoativos. Mesmo uma simples análise de DBO e de DQO pode indicar a velocidade da biodegradação da substância.

É preciso ficar claro. Uma empresa que busca um alto desempenho ambiental deve exigir ensaios de biodegradabilidade dos seus fornecedores de matérias-primas e insumos. Somente assim terá condições de decidir pela compra ambientalmente mais correta. Saber apenas se o produto é biodegradável não é suficiente.

O consumidor também deve exigir das empresas os ensaios que comprovam a velocidade da degradação de seus produtos alegadamente biodegradáveis.

Fonte: Luiz Carlos Porto, Eng., MSc.
Silva Porto Consultoria Ambiental

quarta-feira, 13 de outubro de 2010

Gerentes de Projetos


Próximo à virada deste século, eis que se destaca uma nova tendência na Administração Moderna, o Gerenciamento de Projetos. Devido ao fato da maioria das Empresas hoje se encontrarem em um momento de mudanças, seja na Reestruturação Organizacional, no lançamento de Novos Produtos, na implementação de um Software E.R.P., ou mesmo no Planejamento da Manutenção Preventiva, cada um destes eventos fora da rotina deveria ser visto como um Novo Projeto, que possui vários passos à serem programados, recursos à serem administrados, prazos que precisam ser cumpridos, e um caminho crítico (restrição) a ser conhecido. Não que o Gerenciamento de Projetos seja um assunto novo - não é - mas o fato é que este tema vem despertando o interesse de mais e mais profissionais e empresas em todo o mundo.

Por exemplo, na tendência de aumentarmos a utilização dos nossos recursos industriais, a Manutenção Preventiva, ou Planejada segue como a ferramenta mais adequada e eficáz nesta área. Como implementá-la sem enxergá-la como um Projeto ?  Como executá-la nos dias de hoje, utilizando-se do mínimo de recursos possíveis ? Como vender a idéia para a Direção da Empresa, sem mostrá-la como uma série de atividades sistêmicas e sincronizadas, que em sendo aplicadas e bem gerenciadas reduzirão os seus custos industriais ao invés de aumentá-lo com uma estrutura pesada e arcaica, como no passado?
 
Esta forma de se conduzir projetos não é uma onda passageira e provavelmente vai afetar a sua carreira, de alguma forma. Cada vez mais os profissionais serão expostos a condução de projetos, sem se esquecer da administração da rotina do dia a dia, caracterizando o cenário que temos encontrado em quase todas as Empresas no mundo.

Gradativamente, uma massa crítica de profissionais esta se qualificando com o perfil esperado pelas empresas para enfrentar estes novos tempos, repletos de ameaças e oportunidades. São os pioneiros empreendedores que implementam vantagens competitivas nas empresas, pessoas que “fazem acontecer”. São eles os modernos Gerentes de Projetos.

Você deve concordar comigo que diversas empresas, aqui no Brasil, fizeram muito bem seus “deveres de casa” - formalizando suas rotinas e demostrando disciplina - conforme propõe a série de normas ISO-9000. Agora, os próximos passos consistirão em sistematizar a implementação das inovações - dados os crescentes investimentos no Brasil - algo, digamos, “fora da rotina”. Alias, esta é uma das definições do conceito de Projeto, um conjunto de atividades que não fazem parte da “rotina”, gerando uma nova ordem nas coisas. Enfim, a questão toda se resume na conclusão de que realmente precisamos planejar e controlar melhor nossos projetos, como um empreendimento, que deve alcançar seus objetivos e gerar resultados efetivos.

As razões por trás do crescente interesse pelo tema, acreditamos, tem origem na exigência do mercado por empresas cada vez mais competitivas, rápidas e produtivas. Outro fator preponderante é a expressiva disseminação da tecnologia de informação e dos softwares específicos para gestão de projetos, que colaboram com a divulgação das soluções existentes.

A partir da percepção desta necessidade, a IMAM promoveu em maio passado o seminário de Gerenciamento de Projetos “Empreendendo o Futuro”, onde comprovamos o grande interesse das empresas pelos conceitos, experiências práticas, técnicas e ferramentas relacionados aos Processos (inicialização, planejamento, execução, controle e encerramento) e Áreas de competência (qualidade, escopo, custo, tempo, RH, aquisição, comunicação, riscos e integração).

Concluindo, existe muito trabalho a ser realizado para estruturar e sistematizar uma cultura de projetos nas empresas, e é por esta razão que uma abordagem sistematizada é fundamental. Norteando estes esforços, existem o PMBOK e a ISO-10.006, ambos diretrizes internacionais para o gerenciamento de projetos, inclusive atrelado a um processo de certificação destes profissionais.

Maiores informações: www.danielgasnier.com
Email: engenharia@engesv.com.br
Site: www.engesv.com.br

Fonte:
Título:
Tendência Emergente
Assunto:
Gerenciamento de Projetos
Autor:
Daniel Gasnier
Mídia:
Jornal do IMAM - Edição nº 7/98

terça-feira, 21 de setembro de 2010

Gestão de Riscos em Projetos

O objetivo de fazer um projeto é obter ou estabelecer algo novo, apostar, correr o risco. Projetos livres de riscos já foram realizados. Terminar tudo no prazo acertado, com o custo combinado e da forma como os clientes desejam é o que se espera de qualquer organização. Porém, garantir o sucesso dos projetos continua sendo notoriamente difícil. Saber lidar com os riscos é um fator decisivo para o sucesso ou fracasso do projeto. Para fazer decisões eficientes, é necessário ter mão nos riscos que o projeto enfrenta e claras estratégias para os tratar ou eliminar. Portanto risco é tudo o que pode estar entre nós e o sucesso, e que é atualmente incerto ou desconhecido.

Nem sempre é possível eliminar os riscos por completo, mas podemos nos esforçar para reduzir a probabilidade de que os riscos se concretizem, ou para mitigar as suas conseqüências negativas.

A Gestão de Riscos aplicada em projetos consiste na identificação, classificação e quantificação dos riscos, bem como na definição, planejamento e gerenciamento das ações de resposta a estes riscos.

Os principais benefícios da Gestão de Riscos são a minimização da probabilidade de eventos adversos aos objetivos dos projetos, ampliando assim as chances de sucesso destes. Fala-se também de "oportunidade" como o "risco com sinal trocado", isto é, evento incerto e futuro que pode ampliar o sucesso de um projeto. A Gestão de Riscos inclui a busca da maximização da probabilidade e consequência das oportunidades em Projetos.

O primeiro estágio na Gestão de Risco consiste em identificar os riscos. A identificação dos riscos consiste em determinar os riscos que podem afetar o projeto e documentar suas características. É de responsabilidade de cada participante do projeto, desde os executivos seniores até os membros da equipe, o pessoal de vendas e demais interessados diretos identificar os riscos que envolvem o projeto. Ao identificar os riscos, elimina-se o fator surpresa, aumentando assim a eficácia e a eficiência ao tratar as conseqüências. A identificação dos riscos é iterativa pois novos riscos podem ser conhecidos conforme o projeto se desenvolve e devem ser acompanhados durante todo seu ciclo de vida.

Os riscos podem ser identificados segundo uma estrutura analítica de riscos. Esta estrutura pode variar de acordo com a política da empresa ou de acordo com o tipo de negócio. Os riscos podem ser Técnicos (Requisitos, Tecnologia, Complexidade e Interfaces, Desempenho e Confiabilidade e Qualidade), Externos (Subcontratados e Fornecedores, Regulamentações, Mercado, Cliente, Clima), Organizacionais (Dependências do projeto, Recursos, Financiamento, Priorização), Gerenciamento (Estimativas, Planejamento, Controle, Comunicação) ou podem ser de outras naturezas não descritas aqui. O resultado desta identificação é um registro que contém uma descrição detalhada de todos os riscos identificados.

Como técnicas de identificação de riscos podemos citar brainstorming, checklists, relatórios de projetos já concluídos e a análise cuidadosa das premissas básicas que nortearam o planejamento inicial.

Após a identificação os riscos são analisados quanto a probabilidade de ocorrência dos eventos associados a esses riscos e o impacto que terão caso os mesmos se materializem. A avaliação precisa ser feita para as três principais dimensões dos riscos de projetos: escopo (qualidade), prazos e recursos (orçamento). O propósito da avaliação de riscos é priorizá-los quanto a sua criticidade.

O planejamento das respostas aos riscos é o processo de desenvolver opções e determinar ações para aumentar as oportunidades e reduzir as ameaças aos objetivos do projeto. As respostas deverão ser adequadas a sua importância.

Na fase de tratamento dos riscos, implantam-se medidas para evitar ou reduzir os riscos. Entre elas se incluem os planos de contingência, as ações para evitar os riscos, as medidas para minimizar os riscos, a transferência dos riscos para terceiros e a aceitação dos riscos.A prevenção de um risco envolve mudanças no plano de gerenciamento do projeto para eliminar a ameaça apresentada por um risco adverso, para isolar os objetivos do projeto do impacto do risco ou para flexibilizar o objetivo que está sendo ameaçado, como extensão do cronograma ou redução do escopo.Nem sempre os riscos podem ser eliminados por completo. Mas é possível mitigar, reduzindo a probabilidade e/ou impacto de um evento de risco adverso até um limite aceitável. A realização de ações para reduzir a probabilidade e/ou impacto de um risco é mais eficaz que reparar os danos após a ocorrência. Quando não for possível reduzir a probabilidade, uma resposta de mitigação poderá abordar o impacto do risco se concentrando nas ligações que determinam a gravidade.

Quando a equipe do projeto decidi não mudar o plano de gerenciamento do projeto para tratar um risco ou que não consegue identificar qualquer outra estratégia de resposta adequada, o risco é aceito pelo projeto e a estratégia de ação ativa mais comum é estabelecer reservas de contingências, inclusive recursos, tempo e dinheiro.

A transferência do risco exige a passagem do impacto negativo de uma ameaça para terceiros, juntamente com a propriedade de resposta. Esta transferência confere à outra parte a responsabilidade por seu gerenciamento, mas não elimina os riscos. A transferência de risco é mais eficaz quando está relacionada à exposição a riscos financeiros. Exemplo disso é se fazer um seguro relacionado ao risco identificado.

Os planos de contingência não controlam um risco diretamente, mas fornecem planos prontos para serem implementados após a ocorrência do risco. São um exercício muito útil, já que, segundo uma regra prática geralmente aceita, solucionar um problema depois que ele ocorre é dez vezes mais caro do que desenvolver um plano emergencial com antecedência.

O produto final do processo de análise e avaliação de riscos é um registro priorizado dos riscos, com atribuição de responsabilidades e a definição de planos de ação.

A gestão de riscos é essencial em todo o projeto, e se não for iniciada com a definição dos requisitos, pode criar grandes dissabores, quer a nível de expectativas de usuários, clientes e  gestores, quanto ás funcionalidades, quer a nível de budget, timing e qualidade do projeto.

Gestão De Riscos: Fator Decisivo Para O Sucesso Do Projeto publicado 8/03/2007 por Juliana Zanolli em http://www.webartigos.com


Fonte: http://www.webartigos.com/articles/1282/1/Gestao-De-Riscos-Fator-Decisivo-Para-O-Sucesso-Do-Projeto/pagina1.html#ixzz10C6tutZd

sexta-feira, 27 de agosto de 2010

CARRO MOVIDO A HIDROGÊNIO


Imagine um automóvel que funciona alimentado por uma fonte de energia tão limpa que o único resíduo que produz é vapor d'água. Parece sonho, mas já existem no mundo alguns protótipos desse veículo. Trata-se do carro movido a hidrogênio.
 

O único grande problema tecnológico que ainda precisa ser resolvido, para que sua produção em grande escala possa ser pensada, é uma forma segura e economicamente viável de armazenar o "combustível". Isso porque o hidrogênio é um gás altamente combustível e instável. Basta lembrar que o Zeppelin incendiou-se com hidrogênio gasoso e a Challenger explodiu a partir de seus tanques de hidrogênio líquido.

A solução tem grandes chances de nascer no Brasil, Para isso, a Coordenação de Programas de Pós-graduaçáo em Engenharia (Coppe) da Universidade Federal do Rio de Janeiro (UFRJ) está desenvolvendo, em parceria com a Renault, uma das mais promissoras linhas de pesquisa em curso no mundo: o "tanque" maciço, no qual os átomos de hidrogênio sáo "embutidos" dentro da estrutura atômica do metal, A parceria representa a primeira vez que a Renault transfere parte de sua pesquisa para fora da França.
 
Reações


O carro a hidrogênio não polui porque não queima combustível. Seu motor "arranca" energia elétrica do hidrogênio por meio de reações químicas limpas. Nesse automóvel, uma célula (ou pilha) combustível realiza o inverso da eletrólise, combinando átomos de hidrogênio e de oxigênio. 0 processo produz vapor d'água e uma corrente elétrica.


Além de limpo, o motor a hidrogênio é muito mais eficiente que os motores convencionais a explosão, usados hoje nos automóveis. Enquanto um motor elétrico transforma em energia mecânica (do movimento) quase 100% da energia que produz, um motor a explosão converte em energia de movimento menos de 30% da energia gerada pela queima do combustível.

Esse desperdício tem um preço bem alto: nos grandes centros urbanos, a queima de combustível por veículos responde por mais de 90% da poluição atmosférica e o gás carbônico é apontado como um dos maiores responsáveis pelo efeito estufa.

"O mais grave é que os motores a explosão estão no limite do seu desenvolvimento tecnológico, ou seja, praticamente não tem mais como melhorar sua eficiência", explica o engenheiro Paulo Emílio Valadão de Miranda, responsável pelo Laboratório de Hidrogênio da Coppe, um dos mais modernos do mundo, e coordenador das pesquisa a para o "tanque" sólido da Renault.

Vantagens

As vantagens do carro a hidrogênio são imensas, mas algumas dificuldades precisam ser vencidas para que possa substituir os Veículos convencionais. Os diferentes protótipos de veículos a hidrogênio que existem hoje (fabricados pela Renault, Toyota e Daimler-Benz) armazenam o combustível na forma gasosa ou líquida, o que, além de não ser completamente seguro, implica custos muito altos. [...]

Veja mais: www.fisicafacil.pro.br/hidrogenio.htm
Postado por: Simone Biehler Ntateos, O Estado de S. Paulo, 15 de julho de 1999