270
MANOEL ISIDRO DE MIRANDA NETO VII SEMINÁRIO FLUMINENSE DE ENGENHARIA Niterói Editora da Universidade Federal Fluminense 2011

Anais VII Seminário Fluminense de Engenharia - UFF 2011

Embed Size (px)

Citation preview

Page 1: Anais VII Seminário Fluminense de Engenharia - UFF 2011

MANOEL ISIDRO DE MIRANDA NETO

VII SEMINÁRIO FLUMINENSE DE ENGENHARIA

Niterói

Editora da Universidade Federal Fluminense

2011

Page 2: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

2

S471 Seminário Fluminense de Engenharia (7.: 2011 : Niterói, RJ) VII Seminário Fluminense de Engenharia / editor Manoel Isidro de

Miranda Neto – Niterói : Escola de Engenharia da Universidade Federal Fluminense, 2011.

270p.:il.

1 CD ISBN 978-85-228-0698-0

1. Engenharia – Pesquisa - Congressos. I. Escola de Engenharia da Universidade Federal Fluminense. II. Miranda Neto, M. I. III. Título.

CDD 620.0072

Page 3: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

3

Sumário

Prefácio ......................................................................................................................... 7 A comunicação como fator preponderante para o novo perfil do engenheiro ................ 8

Bárbara Marques Bianchini, Daylon Philippe Freitas e Fraga, João Carlos Reis Curvello, Johnny David Simões Madeira, Otávio Cordeiro Campos, Maria Elizabete Villela Santiago, Renata dos Santos Mendes.

A Escola de Engenharia da Universidade Federal Fluminense na perspectiva de uma universidade inovadora ............................................................................................... 14

Jeaninne de Campos Rennó, Sérgio Luiz Braga França, José Rodrigues de Farias Filho. A gestão do conhecimento na administração pública municipal: um estudo preliminar em secretarias de administração da região noroeste fluminense ...................................... 23

Walber Dias Arruda. A importância do artigo científico na engenharia: linguagem e normalização .............. 29

Aline Oliveira Rosa, Beatriz de Oliveira Ávila, Breno Augusto Silva Carvalho, Hana Camila Gomes Silva, Isabella Ribeiro Martins, Juliana Santos Moura, Luciana Duarte Oliveira, Romulo Duarte dos Santos, Thaísa Andrade Kelles, Maria Elizabete Villela Santiago, Renata dos Santos Mendes.

A legislação de saúde e segurança no trabalho aplicável aos servidores públicos das universidades federais brasileiras ............................................................................... 35

Celso Lima Bitencourt, Hilda Alevato. Ajuste de modelo de cobertura na faixa de 3,5 GHz para a orla de Icaraí ................... 41

Fabiano Carvalho dos Santos Assumpção, Felippe José Soares dos Santos, Leni Joaquim de Matos.

Análise da influência das cores na emissividade de superfícies no espectro do infravermelho .................................................................................................................................... 46

Selson Carias Gomes Júnior, Guilherme Gonçalves Dias Teixeira, Roberto Márcio de Andrade, Rafael Augusto Magalhães Ferreira, Henrique Eduardo Pinto Diniz.

Análise de desempenho de catalisadores de cobalto e cobre, suportados em sílica na decomposição de metano ........................................................................................... 53

Natália M. Esteves, André M. R. Souza, Lília F. C. Souza, Rosenir R. C. M. Silva, Fabio B. Passos.

Análise de fatores que contribuem para a redução no índice de evasão ..................... 59

Neuci Nobrega Canelas Costa Guimarães, Fernando B. Mainier, Rosenir Rita de Cássia Moreira da Silva.

Aperfeiçoamento da técnica de parâmetros concentrados para escoamentos em desenvolvimento térmico ............................................................................................. 67

Leandro Santos de Barros.

Page 4: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

4

Aplicação de redes neurais artificiais no diagnóstico de falhas em transformadores de potência ...................................................................................................................... 78

Caio Monteiro Leocádio, Vitor Hugo Ferreira. Avaliação da cinética de secagem da polpa e casca da banana para a velocidade de 2m.s-1

.................................................................................................................................... 84 Luciana P. Teixeira; José G. da Silva; Ednilton T. de Andrade; Angelo José L. Braz.

Avaliação da cinética de secagem da polpa e casca da banana para a velocidade de 3m.s-1

.................................................................................................................................... 89 Ednilton T. de Andrade; José G. da Silva; Luciana P. Teixeira; Angelo José L. Braz.

Avaliação da resistência à corrosão de anéis de aço ASTM A-36 para junção metálica de estacas de concreto para utilização submarina ........................................................... 94

R. S. P. Domingos, J. M. Pardal, S. S. M. Tavares, A. B. Salles, R. R. Pinheiro, F. B. Mainier, M. L. O. Medrano.

Avaliação dos processos de soldagem TIG e MIG em estruturas de alumínio 6082 T6 NBR 6834 .......................................................................................................................... 104

Ednilson Antonio Ribeiro Pimenta, Ronaldo Shiguemi Fujisawa, Ailton Roberto da Conceição. Desastres industriais: um alerta aos cursos de engenharia ....................................... 115

Fernando B. Mainier, Sabrina de Azevedo Faria, Matheus R. M. Signorelli, Marcus V. S. Silva, Carlos V. M. Inocêncio, Rafaela L. Santos de Souza.

Determinação da velocidade terminal dos grãos de pinhão-manso ........................... 121

Ednilton T. de Andrade, Jacqueline M. Brasil, Luciana P. Teixeira, Angelo José L. Braz, Neila S. Freixo, Patrícia M. de Araujo.

Determinação das propriedades físicas dos grãos de pinhão-manso ........................ 126

Ednilton T. de Andrade, Jacqueline M. Brasil, Luciana P. Teixeira, Angelo José L. Braz, Neila S. Freixo, Patrícia M. de Araujo.

Emprego catalítico do ouro e sua aplicação na oxidação seletiva de CO .................. 133

Luís Eduardo Terra, Fábio Barbosa Passos. Energia limpa: a energia solar no aquecimento de água ........................................... 142

João Carlos Curty Alves, Fernando B. Mainier, Reinaldo C. de Souza, Henrique Henriques. Engenharia química e mercado de trabalho: percepções discentes .......................... 148

Vicentina Lúcia da S. Cardoso, 2Fernando B. Mainier, 3Rosenir R. C. M. da Silva. Estado da arte de redes ópticas passivas ................................................................. 155

Leandro Codeço de Alvarenga Prazeres, Paula Brandão Harboe, José Rodolfo Souza. Estado da arte dos sistemas de controle de tráfego aéreo por radiodifusão .............. 161

Leonardo da Silva Paiva. Estimação de parâmetros elétricos de motores de indução trifásicos utilizando algoritmos genéticos ................................................................................................................... 167

Alex Palma Francisco Coelho, Vitor Hugo Ferreira e Márcio Zamboti Fortes. Fortaleza fora dos trilhos ........................................................................................... 173

Juscelino Chaves Sales, Clint Walton Siebra.

Page 5: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

5

Fotobiorreatores para processamento de microalgas ................................................ 183 Alexsandro Bona, Daniel Machado Thomaz, Felipe Cardoso Chicralla, Fernando Maia de Magalhães Senna, Fabio Barboza Passos.

Interdisciplinaridade na Universidade Federal Fluminense: possibilidades de desenho industrial e engenharia .............................................................................................. 188

João Carlos Lutz Barbosa, Regina Celia de Souza Pereira. Métodos de controle de odor em estações de tratamento de efluentes ..................... 193

Caldas Priscila Furghieri Bylaardt, Fernandes Lisiane Heinen. Monitor de potência óptica para uso permanente num enlace de comunicação por fibra óptica ........................................................................................................................ 199

Taiane Alvarenga Menandro Garcia de Freitas, Ricardo Marques Ribeiro, Paulo Sérgio Travassos do Carmo Cyrillo, Andrés Pablo López Barbero, Odair da Silva Xavier, Wagner da Silva Zanco.

O design e o emprego de materiais alternativos: uma abordagem na indústria de confecção .................................................................................................................................. 203

Luiza Helena Boueri Rebello. O impacto da introdução da portabilidade numérica sobre o churn das operadoras de telefonia móvel brasileiras ......................................................................................... 210

Gustavo de Castro Brantes, Sandra Regina Holanda Mariano. O plano nacional de banda larga e suas metas ......................................................... 215

Luiz Fernando Taboada. Padrões de consumo de água: análise da influência de características das edificações multifamiliares no dimensionamento de seus reservatórios ....................................... 221

Jeferson Luiz Schmidt, Dieter Wartchow, Carin Maria Schmitt. Predição de cobertura de sistemas worldwide interoperability microwave access (WiMAX) .................................................................................................................................. 227

Matheus Bernardes de Moura, Leni Joaquim de Matos. Projeto conceitual de rede para captura e sequestro de carbono no Estado do Rio de Janeiro .................................................................................................................................. 233

Tiago Machado de Souza Jacques. Proposta de síntese de circuitos reversíveis .............................................................. 243

Roberto Sampaio, Luis Antonio Kowada, Andre da Cunha Ribeiro. Saneamento rural: uma visão segundo o panorama do saneamento básico no Brasil 249

Anna Virgínia Muniz Machado, Ana Carolina Mendes Guedes, Andressa de Azevedo Souza, Lennon Queiroz, Ricardo Franklin Pineda Britto.

Síntese e análise faixa estreita do sinal rádio móvel: aplicação a ambiente de vegetação .................................................................................................................................. 254

Fabio Mainart da Silva, Renan Luiz Pereira, Rener Camara Lima Nogueira, Leni Joaquim de Matos.

Telemedicina no contexto brasileiro: avaliações e resultados.................................... 260

Leonardo Severo Alves de Melo, Alessandro Severo Alves de Melo, Julio Cesar Dal Bello, Eduardo Rodrigues Vale.

Page 6: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

6

Visão crítica da remoção ultrassônica aplicado a efluentes industriais ...................... 265 Antonio Carlos Moreira da Rocha, Fernando B. Mainier, Carlos Henrique Figueiredo Alves.

Page 7: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

7

Prefácio

A engenharia é uma ciência e também uma arte. Para alguns é mais uma arte que uma ciência. Embora o termo engenharia seja recente, desde a antiguidade o conceito da engenharia estava associado às invenções fundamentais, aos princípios básicos da mecânica e ao desenvolvimento de ferramentas. A etimologia do termo engenharia está ligada ao engenho e a genialidade.

A abordagem científica das atividades e dos processos que envolvem a engenharia iniciou há poucos séculos com o estudo e compreensão de fenômenos físicos, químicos, climáticos e biológicos. Mais recentemente, outros conhecimentos de natureza econômica, social e ambiental foram sendo incorporados ao exercício da engenharia. O que parecia ser apenas arte, o gênio de fabricar ferramentas, inventar mecanismos e edificar, foi sendo aperfeiçoado com o progressivo conhecimento.

Existe uma técnica básica entre conceber e executar que alia o espírito da concepção com a ciência da materialização do engenho. A concepção não é apenas arte, requer alguma técnica, e a execução não é apenas um processo técnico, exige muitas vezes criatividade. Hoje, praticar engenharia é trabalhar com conhecimentos de diversas áreas. Com o desenvolvimento das técnicas de disseminação da informação, esse conhecimento começa a ficar ao alcance de todos. A engenharia está cada vez mais interdisciplinar e difusa.

O Seminário Fluminense de Engenharia tem o propósito de contribuir com a disseminação do conhecimento da engenharia. Embora a maioria dos trabalhos reunidos seja de origem ou natureza acadêmica, nosso seminário não está restrito a apenas o ambiente da academia. Nessa sétima edição do seminário temos trabalhos de universidades, institutos e empresas de diversos estados do Brasil envolvendo as áreas de engenharia agrícola, civil, elétrica, mecânica, meio ambiente, produção, química, telecomunicações, desenho industrial e administração escolar. Essa diversidade de origens contribui para que o seminário obtenha um caráter nacional.

A presente publicação constitui os anais do VII Seminário Fluminense de Engenharia, com os trabalhos apresentados pelos respectivos autores, nas áreas mencionadas. Esses trabalhos estão organizados por ordem alfabética dos títulos, independente das áreas de interesse. Espera-se que proporcionem contribuição ao conhecimento e a evolução da engenharia no limiar deste novo século.

Convém lembrar que a responsabilidade e o mérito de cada um dos trabalhos aqui publicados compete aos autores dos respectivos artigos.

Agradecimentos à Direção da Escola de Engenharia por ter proporcionado os meios para a realização desse seminário, aos autores pela apresentação de trabalhos e ao corpo técnico pela revisão efetuada.

Niterói, em 19 de outubro de 2011. Manoel Isidro de Miranda Neto, Editor.

Page 8: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

8

A comunicação como fator preponderante para o novo perfil do engenheiro

1Bárbara Marques Bianchini, 1Daylon Philippe Freitas e Fraga, 1João Carlos Reis Curvello, 1Johnny David Simões Madeira, 1Otávio Cordeiro Campos, 2Maria Elizabete Villela Santiago, 2Renata dos

Santos Mendes 1Universidade Federal de Itajubá - campus Itabira (Unifei - Itabira)

Itabira, MG, Brasil 2Coautoras; Universidade Federal de Itajubá – campus Itabira (Unifei – Itabira)

Itabira, MG, Brasil

[email protected], [email protected], [email protected], [email protected], [email protected], [email protected],

[email protected]

RESUMO

O objetivo deste artigo é discutir a necessidade de a língua portuguesa atuar como subsídio para aprimoramento do novo perfil do engenheiro. O uso correto da comunicação tem sido um dos principais fatores para satisfazer as demandas do mercado atual. Apresentam-se, ainda, algumas mudanças ocorridas com esses profissionais, decorrentes de alterações organizacionais na sociedade de maneira geral. O estudo em questão foi realizado por meio de pesquisa bibliográfica e aborda, em suas seções, os seguintes tópicos: o engenheiro como responsável pelo desenvolvimento da sociedade e o uso da linguagem no ambiente profissional do engenheiro. Conclui-se que, atualmente, não se visa apenas ao profissional com conhecimentos técnicos, mas que saiba argumentar sobre questões de âmbitos social, econômico, ambiental e até político. O engenheiro, por sua vez, deve-se preocupar com questões políticas, econômicas e, acima de tudo, com a responsabilidade social, tornando compreensíveis as suas considerações. E, por fim, que tenha domínio do processo de comunicação como meio para aprimoramento do novo perfil do engenheiro de que a sociedade necessita.

Palavras-Chave: Perfil. Engenheiro. Comunicação. Atualidade.

1. INTRODUÇÃO

A sociedade passa por constantes transformações e, em virtude disso, cada indivíduo tem de se adaptar aos novos padrões. Paralelamente, é perceptível que o perfil profissional vem sofrendo grandes mudanças, exigindo proatividade, preocupação com a empresa e a comunidade, em detrimento à pura aplicabilidade de conhecimentos técnicos.

Consequentemente ocorre a necessidade de se questionar frequentemente quais as expectativas do mercado de trabalho, ou seja, o que as empresas, ou mesmo a comunidade, esperam dos profissionais.

Este artigo aborda a importância atual de dominar a língua e a linguagem para se atingir essas expectativas bem como analisa os impactos das alterações sociais, políticas e econômicas no papel do engenheiro, até o período atual, marcado pela grande revolução tecnológica que estabeleceu um marco divisor na vida de tantos, senão todos profissionais, entre eles o engenheiro, com a imensa disseminação da comunicação em amplitude global.

Essa abordagem se justifica pelo fato de muitas vezes os profissionais das áreas exatas não se preocuparem com o domínio da língua e, portanto, estarem mais vulneráveis às falhas na comunicação, sejam internas ou externas.

2. O ENGENHEIRO E A SOCIEDADE

Page 9: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

9

A sociedade passou por diversas transformações até atingir o nível de desenvolvimento e complexidade atual. Isso só foi possível devido ao fato de o ser humano ser um animal racional, dotado com a habilidade de modificar o meio em que vive ao seu favor. Durante esse processo de transformação, alguns fatos são marcantes, podendo ser encarados como avanços tecnológicos, pois demonstram um avanço na técnica dominada pelos seres humanos até aquele momento.

Avanços tecnológicos que possibilitaram a evolução da sociedade ao longo do tempo são: o controle do fogo, o domínio da técnica de fundição dos metais e polimento de pedras, a domesticação de animais, novas técnicas de agricultura, descobrimento da roda e alavanca, a imprensa e mais recentemente avanços na área da robótica, por exemplo.

Entretanto, isso só foi possível devido ao surgimento de um profissional que se preocupa com o seu aprimoramento e com o desenvolvimento de técnicas (BAZZO; PEREIRA, 2008). Ainda, segundo os autores, na história recente da sociedade, esse desenvolvimento se deve a um novo tipo de intelectual que possui base educacional técnica e íntima relação com o desenvolvimento tecnológico: o engenheiro.

Assim, pode-se perceber que a evolução da humanidade também é possível porque a sociedade se altera por influência dos indivíduos que nela vivem, pois estes são capazes de interagir com ela e modificá-la. Ao mesmo tempo, a sociedade obriga esses indivíduos que nela vivem a modificar-se, para que estes possam atender as novas demandas impostas pela sociedade que eles mesmos modificaram, estabelecendo-se um ciclo: um processo dinâmico em que os indivíduos transformam a sociedade e esta, por sua vez, o transforma, estando todos em constante evolução. Diante disso, pode-se dizer que, assim como outros profissionais, o engenheiro contribui, em grande parcela, com o desenvolvimento da sociedade.

2.1. O PAPEL DO ENGENHEIRO INFLUENCIADO PELAS MUDANÇAS NA SOCIEDADE

A cada mudança ocorrida na sociedade, o papel dos indivíduos que a compõem se modifica, não sendo diferente para os engenheiros. Inicialmente este atuava de forma sistêmica e empírica, mas, com a chegada da Revolução Industrial, os conhecimentos científicos passaram a fazer parte da atuação deste profissional.

Uma nova política de formação de engenheiros foi gerada pela expansão industrial, admitindo-se uma diversidade de especializações nessa profissão, fragilizando a prática de um conhecimento mais generalista. Evidência disso está na intensificação e aprofundamento da ideia de uma ciência aplicada aos problemas concretos a partir da década de 30. (LAUDARES; RIBEIRO, 2000).

Com o advento da terceira revolução industrial, mais mudanças ocorreram, porém estas foram marcadas principalmente pelo grande avanço da indústria de informática e da microeletrônica e consequentemente da comunicação, em escala global. Percebe-se, a partir daí, o surgimento de uma nova ordem mundial que afetou diretamente o engenheiro devido ao desdobramento da cadeia produtiva e à forte tendência de terceirização de serviços. Isso resultou na eliminação e na criação de muitas hierarquias intermediárias, além de relacionamentos, o que, consequentemente, afetou vários trabalhadores, dentre eles os engenheiros.

Uma dessas conseqüências é o aumento das exigências e tarefas do profissional da engenharia, já que o mercado de trabalho passou a demandar atividades mais diversificadas deste, a saber: domínio de informações tecnológicas, conhecimentos de informática, administração, capacidade de inovação, domínio de diversas línguas, capacidade de comunicação e atualização contínua, além de conhecimentos de coordenação de atividades terceirizadas e avaliação de trabalhos em geral.

A microeletrônica, a informática e a robótica, ao mesmo tempo em que auxiliam o trabalho dos engenheiros, exigem destes uma maior qualificação. Isso se agrava com a

Page 10: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

10

rápida evolução da tecnologia e disseminação do conhecimento, ocasionados pela globalização, pois a tecnologia torna-se obsoleta em intervalos de tempo cada vez menores, exigindo que os profissionais de engenharia busquem por atualizações de forma ainda mais frequente.

Portanto, para corroborar com essa atuação exigida pela sociedade, o engenheiro deve se capacitar constantemente, tendo em vista que a formação inicial dos novos profissionais deve compreender uma pluralidade de aspectos não simplesmente técnicos, como antes, mas também relacionados com os âmbitos social, econômico e político.

2.2. INTERFERÊNCIAS NO PERFIL DO ENGENHEIRO

A globalização e a nova ordem econômica vigente passaram a exigir do profissional da engenharia uma maior pluralidade e versatilidade dentro da empresa; diante disso, é lógico pensar que ele necessita incorporar ao seu perfil profissional habilidades antes não consideradas.

O engenheiro, ao longo do tempo, passou a ser idealizado pela sociedade como um profissional hábil a conviver com mudanças e, principalmente, comprometido e capacitado para atuar de forma efetiva no seu desenvolvimento. Com isso, ele adquire, junto ao mercado de trabalho, uma posição vista como indispensável para o crescimento social.

Entretanto, com as mudanças ocorridas nos setores socioeconômicos, tanto as organizações quanto os profissionais que nelas trabalham veem-se obrigados a se adequarem ao novo cenário. Assim, a sociedade passou a exigir do engenheiro não somente um comprometimento com o desenvolvimento desta, mas um desenvolvimento responsável, levando-se em consideração impactos ambientais, sociais, econômicos e políticos. Como consequência, os empregadores passaram a exigir do engenheiro a capacidade de comunicar à sociedade como seu trabalho está sendo desenvolvido, considerando-se os impactos ocasionados e a minimização destes. São qualidades desejáveis para esse profissional: possuir e empregar os conhecimentos objetivos, conhecer as relações humanas, realizar experiências, saber comunicar-se (por escrito e oralmente), trabalhar em equipe, buscar o aperfeiçoamento contínuo e ter ética profissional (BAZZO; PEREIRA, 2008).

Atualmente, é prática corriqueira do engenheiro emitir laudos técnicos bem como ter um conhecimento generalizado sobre todas as áreas da empresa, especialmente finanças, marketing e relações profissionais, sendo ainda mais importante que ele tome conhecimento da necessidade de uma educação continuada, ou seja, que ele procure aprimorar-se de forma independente de instituições.

Essa pluralidade exigida do engenheiro baseia-se em suas múltiplas tarefas. Liderar um grupo de pessoas, estabelecer contato com um cliente, emitir relatórios e ministrar palestras são exemplos de suas atribuições. Antigamente, a maioria dessas tarefas não cabia aos engenheiros, mas cada vez mais esses profissionais se veem trabalhando de forma multidisciplinar.

O perfil de um engenheiro que, geralmente, é esperado pelas empresas segue alguns parâmetros, a saber: capacidade de trabalhar em equipe, ter ética, saber aplicar o conhecimento técnico da área, administrar mudanças, ser líder, saber negociar, administrar situações estressantes, saber decidir, empreender, trabalhar em equipe, comunicar-se (inclusive na língua inglesa) e dominar a informática (NOSE; REBELATTO, 2001).

É destacado, ainda, que, além desses parâmetros, a sociedade, de uma forma geral, espera que os engenheiros estejam conscientes do seu papel e dos impactos que seu trabalho acarreta ao meio ambiente, estando aptos para minimizá-los, por meio da responsabilidade social (NOSE; REBELATTO, 2001), cuja noção engloba os benefícios que as empresas devem proporcionar à sociedade, a realização profissional dos empregados, a promoção de benefícios aos parceiros, a preservação do meio ambiente e o retorno aos

Page 11: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

11

investidores, de forma clara e transparente quanto aos objetivos e compromissos éticos da empresa (INSTITUTO ETHOS, 2007).

Portanto, pode-se perceber que o engenheiro possui atribuições mais diversificadas, sendo necessário que esse profissional desenvolva a capacidade de perceber quais são as novas exigências impostas sobre ele e procure incorporá-las ao seu perfil.

3. A LÍNGUA E A LINGUAGEM NA SOCIEDADE

A língua tem a função de socializar as pessoas, transmitindo as mensagens de forma que os interlocutores entendam o que estejam compartilhando, ou seja, desenvolvam um processo interlocutório. Ela proporciona a interação entre o indivíduo e o mundo real (MILANI, 2008), além de ter o papel primordial de auxiliar a formação do pensamento.

Dessa forma, pode-se considerar que a comunicação será eficaz a partir do momento em que o indivíduo conseguir se expressar, seja pela linguagem escrita, oral, multimodal (uso de imagens associado ou não à linguagem verbal) ou de sinais, no caso dos deficientes auditivos. Sendo a língua, em qualquer forma, a instância que permite estruturar o pensamento, pode-se dizer que o indivíduo que melhor se comunica é o que possui o maior domínio dela e consegue aplicá-la de forma mais eficaz. Logo, o homem, para se comunicar e interagir com o meio em que vive, deve ter domínio da linguagem (verbal e não-verbal), que seria utilizar os elementos da língua como meio de comunicação.

Pode-se dizer, pois, que é intrínseco do ser humano a capacidade e, especialmente, a necessidade de se comunicar. Logo, a criação da língua - signo e significantes - ocorreu como uma forma de viabilizar esta necessidade.

3.1. A LÍNGUA E A LINGUAGEM COMO FERRAMENTA PARA ATINGIR O PERFIL DO ENGENHEIRO ATUAL

Hoje, apesar de existirem muitas formas de obter informações e conhecimentos, nem sempre as pessoas comunicam-se efetivamente; existe grande diferença entre comunicação e informação. Numa empresa isso não é diferente. Muitas informações são produzidas e causam impacto na vida dos funcionários, mas nem sempre geram mudanças de atitudes, ou ainda, causam confusão porque não foram divulgadas da forma adequada. Outras informações sequer chegam aos verdadeiros destinatários porque um gestor não identificou a essência comunicativa de determinado fato. Nesse contexto, percebe-se o valor da comunicação interna numa organização.

Por comunicação interna entendem-se as interações, os processos de trocas, os relacionamentos dentro de uma empresa ou instituição, responsáveis por fazer circular as informações e conhecimentos, sejam verticalmente - da direção para os níveis subordinados - ou horizontalmente - entre os empregados de mesmo nível de subordinação. Esse tipo de comunicação é próprio da área empresarial, a qual faz uso da linguagem técnica com características próprias, dentre as quais se destaca a comunicação objetiva, cuja padronização valida o trabalho do redator, que faz uso da norma culta, apresentando clareza, correção e adequação do vocabulário à área de atuação (NADÓLSKIS, 2010).

Analisando-se a importância da comunicação para o funcionamento de um empreendimento, é lógico pensar que os empregadores tenham preferências por profissionais que estejam aptos a se comunicarem de forma eficaz, seja na modalidade escrita ou oral.

Levando-se em consideração a discussão feita sobre língua e linguagem, pode-se dizer que neste novo mercado de trabalho, cujas mudanças ocorrem de forma rápida e integrada, os profissionais que saem na frente são os que possuem a capacidade de assimilar novas informações de maneira rápida e eficiente e transmiti-las de forma satisfatória, contribuindo para a modernização e desenvolvimento da empresa. Na verdade,

Page 12: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

12

o profissional eficiente aplica seus conhecimentos, pesquisa constantemente e expressa eficazmente as ideias e resultados do seu trabalho (BAZZO; PEREIRA, 2008).

Logo, expressar-se, de forma segura e clara, é ferramenta, hoje, indispensável às qualificações de um engenheiro. Na verdade, esse profissional atua diretamente no desenvolvimento tecnológico das empresas em que trabalha, sendo responsável por transmitir as novidades aos demais trabalhadores e incorporá-las ao sistema produtivo.

Considerando o perfil mencionado, percebe-se que não é apenas na comunicação interna que o engenheiro deve dominar a língua e a linguagem. Cada vez mais os engenheiros devem estar aptos para fazer negociações e empreender (NOSE; REBELATTO, 2001). Assim sendo, esse profissional deve sair da universidade com a capacidade de desenvolver um raciocínio lógico de forma ordenada e clara, e, então, transmitir este raciocínio para o papel ou socializá-lo de forma que suas ideias empreendedoras sejam bem compreendidas e executadas. Deve, ainda, ser capaz de expor o seu ponto de vista a fim de realizar negociações e, neste contexto, precisa ser capaz de usar a língua como um instrumento para compreender a proposta do outro e articular respostas.

4. CONSIDERAÇÕES FINAIS

Desde o início, este texto objetivou apresentar, de forma sucinta, as mudanças ocorridas na sociedade, bem como suas influências, para que um novo perfil do engenheiro fosse traçado e como a aplicação da língua e linguagem contribui para alcançar este perfil. Pretendeu-se, também, mostrar que as novas habilidades exigidas pela sociedade e empregadores são quesitos para se manter no mercado de trabalho que se encontra cada vez mais dinâmico e exigente, cuja discussão se mostra de fundamental importância para a carreira dos engenheiros.

Para os acadêmicos que pretendem se tornar engenheiros, é primordial que o uso da linguagem seja bem desenvolvido e assimilado, no intuito de que estes, durante a vida acadêmica, agreguem as habilidades que futuramente lhes serão necessárias como também estejam atentos às modificações da sociedade e suas influências em um novo perfil profissional.

Outro ponto relevante é destacar a importância de se desenvolver na universidade a capacidade de comunicar-se, pois é neste espaço que eles terão a oportunidade de aprender com os próprios erros e se prepararem para assumir uma carreira profissional sabendo utilizar, de forma eficiente, tanto a comunicação interna quanto a externa.

5. REFERÊNCIAS

BAZZO, W. A.; PEREIRA, L. T. V. (2008). Introdução à Engenharia: conceitos, ferramentas e comportamentos. 2. ed. Editora da UFSC, Florianópolis, 270 p.

INSTITUTO ETHOS. (2007) Indicadores Ethos de Responsabilidade Social Empresarial. São Paulo. Disponível em:

<http://www.ethos.org.br/docs/conceitos_praticas/indicadores/temas/valores.asp>. Acesso em: 9 ago. 2011.

LAUDARES, J. B.; RIBEIRO, S. (2000). Trabalho e formação do engenheiro. Revista Brasileira de Estudos Pedagógicos vol. 81 (199), Brasília, DF, 491-500. Disponível em: <www.rbep.inep.gov.br/index.php/RBEP/article/view/135/135>. Acesso em: 30 maio 2011.

MILANI, S. E. (2008). Historiografia Linguística: Língua e Linguagem. Revista UFG, ano 10 (5), Goiânia, 123-129. Disponível em: <http://www.proec.ufg.br/revista_ufg/dezembro2008/>. Acesso em: 2 jun. 2011.

Page 13: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

13

NADÓLSKIS, H. (2010). Comunicação redacional atualizada. 12. ed. rev. e atual. segundo as regras do acordo ortográfico. Saraiva, São Paulo, 278 p.

NOSE, M. M.; REBELATTO, D. A. N. (2001). O Perfil do Engenheiro segundo as Empresas. In: CONGRESSO BRASILEIRO DE ENSINO DE ENGENHARIA, 29., 2001, Rio Grande do Sul. Anais... Rio Grande do Sul: Pontifícia Universidade Católica do Rio Grande do Sul. p. 25-30. Disponível em: <www.pp.ufu.br/Cobenge2001/trabalhos/DTC007.pdf>. Acesso em: 2 jun. 2011.

Page 14: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

14

A Escola de Engenharia da Universidade Federal Fluminense na perspectiva de uma universidade inova dora

1Jeaninne de Campos Rennó; 2Sérgio Luiz Braga França; 3José Rodrigues de Farias Filho 1,2,3 Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected]

[email protected] [email protected]

RESUMO

O presente trabalho pretende refletir sobre as relações estabelecidas, na atualidade, entre a Escola de Engenharia da Universidade Federal Fluminense e o mercado produtivo nacional, efetivadas por meio de contratos de parcerias com empresas públicas e privadas, com vistas ao oferecimento de atividades de ensino, pesquisa e extensão por meio de seus laboratórios e núcleos de pesquisa. Com base no pressuposto de que, no atual momento, a Escola de Engenharia, no contexto da própria UFF, tem se destacado por atuar academicamente em consonância com essa tendência, cada vez mais evidente na contemporaneidade, de aproximação entre a Universidade e o mercado, procura-se compreender essa sua postura como indicadora da adoção de uma perspectiva universitária inovadora, justificando, portanto, a análise de seu caso como de interesse para contribuir com as discussões a respeito dos caminhos trilhados pela universidade brasileira hoje. Para tornar mais concreta a reflexão proposta, toma-se, aqui, como elemento central de análise, um profícuo núcleo de estudos e pesquisas desta Escola, a fim de demonstrar, de maneira mais objetiva, a natureza e os propósitos que motivam a atuação da Escola de Engenharia da UFF.

Palavras-chave: Universidade Brasileira; Universidade Inovadora; Universidade Federal Fluminense; Escola de Engenharia; Núcleo de Estudos e Pesquisas.

1. INTRODUÇÃO

A Escola de Engenharia da UFF, por força de sua identidade vocacional, possui, desde sua fundação, objetivos que incluem a adoção de uma grade curricular estruturada de acordo com princípios de formação profissional à altura da demanda conjuntural da época, com vistas ao desenvolvimento nacional (BARROS, 2002).

Na atualidade, esses objetivos recebem os influxos das transformações por que vem passando a sociedade brasileira nos últimos tempos e que vêm ocasionando mudanças significativas nas universidades públicas, principalmente aquelas relacionadas às suas relações com o mercado e a iniciativa privada. Tal situação vem gerando um debate muitas vezes tenso no interior do ambiente acadêmico, resultando numa questão que tem tomado contornos políticos de cisão e polarização.

Entretanto, no caso da Escola de Engenharia da UFF, ao se considerarem os caminhos pelos quais passou e passa a educação superior no Brasil, é possível compreender que a sua adesão (e de diversas outras unidades de ensino superior públicas) ao modelo educacional classificado como “inovador” justifica-se em função de uma necessidade de sobrevivência, de procurar manter os objetivos a que desde o início se propôs, recorrendo, por isso, na atualidade, às parcerias com as empresas públicas e privadas.

Page 15: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

15

Nessa perspectiva e, buscando elucidar a trajetória desenvolvida pelas universidades públicas brasileiras ao longo de todo esse processo histórico, o presente artigo, tomando como referência a Escola de Engenharia da UFF, tem como objetivo geral identificar as diretrizes inovadoras assumidas por esta unidade de ensino superior nos dias atuais, sendo estruturado estudo de caso que abordará as atividades de ensino, pesquisa e extensão desenvolvidas em um de seus núcleos de estudos e pesquisas.

2. METODOLOGIA

Dentro do universo a ser pesquisado, correspondendo aos diversos laboratórios e núcleos de estudos e pesquisas integrantes da estrutura da Escola de Engenharia, será destacado, como amostra, um núcleo de estudos e pesquisas que desenvolve projetos e cursos de extensão - em nível de pós-graduação [especialização e MBAs (Master in Business Administration)], bem como projetos de pesquisa.

Não obstante possuir a Escola de Engenharia diversificada oferta de cursos e projetos de pesquisa e extensão, por meio de setores específicos vinculados a sua estrutura organizacional, estes, de forma geral, o fazem direcionados a uma oferta específica – alguns desenvolvem apenas cursos de especialização; outros, oferecem cursos de mestrado e especialização, e alguns atuam preponderantemente em projetos de pesquisa e extensão. Assim sendo, o Núcleo destacado para o presente estudo, que, doravante, será denominado Núcleo de Estudos e Pesquisas (NEP), recebeu essa preferência, tendo em vista apresentar uma estrutura funcional que abrange todas as áreas de interesse voltadas a essa oferta, como já mencionado anteriormente.

A metodologia utilizada para o desenvolvimento deste artigo foi o estudo de caso, por ser esta uma ferramenta investigativa que busca a identificação de fenômenos contemporâneos individuais, organizacionais, sociais, políticos e de grupos, entre outros (YIN, 2005). Considerando ainda que os meios de investigação não são mutuamente excludentes (VERGARA, 2009), simultaneamente ao método do estudo de caso foram utilizadas pesquisas bibliográfica, documental e de campo, como elementos que podem esclarecer a ambiência de atuação da Escola de Engenharia da UFF. A pesquisa bibliográfica valeu-se de livros e trabalhos acadêmicos que abordam sobre o processo histórico da educação superior no Brasil e que apresentam fundamentações conceituais de diretrizes inovadoras adotadas pelas universidades públicas brasileiras. A pesquisa documental foi elaborada com base em sites, preponderantemente, em função da recentidade do assunto, e também a partir do levantamento de informações e documentos relacionados ao núcleo objeto do estudo de caso. A pesquisa de campo foi realizada com base em informações fornecidas pela equipe integrante do núcleo pesquisado, por meio de entrevistas.

Após descrição das atividades do Núcleo de Estudos e Pesquisas (NEP), objeto do estudo de caso, e sua correspondência com conceitos de Universidade Inovadora, sob a perspectiva do empreendedorismo em apoio às atividades acadêmicas de ensino, pesquisa e extensão, espera-se, como resultados a serem alcançados, elucidar ao leitor não só o perfil acadêmico da Escola de Engenharia da UFF, como também fundamentar conceitualmente esse perfil – direcionado, preponderantemente, à capacitação de excelência de seu corpo discente, para fazer frente às exigências de competência profissional diferenciada impostas pela sociedade contemporânea, e ao atendimento especializado demandado pelo setor produtivo nacional.

3. UNIVERSIDADE INOVADORA

Schmitz, Bernardes e Wolf (2008) conceituam Universidade Inovadora como aquela que busca a inserção social por meio do atendimento às demandas advindas da necessidade de capacitação profissional sofisticada e da inovação tecnológica, colocando-a institucionalmente a serviço dos interesses da sociedade contemporânea.

Page 16: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

16

Nesse sentido, conforme constata Santos (2005), a transição sofrida pela universidade, a partir das últimas décadas do século XX, gerada pelo fenômeno da globalização, promoveu, de fato, um impacto de opiniões e conceitos em seu interior. Ressalta, nesse aspecto, a década de 1990, a partir da qual a universidade pública passou a ser severamente desafiada, pela significativa alteração havida nas relações entre conhecimento e sociedade, a ponto de transformar a ambos em termos conceituais. Isto porque, até então, o conhecimento produzido na universidade era “predominantemente disciplinar” (p.155), isto é, descontextualizado ante as reais necessidades da sociedade, podendo a autonomia do investigador traduzir-se “numa certa irresponsabilidade social deste ante os resultados da aplicação do conhecimento” (p. 156). Porém, a partir dos anos 1990, o conhecimento universitário passou a adotar outro perfil, isto é, o de “um conhecimento contextual, na medida em que o princípio organizador da sua produção é a aplicação que lhe pode ser dada” (2005, p.156).

Em 1996, Henry Etzkowitz propôs um novo modelo, buscando viabilizar um padrão de ligações nos vários estágios do processo de inovação e ainda caracterizar a interação entre a Universidade, a Indústria e o Governo, o modelo Triple Helix – ou seja, uma “hélice tríplice”, de configuração espiral, onde haja também um fluxo reverso da indústria para a academia, integrando ciência, tecnologia e desenvolvimento econômico (Apud RIBEIRO; ANDRADE, 2008).

Segue-se a essa transformação, o que alguns estudiosos denominaram de “Segunda Revolução Acadêmica”, consistindo na interligação das atividades de ensino e pesquisa, desenvolvidas na Universidade, com as demandas advindas do desenvolvimento econômico, local e regional (BRISOLLA et al., 1997), redundando no seu fortalecimento e, portanto, no resgate de sua importância social.

No Brasil, a universidade se deparou com o desafio de responder à queda dos recursos advindos do financiamento público, o que a levou a redefinir seus objetivos estratégicos e a reestruturar-se para um novo ambiente. Assim, muito apropriadamente, Brisolla et al. (1997), apoiados em vários estudiosos do assunto, elencam razões que estimularam a aproximação entre Universidade e Empresa, quais sejam: o Aumento crescente dos custos de pesquisa e desenvolvimento, tanto para as empresas

industriais quanto para as universidades; o Redução dos recursos governamentais para a pesquisa universitária, estimulando os

pesquisadores a procurarem novas fontes de apoio; o O surgimento, nos anos 1980, de novo paradigma científico, no sentido da aproximação

entre inovação e aplicação tecnológica; o A busca por maior interdisciplinaridade e pelo enfoque globalizado para as soluções dos

problemas industriais, intensificando a colaboração entre diferentes agentes econômicos e a estruturação de redes e consórcios.

4. ESTUDO DE CASO

4.1 A ESCOLA DE ENGENHARIA DA UNIVERSIDADE FEDERAL FLUMINENSE

Fundada em 1952, através da lei nº 1741, de 31/10/1952, então como Escola Fluminense de Engenharia, passou a sua denominação atual a partir de 1965, quando, através do Decreto nº 4.759, a então Universidade Federal do Estado do Rio de Janeiro (UFERJ) passou a denominar-se Universidade Federal Fluminense (UFF), congregando, já de início, diversos estabelecimentos isolados de ensino em funcionamento à época na cidade de Niterói, entre os quais a Escola de Engenharia (ANTUNES, 2008).

Dotada de uma ampla estrutura acadêmica integrada por dez cursos de graduação, nove cursos de pós-graduação stricto sensu (sendo três cursos de doutorado, cinco cursos de mestrado acadêmico e um curso de mestrado profissional), vinte e nove cursos de pós-graduação lato sensu e quatro cursos de extensão, a Escola de Engenharia tem se revelado um organismo em constante evolução, com grande destaque entre as unidades de ensino

Page 17: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

17

da UFF (www.uff.br), sobretudo por seus relevantes esforços no sentido de inserir-se nos cenários nacional e internacional, através de suas atividades de ensino, pesquisa e extensão.

São dez os seus cursos de graduação, a saber: Desenho Industrial; Engenharia Agrícola e Ambiental; Engenharia Civil; Engenharia de Petróleo; Engenharia de Produção; Engenharia de Recursos Hídricos e do Meio Ambiente; Engenharia Elétrica; Engenharia Mecânica; Engenharia Química; e Engenharia de Telecomunicações.

No campo da Pós-Graduação Stricto Sensu, os cursos se dividem em três áreas: Mestrado Acadêmico, Mestrado Profissional e Doutorado. Os cursos oferecidos dentro da área de Mestrado Acadêmico são: Engenharia Civil; Engenharia Mecânica; Engenharia de Produção; Engenharia Química e Engenharia de Telecomunicações. Até o momento, o único curso de Mestrado Profissional oferecido pela Escola de Engenharia é o de Sistemas de Gestão. Em nível de Doutorado, o Programa de Pós-Graduação da Escola de Engenharia possui os cursos de: Engenharia Civil; Engenharia Mecânica e Engenharia de Produção.

Além destes, a Escola de Engenharia, através de seus departamentos de ensino, laboratórios e núcleos de pesquisa, oferece cursos de Especialização e MBAs, bem como faz atendimento sob a forma de consultorias e projetos, voltados às demandas do mercado produtivo nacional.

Sob esta perspectiva, podem-se citar também os nove cursos de pós-graduação lato sensu integrantes do PROMINP – Programa de Mobilização da Indústria Nacional de Petróleo e Gás Natural -, instituído pelo Governo Federal, sob a coordenação geral do Ministério de Minas e Energia e a coordenação executiva da Petrobras (ANTUNES, 2008). Tais cursos estão vinculados aos Departamentos de Engenharia de Produção e de Engenharia Mecânica.

Além dos âmbitos do Ensino e da Pesquisa, a Escola de Engenharia também desenvolve atividades de Extensão, citando-se também aqui os seguintes cursos integrantes do PROMINP: dois cursos em nível técnico, vinculados ao Departamento de Desenho Técnico, quais sejam: Curso Técnico de Desenhista Projetista de Tubulação e Curso Técnico de Projetista de PDMS (Plant Design Management System); um curso de Formação de Aprendizes de Soldagem, profissionalizante, dirigido a comunidades carentes e voltado à formação de mão-de-obra direta, também vinculado ao Departamento de Engenharia Mecânica.

Ainda no âmbito extensionista, a Escola de Engenharia possui organismos atuantes, sob a perspectiva inovadora de inserção da Universidade como elo entre o conhecimento produzido em seu seio e o setor empresarial (RIBEIRO; ANDRADE, 2008), sendo exemplos disso a Incubadora de Empresas de Base Tecnológica da UFF e as Empresas Juniores.

4.2 NÚCLEO DE ESTUDOS E PESQUISAS (NEP): DESCRIÇÃO E PRINCIPAIS AÇÕES

Dentro da perspectiva inovadora da construção de uma proposta de modelo alternativo, permitindo a flexibilidade de captação de financiamento para a Universidade com base em recursos do estado e da sociedade, foram criados, na Escola de Engenharia da UFF, organismos extensionistas que visam ao atendimento dessa interação, tais como: as Empresas Juniores, bem como a oferta de cursos de atualização e capacitação profissional em nível de PG Stricto e Lato Sensu. No âmbito da pesquisa, na busca de promover um desenvolvimento tecnológico integrado, estabeleceu-se um sistema de cooperação com outras instituições de pesquisa, a iniciativa privada e o estado, concretizado por meio do desenvolvimento de projetos de pesquisa e prestação de serviços extensionistas, endereçados ao atendimento de demandas do setor produtivo (ANTUNES, 2008).

Page 18: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

18

O universo a ser abordado por este estudo de caso compreende os diversos núcleos e laboratórios vinculados à Escola de Engenharia, cujas atividades estão sendo desenvolvidas na direção desse atendimento.

Destacou-se, como amostra a ser investigada, um determinado núcleo que atua em ensino de pós-graduação, pesquisas e extensão/pesquisa aplicada. Esse Núcleo possui uma estrutura organizacional formada por: o Coordenação geral do Núcleo - cujo objetivo central é o de coordenar a política de

interação do Núcleo com as diversas instâncias administrativas e unidades de ensino da Universidade, bem como interagir externamente com outras instituições, buscando a comunhão da prática profissional com as atividades de ensino, pesquisa e extensão.

o Coordenação administrativa de Cursos – cujo objetivo central é exercer a interface entre alunos e coordenações geral e acadêmica, por meio de ações voltadas ao alinhamento de todas as partes interessadas.

o Coordenação acadêmica de Cursos – cujo objetivo central é propiciar as condições ideais para a realização dos cursos oferecidos pelo Núcleo, por meio de ações que envolvem desde a adequação dos cursos aos moldes da UFF, simultaneamente à política de gestão acadêmica do Núcleo, até o provimento de suporte acadêmico para elaboração de editais, relatórios, adequação legal dos cursos, bem como avaliação e acompanhamento do desempenho do corpo docente.

o Coordenação dos Cursos – responsável por: acompanhar o desempenho dos alunos, dando suporte individual a sua vida acadêmica; elaborar o desenho instrucional dos cursos a serem ministrados, envolvendo, entre outros: material didático a ser utilizado, construção das ementas, definição da metodologia a ser aplicada, definição das formas de avaliação dos alunos, indicação do referencial bibliográfico que proverá suporte às disciplinas.

o Coordenação geral de Pesquisa – cujo objetivo central é atuar no sentido de direcionar as atividades de execução das pesquisas desenvolvidas no Núcleo, visando ao atendimento dos objetivos de cada projeto.

o Coordenação dos projetos de Pesquisa – cujo objetivo central é controlar e monitorar o andamento das atividades desenvolvidas em cada projeto, de forma a cumprir as metas preestabelecidas.

o Coordenação geral financeira – cujo objetivo central é dar suporte à gestão financeira de todas as atividades do Núcleo.

o Corpo docente qualificado – integrado por professores da UFF e também de outras instituições de ensino públicas e privadas.

Os objetivos do Núcleo abordado neste estudo são: o Atuar como campo de estágio para a graduação e a pós-graduação, revertendo para o

meio acadêmico as lições aprendidas (pesquisa aplicada) com as atividades de consultoria executadas pelo Núcleo, que são utilizadas como ferramentas para o desenvolvimento de trabalhos científicos na Universidade (artigos, monografias, dissertações e teses).

o Prestar atendimento específico que oriente o desenvolvimento de trabalhos de projeto final de cursos, bem como dissertações e produção científica.

o Disseminar a prática de interação e troca de conhecimentos e informações, através da utilização de redes sociais.

o Oferecer treinamento nas áreas de gestão e planejamento empresarial; o Oferecer cursos em nível de especialização e MBA, voltados a: formar especialistas nas

técnicas e práticas de gestão de projetos, bem como propiciar o aperfeiçoamento a profissionais que já tenham atuado na área e queiram se aperfeiçoar nas modernas práticas de gerenciamento.

o Realizar cursos de qualificação profissional de nível superior, pesquisas teóricas e aplicadas em parceria com o Governo Federal, centros de pesquisa e organizações públicas e privadas, tais como: Petrobras, Denit, Vale do Rio Doce, Chemtech, Faperj, entre outras.

Page 19: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

19

o Disponibilizar tecnologia desenvolvida no próprio Núcleo para empresas, através de atividades de consultoria e de assessoria técnica.

Suas atividades de ensino diversificam-se por meio de: o Treinamentos: realizados de acordo com as necessidades específicas demandadas por

seus clientes, dentre os quais: • Análise do ciclo de vida dos produtos; auditoria interna em segurança industrial;

avaliação de impacto ambiental; avançado em gerenciamento de projetos; básico de gerenciamento de projetos para engenheiros; gestão do meio ambiente.

o Pós-Graduação: são oferecidos cursos em nível de especialização e MBA nas seguintes áreas:

• MBA em Gerenciamento de Projetos: voltado à especialização de profissionais que necessitem investir em capacitação gerencial, adquirindo técnicas que lhes possibilitem a utilização plena de recursos, controle de custos, programação das etapas dos projetos organizacionais e gerenciamento de riscos.

• PROMINP: O Programa de Mobilização da Indústria Nacional de Petróleo e Gás Natural, coordenado pelo Ministério de Minas e Energia, foi instituído pelo Governo Federal em 2003. Esse Programa visa a intensificar a atuação da indústria nacional de bens e serviços na implantação de projetos de petróleo e gás natural no Brasil e no Exterior, de forma competitiva e sustentável. Para atender à demanda por pessoal qualificado para o setor de petróleo e gás natural, foi criado, em 2006, o Plano Nacional de Qualificação Profissional (PNQP), com vistas a capacitar, gratuitamente, profissionais que estejam localizados em regiões do Brasil em que haja alguma iniciativa empreendedora nesse setor. Os cursos são de nível básico, médio, técnico e superior (www.prominp.com.br). O Núcleo em estudo é responsável pelos cursos de:

Especialização em SMS em Obras de Engenharia de Construção e Montagem;

Especialização em Engenharia da Qualidade de Obras de Construção e Montagem;

Especialização em Planejamento de Obras de Construção e Montagem.

As atividades de pesquisa desse Núcleo objetivam contribuir científica e tecnologicamente com as demandas advindas da sociedade, buscando sempre estabelecer interface com o meio acadêmico e o mercado e realizando parcerias com Petrobras, Prominp, entre outras.

Os temas pesquisados concentram-se em áreas como: o Competitividade Industrial, compreendendo estudos sobre desenvolvimento local;

mecanismos de avaliação da competitividade; análise sobre novos arranjos produtivos, suas particularidades e impacto nos setores econômicos.

o Estratégia, compreendendo vinculação entre modelos de gestão de operações x estratégia geral da corporação; relacionamentos das redes empresariais; definição de uma tipologia para a estratégia mais adequada à realidade da indústria nacional.

o Organizações, compreendendo o entendimento dos desafios organizacionais e suas tendências; o comportamento das empresas participantes de prêmios ligados ao conceito da qualidade e suas variantes; a validação dos critérios de excelência e suas relações com os fundamentos da excelência.

As atividades de pesquisa pura e pesquisa aplicada desenvolvidas pelo Núcleo em

referência prestam atendimento, no que diz respeito às ações descritas abaixo, entre outras: o Execução de pesquisas bibliográficas diversas, Análise de indicadores e

performance empresarial e de projetos, Definição de plano de marketing industrial, Desenvolvimento de novos produtos, Implantação, diagnóstico e metodologias em

Page 20: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

20

gerenciamento de projetos, programas e portfólio, Implantação de sistema integrado de gestão, Planejamento estratégico corporativo (www.labceo.uff.br).

4.3 IDENTIFICAÇÃO DE AÇÕES DESENVOLVIDAS PELO NEP EM CONSONÂNCIA COM AS DIRETRIZES INSPIRADAS NA CONCEPÇÃO DA UNIVERSIDADE INOVADORA

De acordo com a pesquisa realizada acerca das diretrizes que norteiam uma parcela expressiva das unidades de ensino integrantes das universidades públicas brasileiras sob a perspectiva inovadora da formação de sua comunidade acadêmica para o atendimento às demandas do mercado produtivo nacional e demais setores da sociedade (tópico 3), buscou-se identificar, por meio de quadro ilustrativo, a seguir, as citadas diretrizes inovadoras com as atividades atualmente desenvolvidas pelo Núcleo de Estudos e Pesquisas (NEP) da Escola de Engenharia da UFF, selecionado para objeto deste estudo de caso.

DIRETRIZES PARA A UNIVERSIDADE INOVADORA

AÇÕES DO NEP QUE ATENDEM A TODAS ESSAS DIRETRIZES

1 – Buscar a inserção social por meio do atendimento às demandas advindas da necessidade de capacitação profissional sofisticada e de inovação tecnológica, colocando-a institucionalmente a serviço dos interesses da sociedade contemporânea

2 - Interligar as atividades de ensino e

pesquisa desenvolvidas na Universidade com as demandas advindas do desenvolvimento econômico, local e regional, redundando no seu fortalecimento e, portanto, no resgate de sua importância social.

3 – captar recursos advindos do

estabelecimento de parcerias públicas e privadas, através da oferta de cursos de especialização e MBAs, bem como por meio da prestação de serviços de consultoria, como forma de suportar as atividades de ensino, pesquisa e extensão gratuitas desenvolvidas na Universidade, frente à queda dos recursos advindos do financiamento público para as universidades públicas.

4 – executar o modelo Triple Helix, idealizado

por Henry Etzkowitz, em 1996, que busca viabilizar um padrão de ligações nos vários estágios do processo de inovação, entrelaçando Universidade, Indústria e Governo, propiciando um fluxo reverso da

Oferecer treinamento nas áreas de gestão e planejamento empresarial;

Oferecer cursos em nível de

especialização e MBA, voltados a: formar especialistas nas técnicas e práticas de gestão de projetos, bem como propiciar o aperfeiçoamento a profissionais que já tenham atuado na área e queiram se aperfeiçoar nas modernas práticas de gerenciamento.

Realizar cursos de qualificação

profissional de nível superior, pesquisas teóricas e aplicadas em parceria com o Governo Federal, centros de pesquisa e organizações públicas e privadas, tais como: Petrobras, Denit, Vale do Rio Doce, Chemtech, Faperj, entre outras.

Disponibilizar tecnologia desenvolvida

no próprio Núcleo para empresas, através de atividades de consultoria e de assessoria técnica.

Page 21: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

21

indústria para a academia e integrando ciência, tecnologia e desenvolvimento econômico.

Quadro 1 – diretrizes para a universidade inovadora e respectivas ações do NEP Fonte: elaboração própria

Após o levantamento de dados acerca das atividades exercidas pelo núcleo de estudos e pesquisas selecionado para objeto deste estudo, integrante da estrutura acadêmica da Escola de Engenharia da Universidade Federal Fluminense, pode-se verificar, pela natureza de sua proposta, pelos objetivos a serem alcançados, pelo público a ser atendido e pelas interfaces estabelecidas, sua transversalidade com o conjunto de ações que caracteriza as premissas inovadoras que se apresentam, na atualidade, como alternativas de atuação acadêmica para as universidades públicas brasileiras.

5. CONSIDERAÇÕES FINAIS

O desenvolvimento do presente artigo foi motivado pela grande polêmica que se instalou nos corredores do meio acadêmico universitário, quanto às diretrizes assumidas por diversas unidades de ensino superior públicas, no desempenho de suas funções institucionais de ensino, pesquisa e extensão. Entre essas unidades de ensino, destacou-se, para este estudo, a Escola de Engenharia da Universidade Federal Fluminense, por sua vocação acadêmico-profissional voltada ao atendimento de demandas sociais em várias áreas, tais como: ambiental, construção civil, saneamento, industrial, naval, telecomunicações, química e petróleo. Trata-se de setores que demandam soluções tecnológicas cada vez mais sofisticadas, urgentes e inovadoras, que possam ser capazes de solucionar as inúmeras e graves consequências geradas pelo superdimensionamento populacional, com todas as suas implicações ambientais.

Para o desenvolvimento de expertise adequada, espera-se das instituições de ensino superior públicas, por suas características próprias quanto a corpo docente qualificado em pesquisas, sobretudo, que daí venham as reflexões e propostas resultantes, que possam dar conta da expectativa de soluções para as demandas supracitadas. Contudo, conforme se pode constatar, por meio da trajetória apresentada no presente artigo com respeito ao tratamento que os sucessivos governos têm dispensado, ao longo das últimas décadas, a cada vez mais escassa disponibilização de recursos para as instituições federais de ensino superior, a parceria público-privada tem sido a alternativa a ser adotada para o encaminhamento não só da questão financeira, como também para a saudável e como mais do que nunca necessária permuta de conhecimentos especializados com a sociedade, que possa fazer face a tão urgentes e sofisticadas soluções para os problemas gerados pelo mundo globalizado.

Finalmente, o presente estudo busca contribuir para o entendimento não só das características ambientais que envolvem as unidades de ensino superior públicas com o perfil acadêmico da Escola de Engenharia da UFF, como também identificar as ações desenvolvidas por esta com foco no ensino, pesquisa e extensão, sob a perspectiva inovadora do atendimento às expectativas da sociedade e do setor produtivo nacional.

6. REFERÊNCIAS

ANTUNES, L. R. M. S. (2008). Reflexões sobre a aplicação da gestão do conhecimento pelas universidades: o caso da Escola de Engenharia da Universidade Federal Fluminense. Dissertação de Mestrado (Programa de Pós-Graduação em Engenharia de Produção), Universidade Federal Fluminense, Niterói 187p. Disponível em: <http://www.bdtd.ndc.uff.br/tde_arquivos/29/TDE-2008-08-19T091735Z-1596/Publico/Liane%20Antunes-Dissert.pdf. > Acesso em: 13 set. 2010.

Page 22: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

22

BARROS, E. V. (2002). Escola de Engenharia da UFF: meio século de história (1952/2002). Ed. Daugraf, Rio de Janeiro, 287p.

BRISOLLA, S. N. ; CORDER, S. M. ; GOMES, E. J. ; MELLO, D. L. (1997). As Relações Universidade-Empresa-Governo: Um Estudo Sobre a Universidade Estadual de Campinas. Educação e Sociedade, v. 61, n. 28, Campinas, 187-209. <Disponível em: http://www.scielo.br/pdf/es/v18n61/4704.pdf.> Acesso em: 19 set. 2010.

SCHMITZ, A. L. F.; BERNARDES, J. F.; WOLF, S. M. (2008). Desafios das Universidades Empreendedoras: Universidade Tradicional X Universidade Corporativa X Universidade Empresa. Anais XIX Congreso Latinoamericano y del Caribe sobre el Espíritu Empresarial, Florianópolis, 72-87. Disponível em: <http://www.clee2008.ufsc.br/3.pdf>. Acesso em: 04 jul. 2010.

RIBEIRO, A. C. S.; ANDRADE, E. P. (2008). Modelo de gestão para incubadora de empresas sob a perspectiva de metodologias de gestão apoiadas em rede: o caso da Incubadora de Empresas de Base Tecnológica da Universidade Federal Fluminense. Boletim Técnico Organização & Estratégia, v.4 n.1, Niterói, 71-90. Disponível em: <http://www.latec.uff.br/bt/V2008/numero1/PDF/BT084_2007.pdf>. Acesso em: 04 jul. 2010.

SANTOS, B. .S. (2005). A Universidade no Século XXI. Para uma reforma democrática e emancipatória da Universidade. Revista Educação, Sociedade & Culturas, n. 23, Porto, 137-202. Disponível em:<http://www.fpce.up.pt/ciie/revistaesc/ >. Acesso em: 03 set. 2010.

UFF em Números. Disponível em: <http://www.uff.br/uffon/arquivos/uff/uff-em-numeros.php>. Acesso em: 22 jun. 2011.

VERGARA, S. C. (2009). Projetos e Relatórios de Pesquisa em Administração. Ed. Atlas, São Paulo, 92p. 11ª. ed.

YIN, R. K. (2005). Estudo de Caso: Planejamento e Métodos. Ed. Bookman, Porto Alegre, 212p. 3ª. ed.

Sites consultados:

http://www.prominp.com.br / Acesso em: 23 jun. 2011. http://www.labceo.uff.br/index / Acesso em: 23 jun. 2011.

Page 23: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

23

A gestão do conhecimento na administração pública municipal: um estudo preliminar em secretarias de

administração da região noroeste fluminense

Walber Dias Arruda. Instituto do Noroeste Fluminense de Educação Superior - Universidade Federal Fluminense (UFF)

Santo Antônio de Pádua, RJ, Brasil

E-mail:[email protected]

RESUMO

A Gestão do Conhecimento é um novo campo de estudo e pesquisa que traz a si as reflexões sobre os processos de criação, obtenção e uso do saber acumulado nas organizações. O presente trabalho é resultado de uma pesquisa exploratória que buscou verificar como tal modalidade de gestão vinha sendo utilizada pela Administração Pública. Adotou-se o contexto da Administração Municipal em função da lacuna existente nos estudos em Gestão do Conhecimento no setor Público, em particular no que tange a investigação de ações desenvolvidas da municipalidade brasileira. O estudo lançou mão de questionário baseado no modelo das Sete Dimensões da Gestão do Conhecimento e tendo como público alvo os gestores de secretarias municipais de Administração do Noroeste Fluminense. A análise dos dados levantados demonstrou que as prefeituras têm dado seus primeiros passos na área, apresentando dificuldades na aferição dos resultados de seu trabalho, mensuração esta considerada uma das importantes dimensões do modelo.

Palavras-Chave: Conhecimento. Gestão do Conhecimento. Administração Pública Municipal.

1. INTRODUÇÃO

Na atualidade observa-se um crescente interesse sobre temas relacionados à Gestão do Conhecimento Organizacional. Vários são os termos utilizados pela Academia para referir-se aos assuntos relevantes à prática organizacional da Gestão do Conhecimento: competências, conhecimentos, tecnologia da informação, aprendizagem e habilidade organizacional, capital intelectual, capital humano, inteligência empresarial, ativos intangíveis, dentre outros, o que demonstra claramente a busca da compreensão dessa nova ótica de gestão.

Uma definição clássica de Gestão do Conhecimento é a que a considera como “a atividade de divulgar e explicitar o conhecimento que está embutido nas práticas individuais ou coletivas da organização” (NONAKA E TAKEUCHI, 1995 apud SPENDER, 2001). Assim, é de fundamental importância que os gestores tomem consciência dos meios necessários à apropriação de tal conhecimento, com vistas a garantir sua utilização como uma vantagem competitiva frente a seus concorrentes. A Gestão do Conhecimento pode ser tomada como o processo estruturado e sistemático de identificação, promoção, melhoria e aplicação de conhecimentos estratégicos no ínterim das organizações (REZENDE E ABREU, 2009).

A aprendizagem, as relações dos colaboradores entre si e com o meio externo, a disponibilidade de informações pertinentes aos processos, as linhas de comunicação e vários outros recursos intangíveis relacionados ao conhecimento organizacional passam a ser considerados essenciais para o sucesso das empresas. A Gestão do Conhecimento está ligada à capacidade das empresas em utilizar e combinar as várias fontes de conhecimento organizacional para desenvolverem competências específicas e capacidade inovadora (TERRA, 2001). A ação de identificar, desenvolver e disseminar o conhecimento de maneira relevante para a empresa, tendo por base esforços internos ou que extrapolem suas fronteiras também deve ser considerada neste contexto (FLEURY; OLIVEIRA JR, 2001). Gerir o conhecimento é possibilitar na organização uma cultura que tenha como ponto

Page 24: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

24

central a idéia de que suas atividades podem ser uma importante fonte de novos saberes, e que esses podem ser convertidos em ganhos para ela por meio da elaboração de novas formas de pensar e agir (inovação), na busca de novos produtos e serviços ou melhoria dos processos já desempenhados.

Se nas organizações privadas a Gestão do Conhecimento já é de certa forma conhecida e tenta-se aplicá-la, no Setor Público este ainda é um tema que começa a se descortinar no cenário de sua atuação. Assim, a abordagem da administração do conhecimento também deve ser considerada na Gestão Pública. Desta forma torna-se possível identificar, mensurar e valorar os saberes presentes nas tessituras das relações de trabalho no âmbito governamental, apropriar-se deles e utilizá-los com vistas ao oferecimento de um serviço de melhor qualidade.

2. RELEVÂNCIA DO ESTUDO

Em virtude da atual configuração das relações sociais, econômicas e políticas, a Administração Pública deve estar em consonância com os paradigmas da Era do Conhecimento, partindo para uma nova ótica de compreensão das relações intra e extra-organizacionais, pautada no uso dos conhecimentos produzidos pela mesma ou advindos de suas relações com outras, para construir modelos orgânicos e flexíveis que se adequem às crescentes necessidades da sociedade. Numa economia em ritmo acelerado, as organizações não podem perder tempo ou vantagem competitiva refazendo processos a todo tempo (AMANCIO, 2007). Assim, gerir o conhecimento organizacional torna-se cada vez mais imperativo na busca da eficácia e excelência organizacional, seja na iniciativa pública ou na iniciativa privada.

Com vistas a oferecer uma melhor qualidade nos Serviços Públicos e uma otimização de seus processos internos, é condição indispensável que o Governo e seus funcionários estejam a par das contribuições que a Gestão do Conhecimento tem a oferecer a tais atividades. A escolha de situar a pesquisa no contexto da Administração Pública Municipal deve-se ao fato de que existe uma lacuna com relação ao estudo da Gestão do Conhecimento no setor Público, havendo diversos trabalhos acadêmicos sobre tal Gestão na esfera da Administração Pública Federal, tais como alguns textos para discussão elaborados pelo Instituto de Pesquisa Econômica e Aplicada – IPEA (vide BATISTA et al, 2005) e pouco destaque à investigação de ações desenvolvidas neste sentido no âmbito da municipalidade brasileira.

3. METODOLOGIA ADOTADA

O presente trabalho constitui-se numa Pesquisa Descritiva, composta de uma Pesquisa Exploratória em uma amostra dos gestores das Secretarias Municipais de Administração da Região Noroeste Fluminense, visando identificar o que se tem feito no que diz respeito a políticas ou práticas de Gestão do Conhecimento, objetivando assim a melhoria contínua da performance de sua atuação, o que conduz a um Serviço Público de melhor qualidade, a exemplo do que buscam as organizações privadas. A Pesquisa Exploratória visa familiarizar o pesquisador com o tema da pesquisa. Por meio dela, o problema em questão torna-se mais explícito, dando margem a posteriores estudos de uma maior profundidade. Esta modalidade é usada especialmente quando o tema proposto é pouco explorado e não existe ainda substancial produção científica específica sobre ele.

Neste trabalho, esta etapa é empreendida por meio da aplicação de um questionário acerca do tema Gestão do Conhecimento em uma amostra de Secretários Municipais de Administração da Região Noroeste Fluminense e sua posterior análise constituindo-se numa Pesquisa de Campo, haja vista esta modalidade de pesquisa trabalhar com amostragens que representam parte de uma população que se pretende estudar (FARIA et al. , 2007).

3.1 POPULAÇÃO E AMOSTRA

Page 25: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

25

Com vistas ao estudo parcial proposto foi considerada uma amostra aleatória de Secretários ou Gestores Municipais de Administração de seis municípios da Região Noroeste do Estado do Rio de Janeiro que representam 46,15 % da população total, composta por treze municípios. A escolha por Secretarias de Administração e, concomitantemente, dos seus secretários ou gestores, se deve ao fato de essas serem responsáveis pela coordenação dos processos da Administração Pública Municipal e por isso, potenciais disseminadoras de metodologias e práticas de Gestão do Conhecimento. Cumpre salientar que outros gestores foram procurados a fim de participarem da pesquisa, mas se recusaram a colaborar. As causas dessa não colaboração poderão ser escopo de pesquisas posteriores, dado que a eles foi esclarecido ser este um trabalho sigiloso e cujos resultados poderiam ser disponibilizados para sua apreciação, crítica ou sugestão.

3.2 COLETA DOS DADOS

Para coleta dos dados optou-se pela utilização de um questionário, baseado nos trabalhos desenvolvidos sobre o modelo das Sete Dimensões da Gestão do Conhecimento (TERRA, 2001; CARLETTO et al, 2006), com perguntas fechadas do tipo Likert, Para a aplicação dos questionários, fez a opção da entrega pessoal dos mesmos, tendo cuidado de não interferir nas respostas, deixando a cargo dos respondentes a sua interpretação.

4. ANÁLISE DOS DADOS

O questionário apresentou vinte e uma assertivas nas quais os Secretários deveriam exprimir seu grau de concordância baseando-se na realidade de sua Secretaria, indicando assim a existência de ações relacionadas à prática da Gestão do Conhecimento, mesmo que de maneira não estruturada formalmente. As assertivas relacionam-se a cada uma das Sete Dimensões propostas por Terra (2001) e são subdivididas da seguinte forma: Dimensão 1 - Alta Administração: assertivas 1, 2 e 3; Dimensão 2 - Cultura Organizacional: assertivas 4, 5, 6 e 7; Dimensão 3 - Estrutura Organizacional: assertivas 8, 9 e 10; Dimensão 4 - Política de Recursos Humanos: assertivas 11, 12 e 13; Dimensão 5 - Sistemas de Informação: assertivas 14, 15, 16 e 17; Dimensão 6 - Mensuração de Resultados: assertivas 18 e 19; Dimensão 7 - Aprendizado com o Ambiente: assertivas 20 e 21.

Figura 1. Dimensões da Gestão do Conhecimento segundo TERRA (2001)

A fim de mensurar o grau de concordância dos Secretários com relação a cada uma das assertivas propostas, optou-se por utilizar a fórmula estatística do Ranking Médio (RM), julgada conveniente para o trabalho em questão. Assim, utilizou-se a seguinte expressão para a obtenção do grau de concordância:

Page 26: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

26

A tabela a seguir apresenta os escores obtidos para cada assertiva:

Tabela 1. Escores obtidos nas assertivas apresentadas no questionário.

Assertiva Grau (RM)

1- Os funcionários da Secretaria de Administração estão cientes dos pontos fortes deste órgão e da contribuição de seu trabalho para o bom funcionamento da prefeitura como um todo

4,0

2- Os objetivos de trabalho e metas a serem atingidas são comunicadas a todos os funcionários da secretaria, dos mais variados níveis hierárquicos.

3,8

3- Existe preocupação em estimular os funcionários por intermédio de metas de trabalho desafiadoras e comprometidas com uma visão de melhoria contínua.

3,8

4- Os funcionários confiam na organização e se orgulham em trabalhar nela.

4,0

5- As pessoas se sentem encorajadas a buscar novas maneiras de realizar as atividades

3,3

6- Os funcionários estão preocupados apenas em alcançar objetivos de curto prazo na Secretaria.

2,8

7- Há uma cultura de respeito, tolerância e colaboração entre os funcionários.

4,0

8- As estruturas das equipes de trabalho são estáveis e raramente os funcionários se reorganizam para realizar melhor suas atividades.

2,8

9- As decisões são tomadas conjuntamente como os funcionários, possibilitando difusão de idéias e busca de soluções compartilhadas.

4,0

10- A burocracia ainda é tida como entrave para realização das atividades.

3,0

11- Existe um plano de carreira estruturado que possibilita o desenvolvimento dos funcionários no

4,2

Grau de Concordância = RM = (a x Grau de CT) + (b x Grau de C) + (c x Grau de I ) + (d x Grau de D) + (e x Grau de DT) / n ; onde a= total de respostas “Concordo Totalmente”, b= total de

respostas “Concordo”, c= “total de respostas “Indiferente”, d= total de respostas “Discordo”, e= total de respostas “Discordo Totalmente ; graus CT= 5, C= 4, I=3, D=2 e DT= 1 ; n=total de respostas.

Page 27: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

27

que diz respeito à experiência e aprendizado.

12- O sistema de remuneração dos funcionários está atrelado a uma política de meritocracia.

3,7

13 – Valoriza-se a busca pelo aprendizado, estimulando o desenvolvimento do conhecimento dos funcionários de maneira sistemática

3,8

14- A comunicação dentro da Secretaria é ampla, ágil, clara e eficiente em todos os níveis.

4,3

15- O acesso a informações por parte dos funcionários é amplo e valoriza-se o compartilhamento delas

4,5

16- Existe um sistema de Tecnologia de Informação estruturado, garantindo o acesso a dados e informações relevantes no ambiente de trabalho

4,5

17- O conhecimento da Secretaria é documentado, seja por meio de ferramentas em TI quanto por relatórios de melhores práticas dos funcionários.

3,8

18- Existe um sistema de mensuração dos resultados alcançados pela Secretaria, ou seja, verifica-se quanto foi alcançado nas atividades que se propôs a realizar

3,5

19- Os resultados positivos ou negativos alcançados pela Secretaria são divulgados internamente aos seus funcionários

3,0

20- Há constante intercâmbio da Secretaria com agentes externos (empresas, consultores, universidades), visando garantir parcerias para uma melhor realização do seu trabalho.

3,8

21- A Secretaria se preocupa em valorizar seus clientes, ou seja, busca saber dos munícipes suas opiniões, sugestões e reclamações com relação a sua atuação.

4,0

Page 28: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

28

À luz dos resultados obtidos pode-se verificar que os maiores pontos de debilidade relativos à Gestão do Conhecimento dentro das Secretarias Municipais de Administração dizem respeito a procedimentos de mensuração dos resultados obtidos com seu trabalho. Envidar esforços para sanar tal disfunção pode converter-se num salutar instrumento de feedback da gestão.

5. CONCLUSÃO

O presente trabalho buscou elaborar um estudo preliminar sobre Gestão do Conhecimento e sua utilização na Administração Pública Municipal, tema ainda pouco explorado pela atual literatura acadêmica. Com base no modelo das Sete Dimensões da Gestão do Conhecimento, observa-se que os maiores níveis de concordância apurados dizem respeito aos aspectos relativos aos Sistemas de Informação e Comunicação. No entanto, mudanças positivas em relação a todas as dimensões apresentadas no modelo é que propiciam o florescimento de uma nova cultura organizacional orientada para a Gestão do Conhecimento.

Cumpre salientar que face à natureza preliminar deste estudo pode-se, posteriormente, elaborar outros de natureza complementar, calcados sob a ótica dos colaboradores, com vistas a corroborar ou não as análises levantadas, posto que as aqui apresentadas encontram-se embasadas nas percepções e afirmações dos gestores. Acredita-se, no entanto, que o presente trabalho contribui para as reflexões sobre a Gestão do Conhecimento no âmbito da Gestão Pública.

5. REFERÊNCIAS

AMANCIO, J.L. (2007). Gestão do Conhecimento. Revista Profissão Mestre. Humana Editorial, São Paulo. Disponível em : http://twixar.com/7n4Oa6HstyQN

BATISTA, F. F. et al. (2005). Gestão do conhecimento na administração pública. Instituto de Pesquisa Econômica Aplicada, Brasília, 122 p.

CARLETTO, B. et al.(2006). As sete dimensões da gestão do conhecimento na organização: o caso Iapó. Anais do XIII Simpósio de Engenharia de Produção da Universidade Estadual Paulista, Bauru, 1-8.

FARIA, A. C. et al.(2007). Manual prático para a elaboração de monografias, Trabalhos de Conclusão de Curso , Dissertações e Teses. Ed. Vozes, Rio de Janeiro, 34.

FLEURY, M. T. L. ; OLIVEIRA JR., M. M. (2001). Gestão Estratégica do Conhecimento: integrando aprendizagem, conhecimento e competências. Ed. Atlas, São Paulo, 352p.

NONAKA, I. ; TAKEUCH, H. (1995). The knowledge creating company: How japanese companies create the dynamics of innovation. Oxford University Press, New York, 304p.

REZENDE, D. A. ; ABREU, A. F. (2009). Tecnologia da informação aplicada a sistemas de informação empresariais. Ed. Atlas, São Paulo, 301-306.

SPENDER, J.C. (2001). Gerenciando Sistemas de Conhecimento. In: Gestão Estratégica do Conhecimento: integrando aprendizagem, conhecimento e competências. Ed. Atlas, São Paulo, 31.

TERRA, J. C. C. (2001) Gestão do Conhecimento: aspectos conceituais e estudo exploratório sobre as práticas de empresas brasileiras. In: Gestão Estratégica do Conhecimento: integrando aprendizagem, conhecimento e competências. Ed. Atlas, São Paulo, 214-215.

Page 29: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

29

A importância do artigo científico na engenharia: linguagem e normalização

1Aline Oliveira Rosa, 1Beatriz de Oliveira Ávila, 1Breno Augusto Silva Carvalho, 1Hana Camila Gomes Silva, 1Isabella Ribeiro Martins, 1Juliana Santos Moura, 1Luciana Duarte Oliveira, 1Romulo Duarte dos Santos, 1Thaísa Andrade Kelles, 2Maria Elizabete Villela

Santiago, 2Renata dos Santos Mendes 1Universidade Federal de Itajubá - campus Itabira (Unifei - Itabira)

Itabira, MG, Brasil 2Coautoras; Universidade Federal de Itajubá – campus Itabira (Unifei – Itabira)

Itabira, MG, Brasil

[email protected], [email protected], [email protected], [email protected], [email protected], [email protected],

[email protected], [email protected], [email protected], [email protected], [email protected]

RESUMO

O presente artigo analisa a importância da boa comunicação na formação e atuação do profissional de engenharia. Foca-se o gênero artigo científico, delimitando desde a importância enquanto meio de comunicação até as regras estruturais de sua construção. Aborda, ainda, o uso da linguagem adequada assim como a Norma Brasileira (NBR) 6022 da Associação Brasileira de Normas Técnicas (ABNT). O estudo busca, dessa forma, fornecer as bases necessárias para a elaboração de um artigo científico, abordando principalmente o papel desse gênero na engenharia. A elaboração deste artigo ocorreu por meio de pesquisa bibliográfica e aborda, em suas seções, os seguintes tópicos: fatores positivos para a boa comunicação na engenharia, apresentação de vantagens para se utilizar o artigo científico na engenharia e instruções para elaboração de um artigo (normalização e linguagem). Devido às dificuldades usuais para se elaborar um artigo, pretende-se que este estudo seja utilizado como fonte de referência acerca de pontos importantes quanto ao assunto tratado. Conclui-se que o artigo científico é de suma importância para o setor da engenharia, principalmente porque é um meio para divulgação de resultados que contribuem com os profissionais da engenharia.

Palavras-Chave: Artigo científico. Engenharia. Comunicação. Elaboração. Normalização.

1. INTRODUÇÃO

O desenvolvimento da pesquisa científica, seja em qualquer área, requer do pesquisador muito empenho e determinação. Isso se refere à necessidade de investigar e apresentar respostas para questões de conflito em relação ao tema escolhido; por isso, é importante que um profissional saiba desenvolver pesquisas e apresentar os resultados destas durante a sua formação e atuação profissional. As pesquisas científicas variam quanto ao enfoque, ao campo, ao objetivo e podem ser quantitativas, qualitativas ou receberem diversas outras classificações; porém elas possuem um ponto em comum: uma pesquisa, sem a devida divulgação de seus resultados, não tem valor científico algum. Assim, uma das formas para divulgação de uma pesquisa é o artigo científico, que, por sua vez, requer atenção diferenciada.

Artigos científicos são ferramentas de grande importância para o complemento da literatura no meio em que se insere e para tornar acessível o assunto tratado para o público de interesse. Com tal objetivo, a publicação de um artigo científico implica muito mais atenção do que se normalmente imagina, em um processo minucioso que vai desde a definição do objeto a ser estudado até a publicação, que deve seguir normas necessárias

Page 30: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

30

para eficácia da divulgação. A obediência aos padrões estabelecidos pode conferir ao artigo produzido maior capacidade de impacto e importância, extrapolando os limites inicialmente almejados, além de certificar a qualidade e promover a confiança no pesquisador e na pesquisa. É um instrumento que acompanhará toda a vida profissional do estudante e graduado em engenharia.

Entretanto, um estudante de engenharia, durante a produção de um artigo científico, pode ter certas dúvidas como: qual a importância do artigo científico na engenharia? Como se produzir corretamente um artigo científico? É fácil se confundir em meio a tantas normas, e errar em algum aspecto durante a confecção de um artigo; por isso é fundamental prestar bastante atenção durante todas as etapas de desenvolvimento deste. Assim, devido à importância, e dificuldades de execução, faz-se extremamente necessária a existência de orientações, tais como neste artigo, para ajudar acadêmicos, profissionais, ou quem quer que deseje produzir um artigo, facilitando, então, a exposição de saberes provenientes de uma pesquisa científica.

Como organização pressupõe o uso de regras, o artigo científico também é regulamentado pela ABNT, visando à padronização e regulamentação das metodologias aplicadas na produção e publicação de um artigo. Em vista disso, é necessário que se busquem informações acerca da metodologia de produção de um artigo científico, especialmente, em bibliografias especializadas e sítios da Internet. Não é difícil encontrar auxílios para a produção de artigos, porém a grande maioria é confusa e extensa, criando assim margem para o erro e dúvida.

Sendo assim, foram traçados dois aspectos a serem detalhados na extensão deste trabalho: a importância do artigo científico, especialmente na área das engenharias, e as normas, tanto ao desenvolvimento quanto à produção gráfica para estruturar de maneira adequada o artigo. Portanto, será apresentada, neste trabalho, a importância do artigo científico na engenharia, enquanto meio de comunicação, bem como a normalização aplicada (ABNT NBR 6022), tudo isso de forma sucinta, intencionando prestar assistência a quem queira obedecer aos requisitos fundamentais para o desenvolvimento de um artigo científico.

2. COMUNICAÇÃO NA ENGENHARIA

Um engenheiro verdadeiramente capacitado não se limita apenas em saber empregar de forma correta os conhecimentos obtidos ao longo da graduação. Na verdade, ele deve saber se expressar e comunicar com eficácia o seu trabalho, pois um bom trabalho aprisionado na cabeça de seu criador é inteiramente inútil.

A comunicação está sempre presente na vida do engenheiro. Ele precisa dar ordens, realizar projetos, elaborar relatórios, preparar manuais e divulgar seus trabalhos. Dessa forma, ele precisa deixar claro o que tem em mente (BLIKSTEIN, 2006), levando em consideração que comunicar gera o pressuposto de que os interlocutores têm um repertório comum de palavras, as quais são compreendidas da mesma forma (VANOYE, 2007). E ainda: compreende-se algo à medida que a palavra apresentada possui, para vários indivíduos, alguma uniformidade fixada pelo uso da língua (VANOYE, 2007). Por isso, é necessário que o profissional pesquise as informações, selecione-as e armazene-as, para que ele possa comunicar às pessoas ao seu redor as informações mais importantes sobre a sua área. Apesar disso, muitas pessoas não levam esta habilidade a sério, pois possuem o pensamento equivocado de que um indivíduo que projeta e calcula tem a comunicação em sua vida como algo irrelevante, deixando-a em segundo plano.

Portanto, a eficácia de um engenheiro depende tanto da qualidade do seu trabalho quanto da sua desenvoltura em fazer com que as pessoas o entendam. Ser compreendido é tão importante quanto ser competente tecnicamente.

Page 31: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

31

3. VANTAGENS DE SE UTILIZAR O ARTIGO CIENTÍFICO NA ENGENHARIA

O engenheiro é essencial para a sociedade. Praticamente todos os grandes avanços pós-revolução industrial estão ligados à engenharia, pois esse profissional tem desempenhado um importante papel nos âmbitos econômico, cultural e político, o que torna importante, sem desmerecer as outras profissões, a formação de bons engenheiros para enfrentarem os desafios deste século. E ser um bom engenheiro não se baseia apenas nos conhecimentos técnicos sobre determinada área específica. Saber expressar suas ideias e resultados e se comunicar de forma clara são pré-requisitos para a entrada no mercado de trabalho. A comunicação, principalmente a escrita, faz-se constante no trabalho de um engenheiro.

É hoje prática corriqueira de um engenheiro, mesmo que não dedicado à carreira de investigação, escrever artigos para serem publicados em revistas especializadas de abrangências nacional e internacional ou para serem apresentados em aulas, cursos, palestras ou simpósios, sendo, portanto, relevante que o engenheiro saiba atender o formato característico dos artigos científicos.

A escrita do engenheiro é a forma direta com que ele compartilha seu conhecimento e transmite informações à sociedade. É a transformação de assuntos técnicos em informações que serão executadas por um técnico ou expostas à população. A boa escrita proporciona a eficiência da comunicação, que, se realizada com êxito, deve estabelecer o pensamento comum e persuadir o leitor (BLIKSTEIN, 2006). Assim, ela deve ser sempre feita de forma clara e precisa, com uma boa abordagem do tema e de forma coerente e organizada.

O artigo científico é uma forma de escrita muito usada pelo profissional ou acadêmico da engenharia, pois é um gênero que apresenta o resultado breve de uma pesquisa realizada de acordo com a metodologia de ciência aceita pela comunidade científica. É apresentado segundo uma linguagem e método próprios de uma área da ciência e, de modo geral, com uma estrutura lógica de argumentação, apresentando o problema, os objetivos, as hipóteses, as possíveis soluções do problema, a descrição dos métodos e técnicas utilizados nos experimentos científicos, a análise dos resultados e a conclusão. E neste contexto, tanto a normalização da metodologia de produção de um artigo científico quanto a de outros tipos textuais têm contribuído para a organização das informações nas diversas áreas do conhecimento de modo a tornar oficial a busca febril pelo conhecimento. Além disso, facilita o direcionamento das pesquisas e a seriedade do estudo para possível aquisição de investimentos financeiros.

Percebe-se que o artigo científico na engenharia é empregado tanto pelo profissional quanto pelo acadêmico da engenharia. Como a principal função de um engenheiro é solucionar problemas, este gênero textual lhe permite expor os resultados de trabalhos de pesquisa à opinião pública. O seu principal objetivo é ser um meio rápido de divulgação, tornando a análise do tema, metodologia e resultados conhecidos ao público.

Além da divulgação, a publicação de um artigo científico aumenta a credibilidade do autor, pois pesquisadores com muitas publicações têm status social e melhores oportunidades no mercado de trabalho. Publicando, eles também divulgam o nome da instituição a que estão vinculados como também das empresas patrocinadoras, o que aumenta o prestígio da sua instituição ou empresa, atrai novos investimentos e estimula a perenização dos já concedidos. Além disso, ao escrever um artigo, o autor adquire experiência profissional, enriquece o currículo e pode contribuir de maneira positiva para com a humanidade.

4. INSTRUÇÕES PARA A ELABORAÇÃO DE UM ARTIGO

O artigo científico é utilizado para a apresentação de análises e resultados de pesquisas. Ele tem a finalidade de lealdar e promover a divulgação de estudos e pesquisas

Page 32: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

32

acerca de assuntos inéditos ou elucidações sobre questões em discussão na comunidade científica (SEVERINO, 2007).

Para manter o foco principal, um bom artigo científico deve ser objetivo e conciso, para facilitar a busca e entendimento do assunto abordado. É importante lembrar que não existe fórmula mágica para um artigo perfeito, mas sim orientações para a boa elaboração, as quais servem para organizar de maneira lógica e sequencial as ideias do autor.

A sequência lógica envolve, primeiro, uma introdução sucinta que enuncia um problema e mostra possíveis soluções, hipóteses a serem trabalhadas. Nela o autor tem maior liberdade para mostrar suas considerações.

Depois é a vez de apresentar os métodos científicos utilizados e a justificativa da escolha, o que proporciona um bom encaminhamento para o desenvolvimento. Durante esse passo, o autor deve focar-se no que é relevante. Toda essa parte deve ser ordenada como um manual, mostrando o que é importante e retirando as partes que não comprometem o entendimento. Muitos acadêmicos tornam o texto repetitivo, pois retraem partes importantes para colocar outras supérfluas. O desenvolvimento não pode ser muito breve nem longo em demasia, mas deve oferecer explicações condizentes para que o leitor possa repetir o experimento explicado e obter os mesmos resultados.

A conclusão ou considerações finais demonstram a importância do artigo e possíveis novas linhas de pesquisas.

Além de domínio do conteúdo, cabe ao autor ter coerência e bom conhecimento da norma culta. Afinal, o artigo deve refletir seriedade, não podendo conter erros básicos de estruturação.

4.1. NORMALIZAÇÃO E ESTRUTURAÇÃO DO ARTIGO

A estrutura do artigo científico, normalizado pela NBR 6022 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2003a), constitui-se em:

a) elementos pré-textuais (título e subtítulo, identificação da autoria, resumo na língua do texto, palavras-chave na língua do texto);

b) elementos textuais (introdução, desenvolvimento e considerações finais);

c) elementos pós-textuais (título e subtítulo em língua estrangeira, resumo em língua estrangeira, palavras-chave em língua estrangeira, notas explicativas, referências, glossário, apêndice e anexo).

4.2. ELABORAÇÃO DAS SEÇÕES

Para melhor compreensão, apresentar-se-á a normalização e estruturação do artigo científico segundo a ABNT NBR 6022.

Após o título e a indicação de autoria, é estruturado o resumo (de 100 a 250 palavras), que contribuirá para despertar no leitor a vontade de conhecer todas as informações apresentadas em um artigo. Segundo a NBR 6028 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2003c), o resumo deve salientar o objetivo, a metodologia, os resultados e as conclusões do documento, para cuja ordem e extensão deve ser considerado o tipo de resumo (informativo ou indicativo) e a maneira com a qual cada item foi abordado no documento original. Nessa parte ainda são acrescidas as palavras-chave, que são alocadas abaixo do resumo e iniciadas pela expressão correspondente (Palavras-chave:), sendo o ponto o que separa e finaliza cada uma delas.

A introdução deve assinalar muito bem qual será o problema tratado no artigo, os objetivos de sua realização e a relevância da pesquisa realizada para determinada área do conhecimento, no intuito de, também, prender a atenção do leitor. Assim, nesta seção, deve-se delimitar o assunto e apresentar os objetivos da pesquisa bem como outros itens que

Page 33: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

33

sirvam para situar o tema do artigo (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2003a).

O desenvolvimento é a parte seguinte na qual há a exposição de toda a base teórica que fundamentou a pesquisa, as hipóteses levantadas, os experimentos realizados bem como os resultados obtidos. No desenvolvimento, pode-se utilizar a numeração progressiva, para expor, numa sequência lógica, os assuntos tratados naquele documento, facilitando a sua localização de acordo com a NBR 6024 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2003b). Assim, no texto, pode haver até cinco seções numéricas: a primária (1), secundária (1.1), terciária (1.1.1), quaternária (1.1.1.1) e a quinária (1.1.1.1.1). Por fim, para fundamentar a base teórica da pesquisa, a NBR 10520 regulamenta o uso de citações, as quais consistem em mencionar uma informação que foi extraída de outra fonte (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2002b), visando ao enriquecimento de um texto sem, contudo, perder de vista os princípios éticos.

Nas considerações finais, há que se fazer uma conclusão do estudo de forma objetiva e concisa, resumindo os resultados obtidos, encerrando o estudo feito e deixando espaço para as próximas possíveis pesquisas porque nenhuma verdade é absoluta.

E para encerramento do artigo, são apresentados os elementos pós-textuais, quais sejam: título e subtítulo em língua estrangeira, resumo e palavras-chave em língua estrangeira, notas explicativas (utilizadas para fragmentos que não possam ser inseridos no texto), as referências – dados que permitem a identificação de livros, artigos e outras obras usadas e referenciadas ao longo do artigo, as quais devem obedecer à NBR 6023 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2002a) –, o glossário, o apêndice e o anexo.

4.3. LINGUAGEM

Como qualquer outra redação acadêmico-científica, o artigo requer uma linguagem precisa e apoiada no sentido denotativo das palavras. Assim, é necessário que se recorra à linguagem impessoal por meio do uso de verbos conjugados na terceira pessoa, demonstrando, dessa maneira, certa modéstia. É imprescindível a linguagem objetiva e clara, privilegiando-se o uso da razão em detrimento da emoção. Vale lembrar que, frequentemente, muitas pessoas pensam que o artigo científico é sinônimo de texto extenso, mas, entretanto, o que vale é a qualidade das informações, atentando-se para o uso de frases completas e sucintas, para que se obtenha um texto conciso e não prolixo (extenso e redundante).

Ademais, é prudente que não se usem os clichês, pois estes causam prejuízo ao valor do texto (MEDEIROS, 2010). É importante também que se empregue, na redação de um artigo, um código fechado, no qual se utilizam palavras específicas que impedem a ambiguidade (MEDEIROS, 2010), porque isso confere maior precisão ao texto, evitando-se a transmissão de ideias vagas e genéricas que não são compatíveis com a objetividade de uma redação acadêmica.

É obvia, pois, a necessidade de emprego da linguagem formal; por isso deve-se obedecer às normas gramaticais sem, claro, excessiva preocupação sob pena de se perder a espontaneidade do texto. Dessa forma, ressalta-se que, durante a escrita, deve-se ter cuidado gramatical, preocupando-se com a estrutura da frase que engloba o sujeito, o predicado e o complemento e suas respectivas distribuições dentro da frase (MEDEIROS, 2010).

5. CONSIDERAÇÕES FINAIS

A elaboração de um artigo científico é essencial para a divulgação de resultados de uma pesquisa científica e, devido à sua normalização pela ABNT, tem contribuído com a sistematização da metodologia de aquisição e produção de conhecimento, haja vista a forte

Page 34: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

34

atuação dos profissionais da engenharia nessa área. E, como qualquer outro profissional, é necessário saber a metodologia de produção de um artigo científico, levando-se em conta a relevância deste para o reconhecimento de uma pesquisa e de seu autor na comunidade científica.

Mas, sabendo-se das diversas dúvidas que permeiam a mente de quem tem de produzir esse gênero textual, elaborou-se este estudo, tendo, como estímulo, a demasiada importância de se fazer uma pesquisa e a possibilidade de status social que esta oferece, quando se logra êxito, já que um texto bem redigido coloca uma informação, fruto do trabalho intelectual às vezes de uma minoria, à disposição da sociedade.

Para se produzir um artigo, é necessário saber comunicar-se de forma objetiva, concisa, impessoal e formal, o que é muito importante nas jornadas acadêmica e profissional de um engenheiro, que necessita dar ordens, dividir tarefas e elaborar projetos, pesquisas e relatórios. Além disso, espera-se desse profissional a habilidade de trabalho em equipe nos ambientes acadêmico e empresarial, evidenciando, novamente, a exigência de uma boa capacidade de comunicação e de oratória.

E como o papel mais primitivo do engenheiro é resolver problemas por meio do desenvolvimento de novas técnicas ou pela otimização das existentes, o artigo, cuja estrutura segue uma lógica argumentativa, é de suma importância para o amadurecimento profissional de qualquer engenheiro, o que acarreta o desenvolvimento da prática da ciência. Por isso, torna-se relevante que os engenheiros saibam produzir adequadamente esse meio de comunicação escrita, cuja confecção requer muita pesquisa, dedicação e disciplina, dos quais o principal benefício é a contribuição com o progresso humano-científico.

6. REFERÊNCIAS

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. (2003a). NBR 6022. Informação e documentação – Artigo em publicação periódica científica impressa – Apresentação. Rio de Janeiro.

______. (2002a). NBR 6023. Informação e documentação – Referências – Elaboração. Rio de Janeiro.

______. (2003b). NBR 6024. Informação e documentação – Numeração progressiva das seções de um documento escrito – Apresentação. Rio de Janeiro.

______. (2003c). NBR 6028. Informação e documentação – Resumo – Apresentação. Rio de Janeiro.

______. (2002b). NBR 10520. Informação e documentação – Citações em documentos – Apresentação. Rio de Janeiro.

BLIKSTEIN, Izidoro. (2006). Técnicas de comunicação escrita. 22. ed. São Paulo: Ática.

MEDEIROS, João Bosco. (2010). Redação empresarial. 7. ed. São Paulo: Atlas.

SEVERINO, Antônio Joaquim. (2007). Metodologia do trabalho científico. 23. ed. rev. e atual. São Paulo: Cortez.

VANOYE, Francis. (2007). Usos da linguagem: problemas e técnicas na produção oral e escrita. Tradução: Clarice Madureira Sabóia. 13. ed. São Paulo: Martins Fontes.

Page 35: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

35

A legislação de saúde e segurança no trabalho aplic ável aos servidores públicos das universidades federais

brasileiras 1Celso Lima Bitencourt, 2Hilda Alevato

1,2 Universidade Federal Fluminense (UFF), Niterói, RJ, Brasil

1 [email protected], 2 [email protected]

RESUMO

O presente artigo apresenta uma análise das iniciativas legais voltadas à proteção da saúde e da segurança no trabalho dos servidores técnico-administrativos das Instituições Federais de Ensino Superior - IFES a partir do levantamento da legislação aplicável a tais servidores. A Constituição Federal, a Consolidação das Leis do Trabalho e a Lei nº 8.112/1990 compuseram as referências básicas para o desenvolvimento desta pesquisa, de natureza documental. Os documentos pesquisados foram consultados através de meio eletrônico. Os resultados deste estudo permitem afirmar que há um esforço governamental no sentido de melhorar o amparo legal nos assuntos relacionados à saúde e segurança dos servidores e criar condições de aplicação das recomendações e normas já existentes. Tal esforço, no entanto, ainda não contempla inúmeros aspectos já consagrados para os trabalhadores contratados sob o regime da Consolidação das Leis do Trabalho - CLT como, por exemplo, a exigência de um número mínimo de profissionais da área de Engenharia de Segurança e Medicina do Trabalho.

Palavras-Chave: Legislação, Saúde e Segurança no Trabalho, Servidor Público Federal

1. INTRODUÇÃO

Com as mudanças globais e seus diversos seguimentos, a introdução de novas tecnologias, a revolução da informação e muitos outros aspectos do mundo do trabalho na contemporaneidade, grandes investimentos em máquinas, equipamentos e instalações são realizados pelas organizações em busca de melhor desempenho empresarial; tais investimentos, porém, não apresentam os resultados desejados sem o investimento correspondente nas pessoas e nos bens intangíveis, tais como o conhecimento humano. Neste sentido, o papel das Universidades é cada vez mais destacado. É nelas que se produz conhecimento científico de valor e é através de sua atuação que este conhecimento é socializado e transformado em benefícios para a população e para o país.

A diversidade de atividades profissionais relacionadas à pesquisa, ao ensino e à extensão em todas as áreas do conhecimento – pilares de sustentação das universidades brasileiras – é, sem dúvida, bastante ampla. Durante a execução de suas funções, o servidor público das Instituições Federais de Ensino Superior (IFES) está submetido a riscos laborais semelhantes aos que se expõem os trabalhadores regidos pela Consolidação das Leis do Trabalho – CLT. A grande diferença, porém, reside na prevenção, no cumprimento da legislação e na fiscalização sobre os empregadores, que fazem com que, no campo da SST, o amparo dado ao trabalhador celetista e o amparo destinado ao servidor público estatutário não garantam a mesma proteção.

Dentre as leis relacionadas à Saúde e Segurança do Trabalho - SST é possível citar o exemplo das Leis nº 6.514/77 e 8.213/91, além das Normas Regulamentadoras (NR) do Ministério do Trabalho e Emprego, existentes desde a década de 1970 do século passado. Com relação aos servidores estatutários, o cumprimento da lei, porém, ainda não tem mostrado grande vigor.

Page 36: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

36

Com aproximadamente 540 mil servidores espalhados por todo o País (Revista Proteção nº 226/10), promover condições adequadas à proteção da saúde e segurança no trabalho torna-se um grande desafio para o governo federal. Desse total, mais de 180 mil são trabalhadores técnico-administrativos em educação1, atuando nas 52 IFES2 que englobam as Universidades Federais, as Instituições Isoladas e os Centros de Educação Tecnológica.

Apesar dos compromissos internacionais assumidos pelo governo brasileiro ao assinar a Convenção no. 161 da Organização Internacional do Trabalho - OIT, dentre outras, muito pouco se faz em relação à saúde e segurança no trabalho (SST) dos servidores públicos. Mesmo tendo asseverado há mais de duas décadas (Decreto 127, de 22/05/91) que “se compromete a instituir, progressivamente, serviços de saúde no trabalho para todos os trabalhadores, entre os quais se contam os do setor público e os cooperantes das cooperativas de produção, em todos os ramos da atividade econômica e em todas as empresas;” e que “as disposições adotadas deverão ser adequadas e corresponder aos riscos específicos que prevalecem nas empresas” o governo brasileiro tem dedicado atenção tardia aos riscos enfrentados por seus servidores estatutários.

2 – A LEGISLAÇÃO DE SAÚDE E SEGURANÇA NO TRABALHO A PLICÁVEL AOS SERVIDORES PÚBLICOS DAS UNIVERSIDADES FEDERAIS BRASILEIRAS

A Constituição da República Federativa do Brasil promulgada em 1988 instituiu, no Capítulo referente aos direitos sociais, uma série de direitos voltados aos trabalhadores. Em seu Art. 39 (atualizado pela Emenda Constitucional 19/98), os servidores públicos da administração direta são lembrados e a eles é assegurado, dentre outros pontos, o constante do Art. 7º em relação ao direito à “redução dos riscos inerentes ao trabalho por meio de normas de saúde higiene e segurança”.

Além de disposições a respeito dos adicionais de periculosidade e insalubridade, a Lei nº 8.112/90 também aborda outros assuntos pertinentes à Saúde e Segurança do Trabalho - SST do servidor público federal. Quanto à licença por acidente em serviço, por exemplo, a Lei determina que o servidor seja licenciado com remuneração integral. Ainda segundo a mesma Lei, “Configura-se acidente em serviço o dano físico ou mental sofrido pelo servidor, que se relacione, mediata ou imediatamente, com as atribuições do cargo exercido”.

A Portaria nº 1.675, de 6/10/06, instituiu o “Manual para os Serviços de Saúde dos Servidores Civis Federais”. Esta Portaria faz referência aos procedimentos periciais em saúde, para uso clínico e epidemiológico, em busca de uniformizar a política de seguridade social para todos os servidores civis federais.

A Portaria nº 3.214/78, do Ministério do Trabalho e Emprego que aprovou as NR é aplicável apenas aos servidores regidos pela CLT. Porém, a Portaria nº 1.675/06 recepciona no âmbito do SIPEC (Sistema de Pessoal Civil) – ligado ao Ministério do Planejamento, Orçamento e Gestão – as NR nº 07 e 09, do Ministério do Trabalho e Emprego - MTe.

A NR-7 estabelece a obrigatoriedade de elaboração e implementação do Programa do Controle Médico de Saúde Ocupacional – PCMSO, por parte de todos os empregadores e instituições que admitam trabalhadores como empregados, com o objetivo de promoção e preservação da saúde do conjunto dos seus trabalhadores. Já a NR-9 estabelece a obrigatoriedade da elaboração e implementação, por parte de todos os empregadores e instituições que admitam trabalhadores como empregados, do Programa de Prevenção de Riscos Ambientais – PPRA, visando à preservação da saúde e da integridade dos trabalhadores, através da antecipação, reconhecimento, avaliação e consequente controle

1 www.fasubra.org.br. Acesso em 19/09/2011. 2 www.educabrasil.com.br. Acesso em 20/09/2011.

Page 37: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

37

da ocorrência de riscos ambientais existentes ou que venham a existir no ambiente de trabalho, tendo em consideração a proteção do meio ambiente e dos recursos naturais.

De acordo com a Portaria nº 1.675/06, do Ministério do Planejamento, Orçamento e Gestão, a caracterização de acidente em serviço deverá ser feita por Médico do Trabalho, pelo engenheiro de segurança do trabalho, por técnico de segurança do trabalho, ou ainda por um fiscal / inspetor de vigilância sanitária, de acordo com os critérios legais estabelecidos. Nessa Portaria pode ser observada uma definição de acidente em serviço de caráter mais abrangente que a dada pela Lei 8112/90, além da introdução do conceito de doença profissional ou do trabalho. Conforme seu texto, os danos decorrentes de agressão, acidentes de percurso e outras condições especiais de trabalho são equiparados ao acidente de trabalho ou em serviço.

O prazo para a comunicação do acidente em serviço é de até 48 (quarenta e oito) horas úteis, podendo ser realizada pelo próprio servidor, pela sua família, sua chefia imediata ou pela equipe de vigilância à saúde do servidor. A referida comunicação se dará através de formulário próprio definido como Comunicação de Acidente em Serviço – CAS.

Posteriormente, o Decreto nº 6.833, de 29/04/09, do Ministério do Planejamento, Orçamento e Gestão – MPOG –, revogou o Decreto nº 5.961, de 13/11/06 (que instituía o Sistema Integrado de Saúde Ocupacional do Servidor Público Federal – SISOSP, que tinha por finalidade uniformizar os procedimentos administrativos em busca da promoção da saúde ocupacional do servidor público federal) e instituiu o Comitê Gestor de Atenção à Saúde do Servidor, integrante do SIPEC, e o Subsistema Integrado de Atenção à Saúde do Servidor – SIASS – com o objetivo de “coordenar e integrar ações e programas nas áreas de assistência à saúde, perícia oficial, promoção, prevenção e acompanhamento da saúde dos servidores da administração federal direta, autárquica e fundacional”.

Ainda segundo o Decreto nº 6.833, o Comitê Gestor terá como uma de suas atribuições aprovar as diretrizes para aplicação da política de atenção à SST do servidor público federal, e para capacitação dos servidores em exercício nas unidades do SIASS. O SIASS, através do art.4º, inciso VI, parágrafo 2º, especifica a preocupação do poder executivo federal no que se refere às ações voltadas à preservação da saúde do servidor e à redução do absenteísmo laboral.

De acordo com o Decreto nº 6.856, de 25/05/09, “a realização de exames médicos periódicos tem como objetivo, prioritariamente, a preservação da saúde dos servidores, em função de riscos existentes no ambiente de trabalho e de doenças ocupacionais ou profissionais”. No caso de acumulação legal de cargos públicos federais, estes exames periódicos deverão ser realizados com base no cargo de maior exposição a riscos nos ambientes de trabalho.

Quanto à periodicidade dos exames médicos periódicos, o Decreto nº 6.856, de 25/05/09, estabelece intervalos: bienais (para servidores entre 18 e 45 anos) anuais (para servidores acima de 45 anos) e intervalos menores para os servidores expostos a riscos que possam implicar o desencadeamento ou agravamento de doença profissional ou ocupacional e para os portadores de doenças crônicas. No caso de servidores que operam com Raios-X ou substâncias radioativas, serão submetidos a exames médicos periódicos a cada seis meses.

As orientações para aplicação do Decreto nº 6.856, de 25/05/09, são estabelecidas pela Portaria Normativa (PN) nº 4, de 15/09/09, da Secretaria de Recursos Humanos, do Ministério do Planejamento, Orçamento e Gestão – MPOG, que revogou a Instrução Normativa (IN) nº 1, de 03/07/08, também do MPOG, que tratava dos exames médicos periódicos previstos no art. 21, Inciso II, da Portaria nº 1, de 27/12/07 (MPOG). De acordo com a PN nº 4, de 15/09/09 (MPOG), independentemente de adesão a planos de saúde, os exames médicos periódicos dos servidores públicos federais ativos, deverão abranger todos os servidores ativos, além dos nomeados para cargos em comissão e os anistiados que retornaram à administração direta.

Page 38: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

38

Ainda de acordo com a PN nº 4, o planejamento e execução dos exames periódicos de saúde dos servidores e empregados públicos poderão ser prestados diretamente pelos órgãos ou entidades, e também mediante contratos administrativos com operadoras de planos de assistência à saúde, observado o disposto na Lei nº 8.666, de 21/06/93.

O Decreto nº 7.003, de 9/11/09, regulamenta a licença para tratamento de saúde de servidor de que tratam os artigos 202 a 205 da Lei nº 8.112/90, e os casos em que poderá ser dispensada a perícia oficial.

A Orientação Normativa (ON) SRH/MPOG nº 2, de 19/02/10, estabelece orientação sobre a concessão dos adicionais de insalubridade, periculosidade, irradiação ionizante e gratificação por trabalhos com Raios-X ou substâncias radioativas e objetiva uniformizar entendimentos no tocante à concessão de adicionais estabelecidos pelos artigos 68 a 70 da Lei nº 8.112, de 11/12/90, pelo artigo 12 da Lei nº 8.270, de 17/12/91, e pelo Decreto nº 97.458, de 15/01/89. Essa Orientação traz modificações em relação aos textos da ON nº 4, de 13/07/05, da ON nº 6, de 23/12/09, e do Ofício Circular nº 25/COGSS/DERT/SRH/MP, de 14/12/05.

No caso dos trabalhadores regidos pelo regime da CLT, o adicional de insalubridade é calculado sobre o salário mínimo, através dos percentuais 10%, 20% e 40% para insalubridade de grau mínimo, médio e máximo, respectivamente, e a periculosidade, 30% incidente sobre o salário, sem os acréscimos resultantes de gratificações, prêmios ou participação nos lucros da empresa. Diferentemente, no caso dos servidores abrangidos pela ON no. 6, a gratificação e os adicionais são calculados sobre o vencimento do cargo efetivo, tendo como base percentuais entre 5 e 20%, de acordo com a situação. De acordo com a ON SRH/MPOG nº 2, de 19/02/2010, a caracterização e a justificativa para a concessão de adicionais de insalubridade e periculosidade dependem de laudo técnico nos termos das NR 15 e 16 bem como o estabelecido nos Anexos II e III da mesma ON.

Vale ressaltar que as NR nº 15 e 16 previstas na Portaria nº 3.214/78, do MTe, citada nessa ON nº 2, têm sua aplicabilidade voltada para os trabalhadores sob o regime da Consolidação das Leis do Trabalho – CLT; porém, a caracterização e justificativa para a concessão dos adicionais a que se referem essas NR aos servidores, quando houver exposição permanente ou habitual a agentes físicos ou químicos, se dará por meio de laudo técnico, como já foi dito. Esse laudo técnico para concessão de adicionais não terá prazo de validade, segundo a ON nº 2, e sempre que houver alteração dos riscos presentes deverá ser refeito. Deverá também ser preenchido pelo Médico do Trabalho ou Engenheiro de Segurança do Trabalho, ocupante do cargo público, na esfera federal, estadual, municipal ou do Distrito Federal.

Segundo a mesma ON, o servidor somente poderá receber um adicional ou gratificação. Além disso, a concessão desses adicionais ou da gratificação são formas de remuneração do risco à saúde dos trabalhadores e têm caráter transitório, enquanto durar a exposição, de acordo com a Lei nº 8.112/90: o “direito ao adicional de insalubridade ou periculosidade cessa com a eliminação das condições ou dos riscos que deram causa à sua concessão”. Essa Lei acompanha o que já estava previsto na NR-15, do MTe.

A PN nº 2 de 22/03/10, do MPOG, estabelece orientações básicas sobre os procedimentos mínimos para a realização de Acordos de Cooperação Técnica (ACT) para a criação das unidades do SIASS do Servidor Público Federal, previstas no art. 7º do Decreto nº 6.833, de 29/04/09, além de revogar a Portaria nº 5, de 15/09/09. As ações consensuadas nos ACT serão avaliadas quanto ao cumprimento de seus objetivos após um ano de sua assinatura, e serão supervisionadas por uma comissão interinstitucional constituída por, pelo menos, um representante de cada um dos órgãos partícipes.

Ainda conforme a PN nº 2, de 22/03/10, o prazo de vigência do Acordo de Cooperação Técnica será de 24 meses, a contar da data de assinatura, e poderá ser prorrogado mediante Termo Aditivo, desde que haja interesse dos partícipes, nos termos do art.57, da Lei nº 8.666/93.

Page 39: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

39

A PN nº 3, de 07/05/2010, estabelece orientações básicas sobre a Norma Operacional de Saúde do Servidor – NOSS, e tem como finalidade a criação de um instrumento que oriente a implantação de serviços e o desenvolvimento de ações inerentes às áreas de Vigilância e Promoção à Saúde do Servidor Público Federal. A NOSS é direcionada para os órgãos e entidades que compõem o Sistema de Pessoal Civil da Administração Pública Federal – SIPEC.

A NOSS apresenta relevantes conceitos para aplicabilidade das ações da Política de Atenção à Saúde e Segurança do Trabalho do Servidor Público Federal, no que concerne a: Acidente em Serviço, Ambiente de Trabalho, Condições de Trabalho, Equipe Multiprofissional, Organização do Trabalho, Prevenção, Processo de Trabalho, Promoção à Saúde do Servidor, Proteção à Saúde, Risco e Vigilância em Saúde do Servidor. A NOSS sustenta-se na interrelação entre os eixos de vigilância e promoção, perícia médica e assistência à saúde do SIASS.

3 - CONSIDERAÇÕES FINAIS

É possível perceber na breve apresentação da legislação analisada por este trabalho, a preocupação governamental a respeito dos aspectos relacionados à saúde e segurança no trabalho de seus servidores civis.

É possível também perceber através dos destaques aqui registrados que o governo federal vem procurando propiciar o aprimoramento de suas instituições, normatizando, regulamentando, indicando responsabilidades e favorecendo um melhor atendimento às condições de saúde e de trabalho dos servidores.

Nesse sentido, é interessante registrar avanços através da análise da legislação voltada para saúde e segurança no trabalho, especialmente na última década. No entanto, ainda há um longo caminho a ser percorrido em relação às múltiplas facetas do campo da saúde e segurança no trabalho. Especialmente no caso dos servidores públicos técnico-administrativos lotados nas universidades federais brasileiras, é importante considerar também a complexidade de lidar com milhares de profissionais, espalhados pelo território e exercendo atividades das mais variadas e seus diferentes riscos.

Se as exigências contidas na legislação voltada à saúde e segurança no trabalho para os trabalhadores celetistas fossem estendidas aos servidores estatutários, os avanços poderiam ser ainda mais relevantes. Ou seja, se houvesse a preocupação de obedecer aos compromissos assumidos pelo país, ao assinar as Convenções internacionais da OIT, citadas na Introdução deste texto, já seria possível registrar um grande salto de qualidade social.

Além da preocupação governamental na adequação de uma legislação voltada à saúde e segurança no trabalho dos servidores públicos da administração pública federal, autárquica e fundacional, há necessidade de reflexão sobre inúmeros aspectos ainda não contemplados na prática: as condições disponíveis para a realização das atividades, a existência e a qualidade dos equipamentos de proteção individual e coletiva, a ausência de fiscalização e de rigor na aplicação das leis, dentre muitos outros.

Na legislação e nos textos examinados para a pesquisa aqui sintetizada, não foi percebida, por exemplo, a exigência de um número mínimo de profissionais da área de Engenharia de Segurança e Medicina do Trabalho como ocorre na legislação aplicada aos trabalhadores sujeitos ao regime Celetista. É fácil, portanto, constatar a emergência da atenção sobre a saúde e a segurança no trabalho dos servidores públicos. Grande parte dos vitimados poderia ter sido poupada se houvesse mais cuidado no trato com a vida humana. É preciso que a administração pública dê o exemplo.

Page 40: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

40

5. REFERÊNCIAS

BRASIL. Lei nº 8.112, de 11 de dezembro de 1990. Diário Oficial da República Federativa do Brasil, Brasília, DF, 12 de dezembro de 1990.

Constituição da República Federativa do Brasil de 1988. Brasília, 5 de outubro de 1988. Disponível em www.planalto.gov.br.

Decreto nº 5.961, de 13 de novembro de 2006. Diário Oficial da República Federativa do Brasil, Brasília, DF, 14 de novembro de 2006.

Decreto nº 6.833, de 29 de abril de 2009. Diário Oficial da República Federativa do Brasil, Brasília, DF, 30 de abril de 2009.

Decreto nº 7.003, de 09 de novembro de 2009. Diário Oficial da República Federativa do Brasil, Brasília, DF, 10 de novembro de 2009.

Instrução Normativa nº 1, de 03 de julho de 2008. Diário Oficial da República Federativa do Brasil, Brasília, DF, 08 de julho de 2008.

Lei nº 6.514, de 22 de dezembro de 1977. Diário Oficial da República Federativa do Brasil, Brasília, DF, 23 de dezembro de 1977.

Lei nº 8.213, de 24 de julho de 1991.Diário Oficial da República Federativa do Brasil, Brasília, DF, 14 de agosto de 1991.

Lei nº 8.270, de 17 de dezembro de 1991. Diário Oficial da República Federativa do Brasil, Brasília, DF, 18 de dezembro de 1991.

Orientação Normativa nº 4, de 13 de julho de 2005. Diário Oficial da República Federativa do Brasil, Brasília, DF, 14 de julho de 2005.

Orientação Normativa SRH/MPOG nº 2, de 19 de fevereiro de 2010. Diário Oficial da República Federativa do Brasil, Brasília, DF, 22 de fevereiro de 2010.

Orientação Normativa SRH/MPOG nº 6, de 23 de dezembro de 2009. Diário Oficial da República Federativa do Brasil, Brasília, DF, 24 de dezembro de 2009.

Portaria nº 1.675, de 6 de outubro de 2006. Diário Oficial da República Federativa do Brasil, Brasília, DF, 7 de outubro de 2006.

Portaria nº 2, de 22 de março de 2010. Diário Oficial da República Federativa do Brasil, Brasília, DF, 23 de março de 2010.

Portaria nº 3.214, de 8 de junho de 1978. Diário Oficial da República Federativa do Brasil, Brasília, DF, 6 de julho de 1978.

Portaria nº 4, de 15 de setembro de 2009. Diário Oficial da República Federativa do Brasil, Brasília, DF, 16 de setembro de 2009.

Portaria Normativa nº 01, de 27 de setembro de 2007. Diário Oficial da República Federativa do Brasil, Brasília, DF, 28 de dezembro de 2007.

Portaria Normativa nº 03, de 07 de maio de 2010. Diário Oficial da República Federativa do Brasil, Brasília, DF, 08 de maio de 2010.

Portaria Normativa nº 04, de 15 de setembro de 2009. Diário Oficial da República Federativa do Brasil, Brasília, DF, 16 de setembro de 2009.

Portaria Normativa nº 05, de 15 de setembro de 2009. Diário Oficial da República Federativa do Brasil, Brasília, DF, 16 de setembro de 2009.

Revista Proteção. Rio Grande do Sul: Proteção. nº 226, Ano XXIII, 2010.

Page 41: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

41

Ajuste de modelo de cobertura na faixa de 3,5 GHz p ara a orla de Icaraí

1Fabiano Carvalho dos Santos Assumpção,2Felippe José Soares dos Santos,3Leni Joaquim de Matos 1,2,3Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected],[email protected],[email protected]

RESUMO

Nos sistemas celulares atuais, aliar alto grau de mobilidade com altas taxas de transmissão tem sido um grande desafio, devido às muitas variáveis decorrentes do ambiente onde o usuário se encontra e que podem ocasionar a degradação do sinal rádio móvel. Devido às suas características, a tecnologia WiMAX pode suprir tais necessidades. Sendo, a princípio, a faixa de 3,5 GHz uma das reservadas para operação licenciada no Brasil para tal tecnologia, é importante um estudo da cobertura de sinal nessa faixa. Com este fim, medições foram realizadas e um modelo de cobertura de melhor ajuste foi determinado para a região da orla de Icaraí.

Palavras-Chave: Modelos de Cobertura. Propagação em 3,5 GHz. Sondagem de canal.

1. INTRODUÇÃO

O desenvolvimento das tecnologias de telecomunicações exige cada vez mais qualidade dos serviços oferecidos, tais como confiabilidade na transmissão/recepção de dados e mobilidade com altas taxas de transmissão. Com tais características, a tecnologia WiMAX surgiu como uma alternativa para os sistemas celulares atuais (ANDREWS et al., 2007).

No projeto do sistema para cobrir determinada região, é importante atentar para diversos fatores como a faixa de frequência utilizada, a morfologia e a topografia do ambiente. Com isso, vários modelos de predição de cobertura de sinal têm surgido ao longo dos anos (PARSONS, 2000); (BLAUNSTEIN, 1999); (PLITSIS, 2003) e são utilizados como ferramentas auxiliares no cálculo de cobertura.

Com o objetivo de se determinar qual modelo de propagação deve ser usado para a determinação de cobertura do sinal no ambiente onde será implantado o sistema, deve-se dispor da frequência utilizada, altura e ganho da antena transmissora e receptora, potência de transmissão, altura média de obstáculos, dentre outros.

A fim de se determinar qual o modelo que melhor se ajusta à região da orla de Icaraí, é realizada uma sondagem no ambiente, onde níveis de sinal e distâncias Tx-Rx (Transmissor-Receptor) são coletadas, com o deslocamento do móvel relativamente ao transmissor (BERTONI, 2000). Na maioria dos casos, não se encontra um modelo que represente melhor toda a região observada, sendo necessário dividir a região em setores e verificar os modelos que se ajustam a cada setor (DIAS, 2010).

A Seção 2 descreve o sistema de medição empregado na sondagem do ambiente assim como suas especificações e foto do ambiente sondado. Na Seção 3, são descritos alguns modelos de predição de propagação para a faixa de frequência proposta e, na Seção 4, os resultados dos cálculos de previsão de cobertura são fornecidos juntamente com os valores práticos, medidos ao longo da orla. Finalmente, na Seção 5, conclui-se sobre o modelo adequado para a cobertura de sinal de 3,5 GHz na região da orla de Icaraí.

Page 42: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

2. SISTEMA E AMBIENTE D

O sistema de transmissão, empregado nas medições, foi instalado no prédio da Reitoria da UFF e consistia em: gerador de RF (rádio frequência), que gera um tom de 3,5 GHz no nível escolhido de 0 dBm (de 45 dB, polarizado por uma fonte DC e antena transmissora omnidirecional, com ganho de 11 dBi, polarização vertical, faixa de operação de 3,4 a 3,7 MHz e 60 cm de comprimento. A Figura 1(a) mostra o diagrama de blocos do sistema de transmissão e a Figura 1(b), os diagramas de irradiação da antena transmissora.

(a)

Figura 1. Sistema de transmissão

Já o sistema de recepção, que foi montado no carro, deslocoucom velocidade aproximada de 40 km/h e consistia em: antena receptora omnidirecional, do modelo rubber duckoperação de 3,4 a 3,6 MHz e 21 cm de comprimento; amplificador de baixo ruído (LNA); analisador de espectro. A Figura 2(a) mostra o diagrama de blocos do sistema de recepção e a Figura 2(b), os diagramas de irradiação da antena receptora.

A associação dos dadosestação móvel se encontrava, seria feita conectando um GPS ao analisador de espectro, porém, este não tinha a interface de GPS habilitada, então se adotou uma solução simples: realizaram-se as medições etrânsito e, assim, foi possível manter a velocidade da estação móvel praticamente constante e assumir que a distância percorrida até cada ponto era proporcional ao tempo despendido desde o ponto inicial em velocidade constante até o ponto em questão. com um cronômetro, sincronizado com a captura do sinal pelo analisador de espectro.Dessa forma, também foi possível traçar a variação do sinal com a distância.

(a)

Figura 2. Sistema de recepção

O local escolhido para as medições foi a Avenida Jornalista Alberto Torres, na orla da praia de Icaraí (1150 m), em Niterói. Como pode ser observado na Figura 3, o ambiente

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

SISTEMA E AMBIENTE D E MEDIÇÃO

sistema de transmissão, empregado nas medições, foi instalado no prédio da Reitoria da UFF e consistia em: gerador de RF (rádio frequência), que gera um tom de 3,5 GHz no nível escolhido de 0 dBm (≡ 1 mw) de potência; amplificador de potência com ganho

45 dB, polarizado por uma fonte DC e antena transmissora omnidirecional, com ganho de 11 dBi, polarização vertical, faixa de operação de 3,4 a 3,7 MHz e 60 cm de comprimento. A Figura 1(a) mostra o diagrama de blocos do sistema de

e a Figura 1(b), os diagramas de irradiação da antena transmissora.

(b)

Sistema de transmissão: (a) diagrama de blocos; (b) diagramas de irradiação da antena

Já o sistema de recepção, que foi montado no carro, deslocou-se ao longo da orla com velocidade aproximada de 40 km/h e consistia em: antena receptora

rubber duck, 5 dBi de ganho, polarização vertical, faixa de ção de 3,4 a 3,6 MHz e 21 cm de comprimento; amplificador de baixo ruído (LNA);

analisador de espectro. A Figura 2(a) mostra o diagrama de blocos do sistema de recepção e a Figura 2(b), os diagramas de irradiação da antena receptora.

A associação dos dados obtidos com a distância à antena transmissora que a estação móvel se encontrava, seria feita conectando um GPS ao analisador de espectro, porém, este não tinha a interface de GPS habilitada, então se adotou uma solução simples:

se as medições em um dia de sábado, bem cedo, em que havia pouquíssimo trânsito e, assim, foi possível manter a velocidade da estação móvel praticamente constante e assumir que a distância percorrida até cada ponto era proporcional ao tempo despendido

l em velocidade constante até o ponto em questão. O tempo foi marcado com um cronômetro, sincronizado com a captura do sinal pelo analisador de espectro.Dessa forma, também foi possível traçar a variação do sinal com a distância.

(b)

Sistema de recepção: (a) diagrama de blocos; (b) diagramas de irradiação da antena

O local escolhido para as medições foi a Avenida Jornalista Alberto Torres, na orla da praia de Icaraí (1150 m), em Niterói. Como pode ser observado na Figura 3, o ambiente

9 de outubro de 2011

42

sistema de transmissão, empregado nas medições, foi instalado no prédio da Reitoria da UFF e consistia em: gerador de RF (rádio frequência), que gera um tom de 3,5

1 mw) de potência; amplificador de potência com ganho 45 dB, polarizado por uma fonte DC e antena transmissora HG3511U-PRO,

omnidirecional, com ganho de 11 dBi, polarização vertical, faixa de operação de 3,4 a 3,7 MHz e 60 cm de comprimento. A Figura 1(a) mostra o diagrama de blocos do sistema de

e a Figura 1(b), os diagramas de irradiação da antena transmissora.

irradiação da antena Tx.

se ao longo da orla com velocidade aproximada de 40 km/h e consistia em: antena receptora HG3505RD-RSP,

, 5 dBi de ganho, polarização vertical, faixa de ção de 3,4 a 3,6 MHz e 21 cm de comprimento; amplificador de baixo ruído (LNA);

analisador de espectro. A Figura 2(a) mostra o diagrama de blocos do sistema de recepção

obtidos com a distância à antena transmissora que a estação móvel se encontrava, seria feita conectando um GPS ao analisador de espectro, porém, este não tinha a interface de GPS habilitada, então se adotou uma solução simples:

m um dia de sábado, bem cedo, em que havia pouquíssimo trânsito e, assim, foi possível manter a velocidade da estação móvel praticamente constante e assumir que a distância percorrida até cada ponto era proporcional ao tempo despendido

O tempo foi marcado com um cronômetro, sincronizado com a captura do sinal pelo analisador de espectro. Dessa forma, também foi possível traçar a variação do sinal com a distância.

irradiação da antena Rx.

O local escolhido para as medições foi a Avenida Jornalista Alberto Torres, na orla da praia de Icaraí (1150 m), em Niterói. Como pode ser observado na Figura 3, o ambiente

Page 43: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

onde as medidas foram realizadas possui características bem diversificadas: de um lprédios altos que podem causar reflexões do sinal; do outro, o mar que pode ocasionar a dispersão do sinal, que nele é refletido. Além disso, a vegetação à frente ao local de instalação da antena transmissora é responsável pela absorção, reflexão e essinal. Diante disto, para melhor modelar o ambiente, dividimos o mesmo em 3 trechos (A, B e C) de acordo com sua condição de visada, a partir do local onde foi instalada a antena de transmissão. Foi determinado um ponto de referência que se eestação base, no qual já se estava com a velocidade de 40 km/h. Com isso, o trecho A possui, aproximadamente, 47estende de 47,32 m até 286,4 mo fim do percurso das medições (1150 m). A Figura o B, aquele cuja visada é obstruída pela vegetação.

Figura 4. Divisão da rota sondada em trechos.

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

onde as medidas foram realizadas possui características bem diversificadas: de um lprédios altos que podem causar reflexões do sinal; do outro, o mar que pode ocasionar a dispersão do sinal, que nele é refletido. Além disso, a vegetação à frente ao local de instalação da antena transmissora é responsável pela absorção, reflexão e essinal. Diante disto, para melhor modelar o ambiente, dividimos o mesmo em 3 trechos (A, B e C) de acordo com sua condição de visada, a partir do local onde foi instalada a antena de

Foi determinado um ponto de referência que se encontrava a 115 m da estação base, no qual já se estava com a velocidade de 40 km/h. Com isso, o trecho A possui, aproximadamente, 47,32 m; a região de obstrução pela vegetação (trecho B) se estende de 47,32 m até 286,4 m, aproximadamente, e o trecho C se estende de 286,4 m até o fim do percurso das medições (1150 m). A Figura 4 mostra os trechos A e C o B, aquele cuja visada é obstruída pela vegetação.

Figura 3. Visada da antena Tx.

Figura 4. Divisão da rota sondada em trechos.

9 de outubro de 2011

43

onde as medidas foram realizadas possui características bem diversificadas: de um lado, prédios altos que podem causar reflexões do sinal; do outro, o mar que pode ocasionar a dispersão do sinal, que nele é refletido. Além disso, a vegetação à frente ao local de instalação da antena transmissora é responsável pela absorção, reflexão e espalhamento do sinal. Diante disto, para melhor modelar o ambiente, dividimos o mesmo em 3 trechos (A, B e C) de acordo com sua condição de visada, a partir do local onde foi instalada a antena de

ncontrava a 115 m da estação base, no qual já se estava com a velocidade de 40 km/h. Com isso, o trecho A

,32 m; a região de obstrução pela vegetação (trecho B) se estende de 286,4 m até

mostra os trechos A e C com visada e

Page 44: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

44

Para fins de comparação de resultados, foi determinado de forma aproximada o momento de entrada na região B, mostrada na Figura 3(b), de forma que se pudesse encontrar um modelo mais adequado para aquela região.

Antes de partir para as medições, todo o sistema que seria utilizado nas medições foi simulado no laboratório e, além disso, foi realizada uma captura de sinais em toda a orla, na frequência desejada, com a finalidade de observar se a frequência que seria usada estava realmente livre de interferências.

3. MODELOS UTILIZADOS

Exemplos de modelos de predição de cobertura consagrados são: Okumura-Hata (HATA, 1980), Hata COST 231, Walfisch-Ikegami com e sem visada (PLITSIS, 2003), Sui e Erceg (ANDREWS ET al., 2007). Todos simulam o comportamento aleatório do sinal, mas diferem nas características que são consideradas, por isso, foram considerados 2 (dois) desses modelos com características mais próximas da orla de Icaraí: Okumura-Hata e Hata COST 231, já que nos outros modelos as características do ambiente são diferentes das considerações da região sondada. Para suas equações básicas de perda média (em dB), tem-se:

• Okumura-Hata

Aprop = 69,55 + 26,16 log(f) – 13,82 log(hb) + (44,9 – 6,55 hb) log(d) – a(hm)

Para grandes cidades e 400 MHz ≤ f ≤ 1500 MHz

a(hm) = 3,2 [log (11,75 hm)]2 - 4,97

Para pequenas e médias cidades:

a(hm) = [ 1,1.log f( MHz ) - 0,7 ].hm- [ 1,56.log f( MHz ) - 0,8 ] (dB)

• Hata COST231 (estende-se até 6 GHz, segundo Plitsis)

Aprop = 46,3 + 33,9 log(f) – 13,82 log(hb) + (44,9 – 6,55 hb) log(d) – a(hm) + CF

onde: a(hm) = [ 1,1.log f( MHz ) - 0,7 ].hm- [ 1,56.log f( MHz ) - 0,8 ] (dB)

CF = 3 dB, para áreas urbanas

CF = 0 dB, para áreas suburbanas

f ≤ 2GHz (confirmado por Plitsis para até 6 GHz)

Quanto aos parâmetros que aparecem nas fórmulas, são definidos:

f → frequência em MHz

hm → altura da antena na estação móvel

hb → altura da antena na estação base

d → distância entre a base e o móvel (km)

CF → fator de correção do modelo de Hata COST 231

4. RESULTADOS

Através de programação adequada, simulou-se um script, que realiza o cálculo da atenuação de sinal para cada modelo de predição citado no item 3 e, então, comparou-se os resultados obtidos utilizando o teste de aderência, conhecido como Chi-Quadrado, que avalia o quanto os valores observados estão próximos dos valores esperados. O modelo que apresenta menor valor da variável Chi-Quadrado é aquele que mais se ajusta aos dados obtidos das medições.

Page 45: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

A Tabela 1 mostra os resultados dos testes de aderência dos modelos para cada trecho, mostrado na Figura 4ambiente sondado são mostradas. Vale ressaltar que os outros modelos apenas citados no item 3 foram testados, para fins de constatação, mas o erro de ajuste foi acima daqueles encontrados nos modelos mostrados na tabela 1, como era de se esperar.

Tabela 1. Teste de Aderência de cada modelo para cada trecho da orla.

Modelo

Okumura-Hata, pequenas e médias cidadesOkumura-Hata, grandes cidadesHata COST 231, para meios suburbanosHata COST 231, para meios urbanos

Figura 5 –

Legenda: Modelo de Okumura

Modelo de Hata Cost231 para meios urbanos

5. CONCLUSÕES

Na sondagem faixa estreita realizada na orla de Icaraí, oinicial, até cerca de 300 m, o nível de sinal caiu com a distância, porém cresceassim que o receptor saiu da vegetação, já que a mesma atenua o sinalabsorção. A partir daí, o sinal mostrou variabilidade, contuddecrescendo com a distância.

Embora no trecho inicial da orla, mais próximo à antena transmissora, o modelo de predição de cobertura de melhor ajuste tenha sido o de Hata COST 231, a análise dos dados obtidos nas medições mostvalores medidos no restante da orlapequenas e médias cidades, embora tenha sido desenvolvido para frequências até 1500 MHz. Resumindo: para a região itransmissor, mostrada na Figura 3, o modelo de Hata COST 231, aplicável para frequências até 6 GHz, foi o de melhor ajuste, enquanto que o de Okumura

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

Tabela 1 mostra os resultados dos testes de aderência dos modelos para cada 4. Na Figura 5, as curvas dos modelos que melhor aderem ao

ambiente sondado são mostradas. Vale ressaltar que os outros modelos apenas citados no foram testados, para fins de constatação, mas o erro de ajuste foi acima daqueles

encontrados nos modelos mostrados na tabela 1, como era de se esperar.Tabela 1. Teste de Aderência de cada modelo para cada trecho da orla.

da Região A

da Região B

pequenas e médias cidades 148,6 84,7 Hata, grandes cidades 134,1 74,4

Hata COST 231, para meios suburbanos 66,2 29,7 Hata COST 231, para meios urbanos 28,5 11,7

Decaimento do sinal recebido com a distância.

Modelo de Okumura-Hata para pequenas e médias cidades

Modelo de Hata Cost231 para meios urbanos

Na sondagem faixa estreita realizada na orla de Icaraí, observouaté cerca de 300 m, o nível de sinal caiu com a distância, porém cresce

receptor saiu da vegetação, já que a mesma atenua o sinalA partir daí, o sinal mostrou variabilidade, contudo o mesmo man

decrescendo com a distância.

Embora no trecho inicial da orla, mais próximo à antena transmissora, o modelo de predição de cobertura de melhor ajuste tenha sido o de Hata COST 231, a análise dos

as medições mostrou que o modelo de cobertura que melhor se ajustou aos no restante da orla, na faixa de 3,5 GHz, foi o de Okumura

, embora tenha sido desenvolvido para frequências até 1500 Resumindo: para a região inicial e a obstruída pela vegetação da praça próxima ao

transmissor, mostrada na Figura 3, o modelo de Hata COST 231, aplicável para frequências até 6 GHz, foi o de melhor ajuste, enquanto que o de Okumura-Hata para pequenas e

9 de outubro de 2011

45

Tabela 1 mostra os resultados dos testes de aderência dos modelos para cada , as curvas dos modelos que melhor aderem ao

ambiente sondado são mostradas. Vale ressaltar que os outros modelos apenas citados no foram testados, para fins de constatação, mas o erro de ajuste foi acima daqueles

encontrados nos modelos mostrados na tabela 1, como era de se esperar. Tabela 1. Teste de Aderência de cada modelo para cada trecho da orla.

da Região da Região C

81,2 86,8 133,1 191,9

Hata para pequenas e médias cidades

bservou-se que no trecho até cerca de 300 m, o nível de sinal caiu com a distância, porém cresceu um pouco

receptor saiu da vegetação, já que a mesma atenua o sinal devido à sua forte mantinha sua média

Embora no trecho inicial da orla, mais próximo à antena transmissora, o modelo de predição de cobertura de melhor ajuste tenha sido o de Hata COST 231, a análise dos

rou que o modelo de cobertura que melhor se ajustou aos , na faixa de 3,5 GHz, foi o de Okumura-Hata para

, embora tenha sido desenvolvido para frequências até 1500 nicial e a obstruída pela vegetação da praça próxima ao

transmissor, mostrada na Figura 3, o modelo de Hata COST 231, aplicável para frequências Hata para pequenas e

Page 46: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

46

médias cidades foi o adequado para a predição de sinal na região da orla, que apresentava uma ou duas árvores no caminho de propagação do sinal.

6. REFERÊNCIAS

ANDREWS, J. G., GHOSH, A., MUHAMED, R. (2007) Fundamentals of WiMAX: Understanding Broadband Wireless Networking. Prentice Hall, USA, 449 p.

BERTONI, H. L. (2000) Radio Propagation for Wireless Systems. Prentice Hall PTR, NJ, 276 p.

BLAUNSTEIN, N. (1999). Radio Propagation in Cellular Networks. Artech House, USA, 387p.

DIAS, P.P. (2010). Análise Comparativa de Modelos de Previsão de Cobertura na Faixa de 3,5 GHz para Sistemas Celulares. Dissertação de Mestrado, UFF, 147p.

HATA, M. (1980). Empirical Formula for Propagation Loss in Land Mobile Radio Service. IEEE Transactions on Vehicular Technology, Vol. 29, No.3.

LEE, W. C. Y. (1989). Mobile Cellular Telecommunications Systems. McGRAW-HILL, Singapore 450p.

OKUMURA, Y. (1968). Field Strength and its Variability in the VHF and UHF Land Mobile Radio Services. Review Electronic Communications, Labs, 16.

PARSONS, J. D. (2000). The Mobile Radio Propagation Channel. JOHN WILEY & SONS, England 483p.

PLITISIS, G. (2003). Coverage Prediction of New Elements of Systems Beyond 3G: The IEEE 802.16 System as a Case Study. Communication Networks, Aachen University.

YACOUB, M. D. (1993). Foundations of Mobile Radio Engineering. CRC Press, NY, 481p.

Page 47: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

47

Análise da influência das cores na emissividade de superfícies no espectro do infravermelho

¹Selson Carias Gomes Júnior, ¹Guilherme Gonçalves DiasTeixeira, ¹Roberto Márcio de Andrade,

¹Rafael Augusto Magalhães Ferreira, ²Henrique Eduardo Pinto Diniz.

¹Escola de Engenharia - Universidade Federal de Minas Gerais (UFMG)

Belo Horizonte, MG, Brasil

²Companhia Energética de Minas Gerais - CEMIG Distribuição S.A.

Belo Horizonte, MG, Brasil

Email dos Autores [email protected], [email protected], [email protected], [email protected],

[email protected]

RESUMO

A termografia é um tipo de ensaio não destrutivo onde, a partir da medição de temperatura superficial, é possível analisar o perfil térmico de um determinado objeto. Para que os resultados sejam satisfatórios, uma série de parâmetros devem ser registrados e ajustados no termovisor. Um dos principais parâmetros que deve ser conhecido é a emissividade, que representa, basicamente, a capacidade de uma superfície emitir radiação. Diversos fatores influenciam a emissividade de um material (forma da superfície, rugosidade etc.). Este artigo apresenta uma investigação sobre a qualidade dos resultados que podem ser alcançados pelo emprego de revestimentos na superfície de objetos sob inspeção, visando aumentar a emissividade. Os objetos analisados foram conexões utilizadas em redes de energia elétrica, submetidas a ciclos térmicos de aquecimento e resfriamento. A incerteza de medição foi calculada em cada um dos casos e os resultados obtidos para superfícies cobertas por diferentes cores de tintas foram comparados àqueles obtidos para a superfície natural do material, mostrando que regiões pintadas com cores diferentes apresentam um comportamento idêntico quanto à emissão de radiação para comprimentos de onda na faixa do infravermelho. Logo, a cor não é parâmetro determinante da emissividade, mas sim a textura que a superfície pintada adquire.

Palavras-Chave: emissividade, incerteza de medição, termografia infravermelha

Page 48: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

48

1. INTRODUÇÃO

A termografia infravermelha é uma técnica não destrutiva muito ágil e objetiva. Utilizada em diversos setores da indústria, e também em inovações de diagnósticos clínicos, consiste na avaliação da temperatura superficial de um objeto, tornando possível a visualização de anomalias que, quando presentes, podem causar distúrbios ou funcionamento irregular.

Figura 2. Inspeção Termográfica

Para realizar uma inspeção termográfica com um termovisor, é necessário o ajuste de diversos parâmetros, que são importantes para a qualidade dos resultados apresentados. Dentre estes parâmetros encontramos: temperatura ambiente, umidade, distância do termovisor ao objeto sob análise, emissividade, dentre outros. A emissividade pode ser definida como a razão entre a radiação emitida por uma superfície qualquer e a radiação emitida por uma superfície ideal (corpo negro) à mesma temperatura. A determinação da emissividade de um material depende de vários fatores, desde o método de fabricação utilizado à rugosidade da superfície, e sua correta avaliação é fundamental para que os resultados da inspeção termográfica sejam coerentes.

Um fator que traz divergências em muitos usuários da termografia é a cor de uma superfície. A faixa do visível está alocada na região das centenas de nanômetros do espectro, ou seja, possuem comprimento de onda menor do que os utilizados pela termografia, cuja faixa vai dos 3 µm aos 15 µm, geralmente. Portanto, superfícies de cores diferentes podem sim apresentar emissividades iguais.

Para que estas dúvidas sejam esclarecidas, este trabalho traz a avaliação da incerteza dos resultados de uma inspeção termográfica em um corpo pintado com tintas semelhantes quanto à composição, mas de cores diferentes, e compara as informações geradas, deixando claro que a cor não é relevante.

2. EXPERIMENTO

Para coletar as informações utilizadas na elaboração deste trabalho, foi necessário a realização de uma série de testes usando uma conexão elétrica, submetida a processos de aquecimento, e um termovisor, SC660 da marca FLIR, para registrar a evolução da temperatura. Estes ensaios aconteceram em um laboratório climatizado, com temperatura ambiente entre 20ºC (293ºK) e 25ºC (298ºK). Foi necessário utilizar uma fonte de corrente elétrica, LET - 1000 RD da marca EuroSMC, para gerar um aumento de temperatura na conexão, através da circulação de corrente. Termopares foram posicionados em pontos

Page 49: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

49

específicos da conexão para que suas indicações fossem comparadas com as indicações do termovisor, validando o experimento.

A conexão teve quatro áreas iguais pintadas, com diferentes cores, e uma área deixada intacta. Dessa forma, uma comparação pode ser feita, relacionando a confiabilidade dos resultados, entre as superfícies com tinta e a superfície polida.

Figura 2. Conexão tipo H pintada,a) espectro visível b) espectro infravermelho.

2.1. ENSAIO DE CICLOS DE AQUECIMENTO E RESFRIAMENTO

O ensaio foi constituído de um ciclo de aquecimento, momento em que a fonte era ligada e uma corrente de 500 A circulava pela conexão, elevando sua temperatura. Estes ciclos duraram aproximadamente uma hora e meia, tempo necessário para que uma temperatura estável fosse alcançada na conexão, em torno de 110ºC (383ºK). Na sequência, o ciclo de resfriamento, onde aguardava-se a temperatura da conexão diminuir até a temperatura ambiente. Ao final de cada ciclo havia o registro de termogramas.

Figura 3. Estrutura dos ensaios realizados em laboratório

2.2. ENSAIO A ALTAS TEMPERATURAS

Para avaliar o comportamento das tintas aderidas a conexão elétrica, a temperaturas mais altas do que as alcançadas nos ensaios de ciclos, um teste diferente foi realizado. Utilizou-se uma conexão elétrica defeituosa, que em função de sua alta resistência elétrica, atinge temperaturas maiores, mesmo com uma corrente baixa. A metodologia foi parecida: um valor de corrente era ajustado e deixado assim por uma hora e meia, buscando a estabilização da temperatura. Ao final deste período, registrou-se alguns termogramas e ajustou-se um novo valor de corrente. O valor inicial foi de 150 A e o final 600 A, com a temperatura variando de 50ºC (323ºK), no princípio, até 550ºC (823ºK), no fim do ensaio.

Page 50: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

50

Usando tintas convencionais, observamos que a partir de 473ºK (200ºC), houve degradação da tinta, chegando à desfiguração completa a uma temperatura de aproximadamente 673ºK (400ºC). Para poder analisar esta condição de altas temperaturas, outro tipo de tinta, mais resistente à temperatura, foi utilizada. O ensaio foi executado com as mesmas características do anterior.

3. RESULTADOS E DISCUSSÃO

Em todos os resultados foi realizado o cálculo da incerteza de medição pelo método GUM (TEIXEIRA, 2011). A Tabela 1 apresenta os resultados obtidos para três ciclos (de um total de dez) do ensaio térmico realizado na conexão ilustrada na Figura 2. A emissividade das regiões pintadas foi estimada em aproximadamente 0,97 enquanto que a região em cor natural apresentou emissividade média de 0,128. Estes resultados estão ilustrados graficamente na Figura 4, onde as barras indicam a faixa de incerteza presente em cada medição de temperatura sobre as regiões pintadas em azul, branco, preto e verde, respectivamente, além da faixa sem tinta, mantida em sua cor natural.

Tabela 1. Dados do ensaio.

Ciclo

Área Azul Branca Preta Verde Natural

Temp., K ±U% Temp.,

K ±U% Temp., K ±U% Temp.,

K ±U% Temp., K ±U%

1 380,47 1,04 382,84 1,06 380,74 1,04 381,79 1,05 381,46 7,96 380,49 1,04 382,83 1,06 380,76 1,04 381,81 1,05 381,53 7,92 380,67 1,04 383,01 1,06 380,93 1,04 382,07 1,05 381,67 7,77

2 382,66 1,05 384,41 1,06 382,57 1,04 383,61 1,05 383,06 7,85

382,77 1,05 384,52 1,06 382,66 1,05 383,82 1,05 383,40 7,93 382,75 1,05 384,54 1,06 382,69 1,05 383,74 1,05 383,38 7,93

3 380,55 1,05 382,05 1,06 380,10 1,05 381,25 1,06 380,77 6,09 380,67 1,05 382,08 1,06 379,97 1,05 381,08 1,05 380,69 6,08 381,51 1,07 382,66 1,07 380,72 1,05 381,94 1,06 381,42 7,26

Page 51: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

Figura 4. Resultados dos ciclos térmicos

O valor elevado de emissividade de 0,97 obtido em todas as faixas de cores forneceu um valor médio de temperatura de aproximadamente 109medição de cerca de 1% em cada medição. Por outro lado, devido à baixíssima emissividade da superfície natural do objeto, a incerteza das medições realizadas nesta área alcançou valores elevados, aproximadamente 8%.

A Figura 5 ilustra a evolução da incerteza de medição em relação à elevação da temperatura para o ensaio descrito na Subseção 2.2. Até a temperatura de 400ºC (673ºK) todas as cores se mantiveram com a mesma emissividade, embora já apresede degradação a temperatura de 200ºC (473ºK). Para temperaturas superiores a 400ºC (673ºK), a degradação das tintas foi suficiente para causar uma queda de emissividade, logo foi observado um sensível aumento da incerteza de medição nas faixespecial suportou temperaturas maiores, mantendo sua emissividade durante todo ensaio.

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

Figura 4. Resultados dos ciclos térmicos

O valor elevado de emissividade de 0,97 obtido em todas as faixas de cores forneceu um valor médio de temperatura de aproximadamente 109ºC (382ºK), com uma incerteza de medição de cerca de 1% em cada medição. Por outro lado, devido à baixíssima emissividade da superfície natural do objeto, a incerteza das medições realizadas nesta área alcançou valores elevados, aproximadamente 8%.

Figura 5. Incerteza de medição

A Figura 5 ilustra a evolução da incerteza de medição em relação à elevação da temperatura para o ensaio descrito na Subseção 2.2. Até a temperatura de 400ºC (673ºK) todas as cores se mantiveram com a mesma emissividade, embora já apresede degradação a temperatura de 200ºC (473ºK). Para temperaturas superiores a 400ºC (673ºK), a degradação das tintas foi suficiente para causar uma queda de emissividade, logo foi observado um sensível aumento da incerteza de medição nas faixas de cores. A tinta especial suportou temperaturas maiores, mantendo sua emissividade durante todo ensaio.

9 de outubro de 2011

51

O valor elevado de emissividade de 0,97 obtido em todas as faixas de cores forneceu K), com uma incerteza de

medição de cerca de 1% em cada medição. Por outro lado, devido à baixíssima emissividade da superfície natural do objeto, a incerteza das medições realizadas nesta

A Figura 5 ilustra a evolução da incerteza de medição em relação à elevação da temperatura para o ensaio descrito na Subseção 2.2. Até a temperatura de 400ºC (673ºK) todas as cores se mantiveram com a mesma emissividade, embora já apresentassem sinais de degradação a temperatura de 200ºC (473ºK). Para temperaturas superiores a 400ºC (673ºK), a degradação das tintas foi suficiente para causar uma queda de emissividade, logo

as de cores. A tinta especial suportou temperaturas maiores, mantendo sua emissividade durante todo ensaio.

Page 52: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

52

4. CONCLUSÃO

Os resultados apresentados demonstram que a cor não é fator determinante para a emissividade da superfície. A emissividade elevada se deve, principalmente, pela uniformização da área de aplicação das tintas. A tinta especial, por exemplo, possui coloração fosca e aspecto rugoso, contudo sua emissividade foi tão elevada quanto aquelas manifestadas pelas tintas azul, branco, preta e verde.

A incerteza de medição corrobora os resultados, demonstrando não haver diferença significativa entre as medições de temperatura obtidas em cada faixa pintada. Além disso, observa-se claramente que a qualidade das medições em termografia infravermelha pode ser melhorada simplesmente pela aplicação de alguma substância capaz de conferir textura à superfície, como por exemplo, tinta, independentemente de sua cor. Todavia, a temperatura suportada pela cobertura é um fator importante a ser avaliado, assim como sua degradação ao longo do tempo.

5. TRABALHOS FUTUROS

Sugere-se que, em trabalhos futuros, o comportamento de superfícies possa ser avaliado em ambiente aberto, submetido ao carregamento solar por exposição das tintas ao sol, chuva, ventos, poeira etc. Assim como a utilização de tintas seletivas e outras texturas sintéticas, que também possam suportar altas temperaturas.

6. REFERÊNCIAS

MALDAGUE, X. P. V. (2001). Theory and Practice of Infrared Technology for Nondestructive Testing, Ed. Wiley-Interscience, 1ª ed, 496p.

INCROPERA, F. P. e DEWITT, D. P. (2003). Transferência de Calor e de Massa, Ed. LTC, Rio de Janeiro, 5ª ed., 509p.

TEIXEIRA, G. G. D.; GOMES S. C. Jr.; ANDRADE, R. M.; FERREIRA E. H. B.; DINIZ, H. E. P. (2011). Avaliação de Incerteza de Resultado de Medição em Termografia Infravermelha pelos Métodos GUM e Monte Carlo, Aplicada ao Diagnóstico de Conexões Elétricas. Anais X Congresso Ibero-Americano em Engenharia Mecânica, Porto, 510.

Page 53: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

53

Análise de desempenho de catalisadores de cobalto e cobre suportados em sílica na decomposição de metan o

Natália M. Esteves, André M. R. Souza, Lília F. C. Souza, Rosenir R. C. M. Silva, Fabio B. Passos Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected], [email protected] [email protected],[email protected],[email protected]

RESUMO

Catalisadores de Co e Cu suportados em SiO2 foram testados na reação de decomposição de metano para analisar suas propriedades catalíticas e seu desempenho na produção de hidrogênio. O teor nominal de Co é de 20% e o teor nominal de Cu varia entre 0,1% e 10%. Também foi testada uma mistura física composta pelos catalisadores de 20%Co/SiO2 e 5%Cu/SiO2. Foi investigada a formação dos depósitos carboníferos nos catalisadores metálicos a 500oC. Estes foram reagidos com vapor d’água. A reação de vaporização dos depósitos foi realizada a temperatura isotérmica de 500oC e variando de 300-800oC. Verificou-se que o desempenho desta mistura física para a produção de hidrogênio é superior aos outros catalisadores de Co e Cu testados; e que a vaporização isotérmica a 500oC não se mostrou satisfatória uma vez que a reação de regeneração do catalisador inicia de fato antes dessa temperatura como pode ser percebido quando esta mesma reação ocorreu entre 300-800oC.

Palavras-Chave: Decomposição de Metano, Produção de Hidrogênio, Catalisadores de Cobalto e Cobre

1. INTRODUÇÃO

O hidrogênio tem sido considerado como uma das fontes de energia mais promissoras e ambientalmente limpas. Diversos processos são utilizados para sua produção, sendo atualmente, a reforma catalítica com vapor e a reforma autotérmica, a partir de combustíveis fósseis, as principais rotas. No entanto, esses processos produzem gás de síntese, do qual o H2 é separado.

Na busca por novas tecnologias que produzam H2 livre de COx, surge a perspectiva de utilização da decomposição catalítica do metano.

A reação, moderadamente endotérmica, produz hidrogênio e depósitos carboníferos na superfície do catalisador, podendo ser representada da seguinte forma:

CH4 → C + 2H2 ∆H298K = 74,52 kJ/mol (1)

(ERMAKOV et al, 2000) afirmaram que o processo de decomposição catalítica do metano dificilmente poderia ser de interesse prático a menos que catalisadores altamente eficientes fossem desenvolvidos. A eficiência do catalisador inclui não só a sua atividade específica, mas sua vida útil operacional, dada a grande quantidade de acúmulo de carbono, que provoca a desativação, e a necessidade de regeneração.

Os catalisadores mais comumente usados são os a base Ni, Fe, Co e Pd. Quanto aos suportes, Al2O3 e SiO2 são os mais estudados (PINILLA et al, 2009), atuando no sentido de melhor dispersar as partículas metálicas, diminuindo o tamanho das mesmas e conseqüentemente prevenindo a sinterização. Quanto à natureza do suporte, há estudos que revelam a sua importância na atividade catalítica. Trabalhos anteriores realizados no RECAT investigaram a influência do suporte em catalisadores de Co na decomposição do metano, sendo o mais ativo o suportado em SiO2 (COVRE et al, 2009).

Page 54: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

54

A utilização de um segundo metal, como dopante, abre caminhos interessantes (AVDEEVA et al, 1996 e TAKENAKA et al, 2003) para aumentar a produção de hidrogênio em decomposição do metano. Diferentes metais estão sendo utilizados, sendo o Cu um dos mais promissores (PINILLA et al, 2009). Catalisadores de Ni-Cu/Al2O3 têm sido estudados por diversos autores. De acordo com a literatura (SUELVES et al 2006), o efeito do Cu em catalisadores de Ni melhora a quimissorção do metano em superfícies limpas de Ni, facilitando a formação de filamentos de C que crescem devido ao efeito de diluição. Menores “ensembles” de átomos de Ni na superfície poderiam diminuir a interação das espécies de carbono adsorvidas, reduzindo a formação do carbono encapsulado, responsável pela desativação catalítica.

Comparando-se os catalisadores de Co com os de Ni, parecem existir algumas diferenças importantes, apesar da proximidade na Tabela Periódica. Enquanto os de Ni apresentam maiores atividades que os de Co, em contrapartida requerem um período de indução, fato não observado nos catalisadores de Co. Os tipos de filamentos são diferentes e o tamanho das partículas metálicas para sua formação também. No entanto, não existem muitas informações com relação à influência da adição de um segundo metal em catalisadores de Co. Catalisadores de Co-Mo são estudados com objetivos voltados para a produção de nanotubos de carbono (OLIVEIRA, 2007). Para geração de H2 é importante ter-se uma alta atividade e boa capacidade de regeneração do catalisador, que poderia ser realizada a menores temperaturas dependendo da facilidade de regeneração das espécies carboníferas formadas na reação de decomposição.

2. EXPERIMENTAL

2.1. PREPARAÇÃO DOS CATALISADORES

A sílica usada como suporte (SiO2 - Davicat SP 550-10022) foi pré-calcinada a uma temperatura de 550°C a uma taxa de aquecimento de 5 °C/min por 4h em mufla. Os catalisadores foram preparados por impregnação seca. Como precursor metálico utilizou-se Co(NO3)2.6H2O da Merk com um teor nominal de 20% em massa de cobalto. A amostra foi seca em estufa a 120°C por 24h e calcinada em mufla a 400°C por 2h. Depois realizou-se a impregnação do promotor Cu utilizando o Cu(NO3)2.3H2O da Merk. Os teores preparados foram de 0,1; 0,5; 1; 2; 5; e 10% de cobre em massa sobre o catalisador de 20%Co/SiO2 preparado anteriormente. Os catalisadores foram novamente secos e calcinados.

Com a finalidade de branco foi preparado um catalisador 5%Cu/SiO2 utilizado a mesma metodologia usada nos demais. Este branco foi adicionado ao catalisador 20%Co/SiO2 na proporção 1:5 e denominado Mistura Física.

2.2. TESTE CATALÍTICO – REAÇÃO ISOTÉRMICA COM CH4 A 500°C

Os testes catalíticos foram realizados numa unidade convencional acoplada a um cromatógrafo a gás, modelo Varian CP3800 com coluna capilar Supelco Carboxen TPLOT 1010, para análise em linha dos produtos formados. Estes consistem em três etapas: (i) secagem do catalisador a 150°C por 30 min sob fluxo de He; (ii) redução sob fluxo de H2 (100mL/min) a 500°C por 2h; (iii) reação isotérmica a 500°C sob fluxo de 20% CH 4/He com vazão total de 100ml/min.

2.4. REAÇÃO DOS DEPÓSITOS CARBONÍFEROS COM VAPOR D’ÁGUA

Novos testes catalíticos com regeneração foram realizados na unidade convencional acoplada ao cromatógrafo gasoso. Após as etapas de secagem e redução do catalisador, foi conduzida a reação de decomposição do metano por 2h, seguida da reação com vapor d’água para avaliar a reatividade das espécies de carbono formadas, utilizando-se um fluxo de vapor d’água/He, passando-se 80 ml/min de He por um saturador contendo água a 60oC. As temperaturas da reação de regeneração dos depósitos carboníferos foram 500oC isotermicamente e variando de 300 a 800oC com taxa de aquecimento 2oC/min.

Page 55: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

3. RESULTADOS E DISCUSS

3.1. TESTE CATALÍTICO – REAÇÃO

A Figura 1 apresenta os resultados dos testes catalíticos para os catalisadores de Co-Cu suportados contendo teores nominais de 20% de Co e 0,1; 0,5; 1; 2; 5 e 10% de Cu e para a Mistura Física. O catalisador contendo 0,1% de Cu apresentando um comportamento semelhante ao do catalisador de Co sem Cu, com uma atividade ligeiramente inferior. No entanto, os catalisadores contendo teores acima de 0,5% de Cu exibiram menores taxas iniciais e rapidamente desaintenso para maiores teores de Cu. Isto sugere um efeito geométrico de recobrimento da superfície pelo Cu, bloqueando os sítios ativos para reação. À medida que os teores de Cu aumentam, os tamanhos das partículas de Co expostrecobrimento. Pesquisadores (AVDEEVA et al, 1999; BOSLOVIC & SMITH, 1999; ZHANG & SMITH, 2002) afirmam que a formação dos filamentos de carbono depende do tamanho das partículas metálicas de cobalto, sendo necessárias partpara sua formação. Provavelmente, a adição de Cu destrói os “ensembles” necessários para formação desses filamentos, o que provocaria a rápida diminuição da atividade desses catalisadores nos primeiros instantes de reação.

Figura 1. Taxa de conversão do metano para os catalisadores com 20% Co/SiO0,5%, 1%, 2%, 5% e 10% de Cu e para a Mistura Física.

Foi realizado também o teste catalítico para o catalisador sem Co (5%Cu/SiOapresentado sob a forma de tapresentou resultado semelhante aos catalisadores contendo 5%Cu20%Co. Os resultados mostram que quando o catalisador sem cobalto (5%Cu/SiO1:5 ao catalisador de Co purode hidrogênio. De acordo com estudos anteriores (AMMENDOLA et al, 2006) não há a formação de carbono filamentar em catalisadores de Cu durante a decomposição de metano, o carbono formado é acumulado ucontrapartida, cientistas (DRIESEN & GRASSIAN, 1996) propuseram que os grupos CHadsorvidos no Cuo migram para a superfície da SiO(SiOH) e formam SiOCH3. Esuporte e verificaram que não há spillover de CHadsorção de CH3 se a SiO2 não tiver grupos OH ligados a superfície (SiOH).sílica utilizada é amorfa e foi Esses dois efeitos concomitantemente poderiam explicar esse aumento na atividade da decomposição do metano usando a Mistura Física.

A Tabela 1 apresenta a quantidade de carbono formado durante a decomposição calculada a partir dos dados de conversão do metano. A Mistura Física apresenta maior taxa de formação de carbono tanto na 1sua duração mostrando que contribui também para a estabilidade na produção Observa-se que os catalisadores sem Cu e com baixo teor do mesmo, 0,1%, se mostraram mais ativos do que os com teores de Cu superiores a 1%, produzindo maiores quantidades

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

RESULTADOS E DISCUSSÃO

REAÇÃO ISOTÉRMICA COM CH4 A 500°C

apresenta os resultados dos testes catalíticos para os catalisadores de Cu suportados contendo teores nominais de 20% de Co e 0,1; 0,5; 1; 2; 5 e 10% de Cu e

para a Mistura Física. O catalisador contendo 0,1% de Cu exibiu certa estabilidade apresentando um comportamento semelhante ao do catalisador de Co sem Cu, com uma atividade ligeiramente inferior. No entanto, os catalisadores contendo teores acima de 0,5% de Cu exibiram menores taxas iniciais e rapidamente desativaram, sendo o efeito mais intenso para maiores teores de Cu. Isto sugere um efeito geométrico de recobrimento da superfície pelo Cu, bloqueando os sítios ativos para reação. À medida que os teores de Cu aumentam, os tamanhos das partículas de Co expostas podem ter sido alterados pelo recobrimento. Pesquisadores (AVDEEVA et al, 1999; BOSLOVIC & SMITH, 1999; ZHANG & SMITH, 2002) afirmam que a formação dos filamentos de carbono depende do tamanho das partículas metálicas de cobalto, sendo necessárias partículas na ordem de 15para sua formação. Provavelmente, a adição de Cu destrói os “ensembles” necessários para formação desses filamentos, o que provocaria a rápida diminuição da atividade desses catalisadores nos primeiros instantes de reação.

Taxa de conversão do metano para os catalisadores com 20% Co/SiO0,5%, 1%, 2%, 5% e 10% de Cu e para a Mistura Física.

Foi realizado também o teste catalítico para o catalisador sem Co (5%Cu/SiOapresentado sob a forma de total de carbono formado durante a reação na tabela 1) que apresentou resultado semelhante aos catalisadores contendo 5%Cu20%Co. Os resultados mostram que quando o catalisador sem cobalto (5%Cu/SiO2) foi adicionado em proporção 1:5 ao catalisador de Co puro (20%Co/SiO2) houve um aumento na atividade da produção de hidrogênio. De acordo com estudos anteriores (AMMENDOLA et al, 2006) não há a formação de carbono filamentar em catalisadores de Cu durante a decomposição de metano, o carbono formado é acumulado uniformemente na superfície do catalisador. Em contrapartida, cientistas (DRIESEN & GRASSIAN, 1996) propuseram que os grupos CH

migram para a superfície da SiO2 onde reagem com os grupos silanóis . Eles propõem o spillover do CH3 adsorvido do metal para o

suporte e verificaram que não há spillover de CH3 na SiO2 pura sem Cuo

não tiver grupos OH ligados a superfície (SiOH).sílica utilizada é amorfa e foi calcinada a baixa temperatura existem grupos OH no suporte. Esses dois efeitos concomitantemente poderiam explicar esse aumento na atividade da decomposição do metano usando a Mistura Física.

Tabela 1 apresenta a quantidade de carbono formado durante a decomposição calculada a partir dos dados de conversão do metano. A Mistura Física apresenta maior taxa de formação de carbono tanto na 1a hora de reação quanto em toda a sua duração mostrando que contribui também para a estabilidade na produção

se que os catalisadores sem Cu e com baixo teor do mesmo, 0,1%, se mostraram mais ativos do que os com teores de Cu superiores a 1%, produzindo maiores quantidades

9 de outubro de 2011

55

apresenta os resultados dos testes catalíticos para os catalisadores de Cu suportados contendo teores nominais de 20% de Co e 0,1; 0,5; 1; 2; 5 e 10% de Cu e

exibiu certa estabilidade apresentando um comportamento semelhante ao do catalisador de Co sem Cu, com uma atividade ligeiramente inferior. No entanto, os catalisadores contendo teores acima de 0,5%

tivaram, sendo o efeito mais intenso para maiores teores de Cu. Isto sugere um efeito geométrico de recobrimento da superfície pelo Cu, bloqueando os sítios ativos para reação. À medida que os teores de Cu

as podem ter sido alterados pelo recobrimento. Pesquisadores (AVDEEVA et al, 1999; BOSLOVIC & SMITH, 1999; ZHANG & SMITH, 2002) afirmam que a formação dos filamentos de carbono depende do tamanho

ículas na ordem de 15-20 nm para sua formação. Provavelmente, a adição de Cu destrói os “ensembles” necessários para formação desses filamentos, o que provocaria a rápida diminuição da atividade desses

Taxa de conversão do metano para os catalisadores com 20% Co/SiO2, contendo 0,1%,

Foi realizado também o teste catalítico para o catalisador sem Co (5%Cu/SiO2, dado otal de carbono formado durante a reação na tabela 1) que

apresentou resultado semelhante aos catalisadores contendo 5%Cu20%Co. Os resultados ) foi adicionado em proporção

) houve um aumento na atividade da produção de hidrogênio. De acordo com estudos anteriores (AMMENDOLA et al, 2006) não há a formação de carbono filamentar em catalisadores de Cu durante a decomposição de

niformemente na superfície do catalisador. Em contrapartida, cientistas (DRIESEN & GRASSIAN, 1996) propuseram que os grupos CH3

onde reagem com os grupos silanóis adsorvido do metal para o

o e também não há não tiver grupos OH ligados a superfície (SiOH). Porém como a

calcinada a baixa temperatura existem grupos OH no suporte. Esses dois efeitos concomitantemente poderiam explicar esse aumento na atividade da

Tabela 1 apresenta a quantidade de carbono formado durante a reação de decomposição calculada a partir dos dados de conversão do metano. A Mistura Física

hora de reação quanto em toda a sua duração mostrando que contribui também para a estabilidade na produção de H2.

se que os catalisadores sem Cu e com baixo teor do mesmo, 0,1%, se mostraram mais ativos do que os com teores de Cu superiores a 1%, produzindo maiores quantidades

Page 56: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

56

de carbono. O catalisador contendo 10% Cu exibiu a menor quantidade de C produzido, sendo inferior inclusive ao catalisador contendo apenas Cu. Os dados de taxa por massa de catalisador foram incluídos na tabela para permitir uma comparação com o catalisador sem cobalto, de 5%Cu/SiO2. Durante a primeira hora de reação, todos os catalisadores se mostraram mais ativos, apresentando taxas de formação de carbono bem superiores a média global de formação de carbono.

Tabela 1. Taxas de formação de carbono calculadas a partir dos testes catalíticos de decomposição do metano em catalisadores a base de cobalto

Catalisador (teor nominal)

Taxa média de carbono

formado (µmolC/

(mgCo.min)a

Taxa de carbono formado na 1a hora de reação

(µmolC/ mgCo.min)b

Total de carbono formado durante

a reação (206min)

(µmolC/mgCo)

Total de carbono formado durante

a reação (206min)

(µmolC/mgCat) 20% Co/SiO2 2,6 3,6 537 100 20% Co-0,1 %Cu/SiO2 2,1 3,2 431 81 20% Co-0,5 %Cu/SiO2 1,8 2,6 379 71 20% Co-1 %Cu/SiO2 0,9 1,2 186 34 20% Co-2 %Cu/SiO2 0,6 0,9 114 21 20% Co-5 %Cu/SiO2 0,7 0,8 144 25 20% Co-10 %Cu/SiO2 0,3 0,5 67 11 5%Cu/SiO2 - - - 23 Mistura Física 3,4 3,9 710 133

3.2. REATIVIDADE DOS DEPÓSITOS CARBONÍFEROS COM VAPOR D’ÁGUA

As Figura 2 e 3 apresentam as taxas de produção de CO, CO2, H2 e O2 durante a reação dos depósitos carboníferos, formados na decomposição do metano, com vapor d’água para os catalisadores 20%Co/SiO2, Mistura Física e 0,5%Cu-20%Co/SiO2

isotermicamente à 500oC e para os catalisadores 20%Co/SiO2, Mistura Física, 0,1%Cu-20%Co/SiO2 e 1%Cu-20%Co/SiO2 com a temperatura variando de 300 à 800oC, respectivamente.

É observado na Figura 2 que durante a vaporização isotérmica a 500oC há uma maior produção de H2 seguido de CO2 e CO e que os perfis de produção variam de acordo com o catalisador utilizado. Indicando que a reação (3) ocorre preferencialmente à reação (2).

Cdepósito + H2O → CO + H2 (2)

Cdepósito + 2H2O → CO2 + 2H2 (3)

Co + H2O → CoO + H2 (4)

CoO + H2 → Co + H2O (5)

Quando a temperatura da vaporização varia de 300oC à 800oC , figura 3, pode-se perceber que a reação de vaporização inicia de fato a 300oC para o catalisador contendo apenas Co e em torno de 400oC para os catalisadores contendo Co e Cu. Sendo o máximo de temperatura de reação em torno de 610oC para 20%Co/SiO2 , 630oC para Mistura Física e entre 500-550oC para os catalisadores com 1 e 0,1% de Cu. Nota-se ainda que para a Mistura Física e 20%Co/SiO2 existem faixas de temperatura em que a produção de CO é superior a de CO2. Com relação às quantidades, verificou-se que houve uma maior taxa de produção de H2 para a Mistura Física devido a sua maior atividade catalítica e, conseqüentemente, uma maior formação de depósitos carboníferos.

Page 57: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

57

Figura 2. Reatividade dos depósitos carboníferos com vapor d’água de isotermicamente a 500oC.Catalisadores utilizados a: 20%Co/SiO2; b:Mistura Física; c: 0,5%Cu-20%Co/SiO2.

Figura 3. Reatividade dos depósitos carboníferos com vapor d´água de 300oC à 800oC com taxa de aquecimento de 2oC/min.. Catalisadores utilizados a: 20% Co/SiO2; b:Mistura Física; c: 0,1% Cu 20%

Co/SiO2; d: 1% Cu 20% Co/SiO2.

Há que se considerar que a presença do vapor d’água poderia reoxidar parcialmente o Co a CoO, e que a produção de hidrogênio manteria algumas partículas ainda na forma metálica contribuindo para restabelecer a atividade catalítica em nova etapa de decomposição.

4. CONCLUSÕES

Durante os testes catalíticos, o catalisador contendo 0,1% de Cu apresentou um comportamento semelhante ao do catalisador de Co sem Cu, com uma atividade ligeiramente inferior. Os catalisadores contendo teores acima de 1% de Cu exibiram menores taxas iniciais e tiveram uma rápida queda na ativação, sendo o efeito mais intenso para maiores teores de Cu.O catalisador denominado Mistura Física apresentou atividade superior aos demais catalisadores inclusive aos catalisadores de Co e Cu puros que são a sua origem, esse comportamento pode ser explicado pela soma de dois efeitos: o spillover do grupamento metil adsorvido do metal para o suporte e o acúmulo uniforme do carbono produzido na superfície do catalisador e não de forma filamentar.

Page 58: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

58

A vaporização dos depósitos carboníferos formados inicia de fato entre 300-400oC antes da temperatura de reação, 500oC, indicando que não seria satisfatória a execução de ciclos isotérmicos de reação e regeneração do catalisador utilizado.

5. AGRADECIMENTOS

Agradecemos ao CNPq e a CAPES pelo auxílio financeiro.

6. REFERÊNCIAS

AMMENDOLA P., CHIRONE R., RUOPPOLO G., RUSSO G. (2006). H2 production by catalytic methane decomposition on Cu bades cataltst. WHEC 16, Lyon France.

AVDEEVA L.B., GONCHAROVA O.V., KOCHUBEY D.I., ZAIKOVSKII V.I., PLYASOVA L.M., NOVGORODOV B.N., SHAIKHUTDINOV S.K. (1996), Coprecipitated Ni-alumina and ni-Cu-alumina catalysts oh methane decomposition and carbon deposition. Appl. Catal. A Gen, 141, 117.

AVDEEVA L.B., KOCHUBEY D. I., SHAIKHUTDINOV S. K. (1999).Cobalt catalysts of methane decomposition: accumulation of the filamentous carbon. Appl. Catal. A.177, 43.

BOSLOVIC G., SMITH K. J. (1997), Catal. Today, 37, 25-32.

COVRE J. P. M., PASSOS F. B., SILVA R. R. C. M.(2009), in Anais do 15o Congresso Brasileiro de Catálise, CDROM, Armação dos Búzios, RJ.

DRIESSEN M.D; GRASSIAN V.H. (1996) Methyl Spillover on Silica-Supported Copper catalysts from the Dissociative Adsorption oh Methyl Halides. J. Catal, 161, 810-818.

ERMAKOV M. A.; ERMAKOV D. Y.; KUVSHINO G.G.(2000) New nickel catalysts for the formation of filamentous carbon in the reaction of methane decomposition.Appl. Catal. A, 201, 61.

KITIYANAN B., ALVAREZ W. E., HARWELL J. H., RESASCO D. (2000) E.Chemical Physics Letters, 317, 497-503.

OLIVEIRA H.A., (2007) Dissertação de Mestrado, Universidade Federal Fluminense.

PINILLA J.L.; SUELVES I.; LÁZARO M. J.; MOLINER R.; PALACIOS J.M., (2009) Influence of nickel crystal domain size on the behaviour of Ni and NiCu catalysts for the methane decomposition reaction. Appl. Catal. A Gen, 363, 199-207.

SUELVES, I, LÁZARO M.J, MOLINER R., ECHEGOYEN, J. M, PALACIOS (2006) Characterization of NiAl and NiCuAl catalysts prepared bydifferent methods for hydrogen production by thermocatalytic decomposition of methane. J.M. Catal. Today, 116, 271.

TAKENAKA S., SHIGETA Y., TANABE E., OTSUKA K., (2003) J. Catal, 220, 468.

ZHANG Y., SMITH K. C. H, (2002) CH4 Decomposition on Co Catalysts: Effect of Temperature, Dispersion, and the Presence of H2 or CO in the Feed. Catal. Today, 77, 257.

Page 59: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

59

Análise de fatores que contribuem para a redução no índice de evasão

Neuci Nobrega Canelas Costa Guimarães, Fernando B. Mainier

Rosenir Rita de Cássia Moreira da Silva

Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

[email protected]

[email protected]

[email protected]

RESUMO

Novas proposições e reflexões são necessárias, constantemente, para a modernização do ensino e, particularmente, o de Engenharia. Qualidade e Inovação são temas que precisam estar associados e não podem se distanciar da realidade da educação tecnológica. Ensino que dê ênfase à qualidade e à inovação, pode contribuir para a redução da evasão, uma questão fortemente presente nos cursos de engenharia. Vários fatores podem influenciar os índices de evasão e precisam ser diagnosticados. Este trabalho tem como objetivo identificar alguns desses fatores que possam contribuir para reduzir a evasão nos cursos de engenharia. A partir de uma pesquisa realizada com 80 alunos dos diversos cursos de engenharia da Universidade Federal Fluminense (UFF) foi possível fazer uma análise preliminar e enumerar alguns dos fatores que podem influenciar a evasão. Um panorama da evolução da relação candidato/vagas e do número de formados por curso, ao longo dos últimos 10 anos, é apresentado, evidenciando uma relação com as perspectivas do mercado de trabalho e consequentemente com o grau de evasão no curso. Verificou-se que a disciplina “Introdução à Engenharia” fornece aos alunos um melhor esclarecimento sobre os cursos, contribuindo para a adaptação dos mesmos à instituição, divulga os programas acadêmicos existentes na Universidade, que são fatores qualitativos que interferem no desempenho acadêmico e, por conseguinte nos índices de evasão.

Palavras-Chave: Qualidade. Inovação. Evasão. Introdução à Engenharia.

1. INTRODUÇÃO

As instituições públicas e privadas precisam prestar um ensino de qualidade, para que sejam objeto de novas escolhas e preferências, atraindo os melhores alunos e professores, garantindo assim a sua sobrevivência, já que a qualidade do ensino é determinante para tal (SARAIVA, 2007).

São realizadas reformas nos sistemas educacionais para torná-los mais eficientes para que acompanhem as transformações do mundo moderno. Termos como “qualidade” e “inovação” precisam estar associados, e não podem se distanciar desta realidade (SILVA e CECÍLIO, 2007). É necessário pensar em um novo perfil do engenheiro, de mente aberta, preparado para aprender sempre, como está salientado em (LONGO, 2001), quando propõe o “fim da formatura”, e termos como “professor estudante”, ou seja, aquele que está em contínuo aprender. Aprender com qualidade e produtividade a fim de consequentemente, se alcançar a competitividade.

Os altos índices de reprovação nas disciplinas do ciclo básico de Engenharia contribuem para dois fatores: para a retenção dos alunos nos períodos iniciais dos cursos, elevando o tempo de permanência na instituição, e para o abandono do curso (SILVA et al., 2006). Propor inovações no ensino propicia a motivação e o envolvimento dos alunos contribuindo para reduzir a evasão, tema que ainda é preocupação de muitos autores. Propor mudanças no ensino de Engenharia que aprimorem a qualidade, através de um

Page 60: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

60

ensino que dê ênfase às inovações que o mercado exige, é uma meta a ser atingida, conforme propostas da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES), no Plano Nacional Pró-Engenharia, entregue ao Ministério da Educação (MEC). O objetivo é fazer com que os alunos se sintam motivados, evitando-se as perdas e a retenção dos mesmos nos períodos iniciais dos cursos, minimizando assim a evasão.

A inclusão da disciplina “Introdução à Engenharia” no primeiro período dos cursos de Engenharia veio contribuir para motivar os alunos e reduzir a evasão dos cursos, mas não eliminá-la. Por meio desta é possível diagnosticar os problemas existentes no início do curso e buscar soluções que possam minimizá-los (SILVA et al, 2006). Diversos fatores estão envolvidos neste processo provocando a desmotivação do aluno e, consequentemente sua evasão.

Desta forma, o presente trabalho apresenta inicialmente uma análise preliminar do panorama da evasão nos cursos de engenharia.

Por meio de um questionário aplicado aos alunos de diversos períodos foi possível identificar possíveis causas e fatores que influenciam a evasão.

2. REVISÃO DA LITERATURA

2.1. QUALIDADE NO ENSINO

A globalização faz com que haja um processo constante de mudanças. A interação entre as pessoas proporcionada por essa globalização faz com que essas mudanças tenham urgência em serem implantadas a partir das necessidades de cada ambiente.

“O sucesso das organizações dependerá de sua capacidade de ler a realidade externa, rastrear mudanças e transformações, identificar oportunidades [...] modificar sua linha de ação, renovar-se, ajustar-se, transformar-se e adaptar-se rapidamente [...]”.(CHIAVENATO, 2001, p.23).

Os conceitos de qualidade e inovação no ensino estão intimamente ligados. É necessário elevar a qualidade da educação para que se estimule a inovação e o ensino venha atender às demandas que a sociedade exige (CAVALCANTE, 2005).

Muito embora outros autores analisem a qualidade separadamente e existam divergências quanto a sua definição, fatores quantitativos (número de escolas, de alunos, de professores e orçamento) são levados em consideração, assim como fatores qualitativos (programas, avaliação do ensino, inovação, partilha de recursos, interação e nível de satisfação dos envolvidos).

A Universidade Federal Fluminense tem como missão “[...] a constante busca por uma qualidade sempre maior [...]. Formar pessoal qualificado, gerando conhecimento para a sociedade, é a nossa missão” (MELLO, 2010, p.5).

Engers, destaca a importância do ensino superior no desenvolvimento da sociedade:

[...] O ensino superior qualifica profissionais para formarem outros... Portanto, seu desempenho é fundamental. A universidade precisa desenvolver suas atividades de forma a articular o tripé que compõe a sua estrutura. É, pois, essencial que essa instituição desenvolva uma educação voltada para a qualidade profissional e pessoal do indivíduo, [...] (ENGERS, 2002, p.15).

Como as universidades são questionadas pela sociedade e pelo governo quanto à eficiência, os seus modelos são alvo de estudos por parte da Academia e do MEC (CORRÊA e SCHUCH JÚNIOR, 1999). Faz-se necessário então, propor mudanças no ensino de Engenharia que aprimorem a qualidade.

Page 61: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

61

2.2. INOVAÇÃO NO ENSINO

As inovações no campo educacional não significam práticas necessariamente novas, podendo ser uma melhoria de uma prática já utilizada anteriormente (HUBERMAN, 1973). Estimular a visão Interdisciplinar nos cursos de engenharia pode ser um exemplo disto.

A interdisciplinaridade não é uma prática recente, “desde o início do século já se desenvolvia, somente agora se manifesta como um conceito enriquecido, propulsionado pela consciência cada vez mais consolidada da fragmentação do saber [...]” e ainda:

No ensino, o objetivo da interdisciplinaridade é alcançar a visão globalizada de mundo e dominar a complexidade da realidade de forma integradora [...]. A prática interdisciplinar deve, portanto, fazer ligação entre disciplinas, estabelecer linguagem de orientação comum entre os professores, integrar o ensino à realidade, superar os problemas da fragmentação e, principalmente, formar o aluno para enfrentar os problemas do mundo globalizado (RODRIGUES et al., 2001, p. 3).

“O crescimento de um país depende, diretamente, do estímulo à inovação, por meio de investimentos em pesquisa e desenvolvimento (P & D) e na formação, qualificação e retenção de profissionais da área tecnológica”. (CAVALCANTE, 2005, p.48). A estimulação de ambientes simultâneos “universitários” e “empresariais” é um desafio para o país, sendo necessária a colaboração entre governo, empresas e instituições de educação e pesquisa.

Uma melhor utilização da internet como aliada em vários níveis do processo de aprendizagem em prol do conhecimento e das práticas educativas. (NOVAK, 2003).

A Resolução no 11, de 11 de março de 2002, do Conselho Nacional de Educação da Câmara de Educação Superior (CNE/CES), contribui para essa motivação e inovação, onde em seu Artigo 5o, parágrafos 1o e 2o, é favorável à redução da carga horária em sala de aula, estimulando os trabalhos individuais e em grupos, atividades complementares, iniciação científica, monitorias, participação em empresas juniores e outros. Portanto, diversos são os caminhos para a inovação.

2.3. A EVASÃO NO ENSINO SUPERIOR

A evasão no ensino superior pode ser considerada sob diversos fatores: o número de alunos que se matriculam e não efetuam inscrições em disciplinas nos períodos seguintes; o número de alunos que entram num curso e não recebem a titulação ao final de determinados períodos previstos, ou seja, ficam retidos e, o número de alunos que desistem logo no primeiro ano. Pode-se acrescentar também o número de alunos que são sucessivamente reprovados e que acabam sendo desligados dos cursos. (SILVA FILHO et al., 2007).

A falta de recursos financeiros para a continuação dos estudos é também apontada como causa, porém várias outras contribuem para a desistência do aluno, como a falta de integração com a instituição e desta com o mercado de trabalho. A condição financeira é a principal razão, reforçada pela falta de tempo para os estudos, quando o aluno necessita trabalhar (SILVA FILHO et al., 2007). Esses autores apontam também o alto custo das mensalidades das instituições particulares como um fator a ser considerado.

A falta de maturidade, de informação e de interesse pela carreira escolhida favorecem ao abandono do curso, somada à falta de adaptação ao novo ambiente. Muitos alunos que ingressam na universidade vêm de um ensino médio deficiente e se deparam com as dificuldades das novas disciplinas. Estão nesse processo, muitas vezes, obrigados, seja pela obtenção de um diploma ou para satisfação de seus pais. Além disso, quando se estuda aquilo que gosta, o interesse é maior, a facilidade no aprendizado vem naturalmente, bem como o tempo para adquirir e assimilar o conhecimento passa a ser muito menor.

Particularmente, no caso dos cursos de Engenharia, a evasão é uma questão preocupante. Segundo dados da Pró-Reitoria de Graduação da UFF (2010), nos anos de

Page 62: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

62

2009 e 2010, a evasão nos cursos de engenharia chegou a 442 e 414 alunos, respectivamente. Atualmente, no Brasil, a falta de profissionais qualificados na área de engenharia pode limitar seu crescimento.

A Figura 3 mostra a evolução do número de alunos evadidos por curso de Engenharia na UFF, no período compreendido entre os anos 2000 a 2010.

Figura 3. Evasão nos Cursos de Engenharia da UFF

Fonte: Pró-reitoria de Graduação da UFF

3. METODOLOGIA EMPREGADA NA PESQUISA

O estudo apresentado tem um caráter exploratório, buscando-se fazer um diagnóstico da evasão nos cursos de engenharia da UFF. O objetivo é identificar fatores que possam influenciar no desenvolvimento do aluno e na sua motivação para o curso.

Desta forma, uma pesquisa foi realizada utilizando-se dados disponibilizados pela universidade e questionários aplicados a 80 alunos dos cursos de engenharia, cursando o 1º Semestre de 2011, divididos em dois grupos:

• GRUPO 1: 30 alunos inscritos no primeiro período, cursando a disciplina “Introdução à Engenharia”;

• GRUPO 2: 50 alunos de diversos períodos que já cursaram a disciplina anteriormente.

4. DISCUSSÃO DOS RESULTADOS

4.1. INFLUÊNCIA DO MERCADO DE TRABALHO NA RELAÇÃO CANDIDATO/VAGA E NO NÚMERO DE FORMADOS

As Figuras 2 e 3 apresentam a evolução da relação candidato/vaga apresentada por alguns cursos de engenharia da UFF nos últimos 10 anos. A Figura 2 apresenta essa evolução para os cursos que exibiram aumento na relação e que em 2011 apresentaram

Evasão nos Cursos de Engenharia da UFF

0

10

20

30

40

50

60

70

80

90

100

2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010

Núm

ero

de E

vadi

dos

Elétrica

Civil

Mecânica

Agrícola

Produção

Telecomunicações

Química

Petróleo

Rec.Hid.M.Amb.

Page 63: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

63

valores superiores a 15. A Figura 3 apresenta essa evolução para os cursos que exibiram diminuição nessa relação e que em 2011 apresentaram valores inferiores a 15.

É visivelmente evidenciada a procura acentuada por alguns cursos como Engenharia Mecânica, Petróleo, Produção e Engenharia Química a partir de 2007, em função do novo cenário político e econômico no Brasil. Cabe esclarecer que, o vestibular para o curso de Engenharia de Petróleo teve início no ano de 2006 com uma elevada taxa na relação candidato/vaga, em torno 27, em função da exploração das grandes reservas de petróleo do pré-sal e dos investimentos do setor, altamente demandante de mão-de-obra qualificada (Agência Nacional do Petróleo - ANP). O curso de Engenharia Civil também apresenta uma crescente procura, conforme apresentado na Figura 2, tendo em vista o aquecimento da construção civil com o aumento do número de obras em todo país, reforçada com grandes obras visando a Copa do Mundo de Futebol em 2014 e os Jogos Olímpicos Mundiais de 2016 (Olimpíadas de 2016), que se realizarão no Brasil.

Figura 2. Evolução do aumento da relação candidato/vaga apresentada por alguns cursos de engenharia da UFF.

Figura 3. Evolução da diminuição da relação candidato/vaga apresentados por alguns cursos de engenharia da UFF

0

10

20

30

Re

laçã

o C

an

did

ato

/V

ag

a

Ano

Civil

Mecânica

Química

Produção

Petróleo

0

5

10

15

20

25

Re

laçã

o C

an

did

ato

/V

ag

a

Ano

Agrícola

Elétrica

Rec.Hídr.

Telecomun

Page 64: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

64

A Figura 4 apresenta a evolução do número de formados por curso. Observa-se uma tendência de crescimento em alguns cursos e em outros uma diminuição, alguns exibindo máximos, com comportamentos que sugerem uma correlação com a relação candidato/vagas, apresentada nas Figuras 2 e 3. Cabe ressaltar que até ano de 1999, a opção para os cursos de engenharia, exceto engenharia química, não era feita no vestibular e sim após o quarto período, refletindo posteriormente nos altos índices de formados para engenharia de produção e de telecomunicações, estando de acordo com os interesses do mercado da época.

Figura 4 – Número de formados por curso de engenharia

A baixa quantidade de formados observada para alguns cursos coincidem com a baixa relação candidato/vagas e com um alto índice de evasão. Considerando que entre 2000 e 2009 ingressavam nos cursos uma média de 30-35 alunos por semestre (40 para engenharia química), segundos dados oficiais disponibilizados na página da Coordenadoria de Seleção Acadêmica (COSEAC) vinculada à Pró-Reitoria de Graduação da UFF (PROGRAD). A grande diferença observada na quantidade de formados não se justifica, sem que seja por motivo de evasão.

4.2. CONTRIBUIÇÃO DA DISCIPLINA DE INTRODUÇÃO A ENGENHARIA

A Tabela 1 apresenta os resultados dos questionários distribuídos aos grupos para se verificar a contribuição da disciplina Introdução à Engenharia nos cursos. Em 30 alunos, integrantes do Grupo 1, vinte e cinco responderam que a disciplina contribuiu para “melhor esclarecimento sobre o curso”, correspondendo a 83%, e oito responderam que contribuiu para “adaptação no curso”, correspondendo a 26%. Analisando os resultados do Grupo 2, verificou-se que 27 alunos num total de 50 afirmaram que a disciplina contribuiu para “melhor esclarecimento sobre o curso”, correspondendo a 54% do total enquanto que 14 alunos disseram que a disciplina contribuiu para “conhecer os projetos acadêmicos existentes” na instituição, correspondendo a 28% do total, ocupando a segunda posição dentre as opções apresentadas. Em terceira posição, 12 alunos (24%) responderam que a disciplina contribuiu para sua “adaptação no curso”. É interessante observar que mesmo após diversos períodos os alunos concordam que a disciplina contribuiu para a sua adaptação no curso.

Tabela 1. Contribuições da disciplina “Introdução à Engenharia”.

Respostas Grupo 1 Grupo 2

0

30

60

90

120

Número de

formados

Ano

Petróleo

Agrícola

Civil

Elétrica

Mecânica

Química

Produção

Telecom

Page 65: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

65

Melhor esclarecimento sobre o curso 83% 54%

Adaptação no curso 26% 24%

Conhecer os projetos existentes 3% 28%

Não contribuiu 3% 6%

Não opinou 1% 0

Obs.: Os alunos foram instruídos a marcar mais de uma opção, se necessário.

Com relação ao nível de motivação, para os 80 alunos, 22% a consideram como “Ótima”, 59% como “Boa” e 19% como “Razoável”.

4.3. PARTICIPAÇÃO EM PROGRAMAS ACADÊMICOS

Por meio da aplicação dos questionários pôde-se também verificar a importância dos programas acadêmicos existentes na Universidade como a Monitoria, a Iniciação Científica, o Programa de Educação Tutorial (PET) e outros que contribuem para seu crescimento, o que proporciona um maior interesse nos cursos.

Dos alunos que participaram dos programas acadêmicos, 43% responderam que os programas influenciaram “Muito” na sua motivação, sendo que os principais motivos que o levaram a participar foram o de “Interesse em pesquisa”, seguido de “Entrosamento na universidade”. Tais alunos afirmam que tais programas contribuem para “Trabalho em equipe” e “Crescimento intelectual”.

32% dos alunos que participaram dos programas acadêmicos consideram sua motivação como “Ótima”, contra apenas 17,4% dos que não participaram. 82% dos alunos que participaram dos programas acadêmicos consideram sua motivação entre “Boa” a “Ótima”, contra 68% dos que não participaram.

5. CONCLUSÃO

Vários fatores podem interferir ou colaborar para a evasão do corpo discente de uma instituição, influenciando diretamente no grau de motivação do estudante.

Pela pesquisa realizada verificou-se que o mercado de trabalho interfere diretamente na relação candidato/vaga, estimulando a procura por cursos que apresentam boas perspectivas de empregabilidade, e no número de formados. Atualmente, os cursos relacionados às atividades no setor de óleo e gás, área de grande expansão no Brasil, são os que apresentam maior procura e um crescente aumento no número de formados. Tais cursos são os de engenharia mecânica, química, de petróleo e de produção.

Por meio da análise dos questionários, verificou-se que a disciplina “Introdução à Engenharia” contribuiu consideravelmente para um bom desempenho dos alunos nos cursos. Todos os alunos pesquisados concordaram que a disciplina contribuiu para um “melhor esclarecimento sobre o curso”, “adaptação no curso” e para “conhecer os projetos acadêmicos”.

Verificou-se também que os alunos apresentaram grande interesse nos programas acadêmicos, e que a participação aumenta o grau de motivação para a realização do curso.

6. REFERÊNCIAS

CAVALCANTE, C. R. R. (2005). Educação e inovação: o papel e o desafio das engenharias na promoção do desenvolvimento industrial, científico e tecnológico. Parcerias Estratégicas, n. 21. Disponível em:

Page 66: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

66

http://seer.cgee.org.br/index.php/parcerias_estrategicas/article/viewFile/261/255. Acesso em: 03 out. 2010.

CHIAVENATO, I. (2001). Teoria Geral da Administração. vol. 1, 6a ed. Rio de Janeiro, Editora Elsevier.

CORREA, A. C. e SCHUCH JUNIOR, V. F. (1999). Gestão da Qualidade na Universidade: um estudo de caso do perfil da divulgação da produção científica em Medicina Veterinária – UFSM. Artigo apresentado no ENEGEP, 1999. Disponível em: http://www.abepro.org.br/biblioteca/ENEGEP1999_A0406.PDF. Acesso em: 02 set. 2010.

ENGERS, M. E. A. (2002). O ensino superior no século XXI: visão e ação. Revista Educação/PUCRS, v. 25, n. 46, p. 119 – 136. Disponível em: http://revistaseletronicas.pucrs.br/ojs/index.php/faced/article/viewFile/4163/3159. Acesso em: 15 fev. 2011.

HUBERMAN, A. M. (1973). Como se realizam as mudanças em educação. Subsídios para o estudo do problema da inovação. Ed. Cultrix. São Paulo.

LONGO, W. P. (2001). “Reengenharia” do Ensino de Engenharia: uma necessidade. Disponível em: http://www.engenheiro2001.org.br/programas/971207a.htm Acesso em: 06 abr. 2011.

MELLO, S. L. M. (2010). Comunicado da PROAC sobre conceito preliminar de curso. Disponível em http://www.proac.uff.br/avaliacao-das-universidades/comunicado-da-proac-sobre-conceito-preliminar-de-curso. Acesso em: 03 out. 2010.

RODRIGUES, J. A.; NETO, B. G. A.; NETO, M. L. da C. (2001). Multidisciplinaridade e Interdisciplinaridade no Ensino de Informática em Engenharia. Artigo apresentado no COBENGE 2001. Disponível em: http://www.pp.ufu.br/Cobenge2001/trabalhos/MTE129.pdf. Acesso em: 15 fev. 2011.

SILVA, L. P. e CECÍLIO, S. (2007). A mudança no modelo de ensino e de formação na engenharia. Educação em Revista. n. 45, Belo Horizonte. Jun, 2007.

SILVA FILHO, R. L. L; MOTEJUNAS, P. R.; HIPÓLITO, O.; LOBO, M. B. C. M. (2007). A Evasão no Ensino Superior Brasileiro. Disponível em: http://www.scielo.br/pdf/cp/v37n132/a0737132.pdf. Acesso em: 10 out. 2010.

SILVA, R. R. C. M.; MAINIER, F. B.; PASSOS, F. B. (2006). A contribuição da disciplina de introdução à engenharia química no diagnóstico da evasão. Ensaio: Avaliação e Políticas Públicas em Educação. Fundação Cesgranrio. vol.14, n.51, p.261-277.

NOVAK, J. D. (2003). The Promise Of New Ideas And New Technology For Improving Teaching And Learning. Cell Biology Education. vol 2, n 2, p 122-132, 2003. Disponível em:http://www.scopus.com/inward/record.url?eid=2-s2.0-3042715695&partnerID=40&md5=95fd69781146db2133b5d76c2e4be223. Acesso em: 09 jul. 2010.

SARAIVA, M. M. (2007). Os desafios e o futuro da gestão da qualidade total no ensino superior português, 2003. Revista Dirigir, n.98, Instituto de Emprego e Formação Profissional. Lisboa, p. 18 – 21. abr - jun 2007. Disponível em: http://www.iefp.pt/iefp/publicacoes/Dirigir/Documents/Dirigir%202007/DIRIGIR_98.pdf. Acesso em: 28 abr. 2011.

Page 67: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

67

Aperfeiçoamento da técnica de parâmetros concentrad os para escoamentos em desenvolvimento térmico

1Leandro Santos de Barros 1, Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected]

RESUMO

Este trabalho tem o objetivo de aplicar a Técnica das Equações Integrais Aproximadas (TEIA) ao problema de escoamento em desenvolvimento térmico para encontrar expressões analíticas para a temperatura de mistura e comparar com as aproximações clássicas (parâmetros concentrados) e a solução exata. Inicialmente é feito uma descrição da técnica que se baseia em aproximar integrais por uma combinação linear da função integrada e suas derivadas, aplicadas nos limites de integração. A equação diferencial parcial que rege o problema é então transformada numa simples equação diferencial ordinária e resolvida analiticamente. Com isso é possível fazer um comparativo gráfico entre as diferentes aproximações e a solução exata. O pequeno esforço computacional aliado ao pequeno erro máximo associado à aproximação são as duas vantagens da TEIA.

Palavras-Chave: Parâmetros Concentrados. Convecção-difusão. Convecção de calor. Modelagem matemática.

1. INTRODUÇÃO

Durante séculos, os métodos analíticos foram a única solução disponível para problemas de escoamento de fluido e calor.

Após a introdução dos computadores, métodos numéricos evoluíram muito e seu uso tornou-se inevitável. Hoje em dia, com a disponibilidade de pacotes fechados para resolver problemas de engenharia (que são baseados principalmente em técnicas numéricas), métodos analíticos se tornaram antiquados, e em várias ocasiões técnicas numéricas são usadas para problemas que possuem soluções analíticas. No entanto, soluções analíticas desempenharam um papel crucial no desenvolvimento da ciência e da engenharia, e sua relevância não deve ser negligenciada.

Aproximar uma integral por uma combinação linear do integrando e suas derivadas nos limites de integração, foi uma idéia originalmente desenvolvido por Hermite (Hermite,1878) e apresentado pela primeira vez por Menning et al. (J. Menning e Halg, 1983), os primeiros a usarem esta abordagem de dois pontos, derivando-o em uma forma completamente diferencial chamado βα ,H . Estes, além disso, mostraram que a já conhecida

fórmula de Obreschkoff não apresentava nenhuma nova característica em relação ao método βα ,H e usou esta técnica para resolver sistemas de equações diferenciais ordinárias

EDO (problemas de valor inicial e condição de contorno), mostrando a vantagens desta abordagem em comparação com outros métodos.

Se aproximações são consideradas, os métodos de análise podem ser estendidos a uma classe muito mais ampla de problemas. No entanto, os erros envolvidos em aproximações devem ser controlados para manter a precisão exigida. Uma técnica que leva isso em conta é a Técnica das Equações Integrais Aproximadas, que é com base na literatura acima citada. Este método foi utilizado em uma variedade de problemas, tais como problemas de mudança de fase (Menning e Ozinik, 1985), transferência de calor em aletas

Page 68: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

68

(J. B. Aparecido, 1989), trocadores de calor (Neto e Cotta), condução de calor linear (Côrrea e Cotta, 1998), condução de calor hiperbólica (Reis et al., 2000), resfriamento radiativo (Su, 2004), remoção (Ruperti ET al., 2004), secagem (L. B. Dantas, 2007), condução de calor com condutividade dependente da temperatura (Su et al,. 2009). Uma abordagem muito semelhante também foi usada no trabalho de Keshavarz e Taheri (Keshavarz e Taheri, 2007), no entanto, os autores se referem a ele como o método de aproximação polinomial.

Neste estudo, a Técnica das Equações Integradas Aproximadas é empregada para o problema de escoamento em desenvolvimento térmico em placas paralelas. Com esta abordagem uma formulação aperfeiçoada de parâmetros concentrados para representar o problema é obtida. Esta formulação é naturalmente mais simples que a equação original, uma vez que consiste em uma EDO simples para determinar a temperatura de mistura, enquanto que o problema original era uma EDP para o cálculo da temperatura em todo o domínio e a partir deste cálculo obtinha-se a temperatura média. A fórmula de Hermite é usada para produzir níveis diferentes de aproximação, e, portanto, diferentes modelos de parâmetros concentrados são obtidos. Estes modelos são analiticamente resolvidos, e cada solução é comparada a com a solução do problema original. Os resultados fornecem uma indicação da melhor formulação para representar a formulação original do problema.

2. APROXIMAÇÃO DE HERMITE

A base para a Técnica das Equações Integrais Acopladas (TEIA) é a aproximação integral de Hermite βα ,H que é dada pela expressão geral:

βαννν

ν

β

ν

ννν

α

ναββα ,

)(1

0=1

)(1

0=1

)(1))(,()(),(=)( Exfhcxfhcdxxf iiiiix

ix+−+ +

−+

−∑∑∫ (1a)

onde

2)!()!(1)!(

1)!(1)!(=),(,= 1 ++−+

+−++− − βαναννβααβανcxxh iii (1b)

e )(xf a suas derivadas )()( xf ν são definidas em ],[ 1 ii xxx −∈ . βα ,E é o erro da

aproximação. Assume-se que )(11

)( =)( νν−− ii fxf para αν ,0,1,2,= K e )()( =)( νν

ii fxf para

βν ,0,1,2,= K .

Esta fórmula de integração permite diferentes níveis de aproximação, começando da clássica formulação por parâmetros concentrados até formulações mais sofisticadas. Uma detalhada análise de erros envolvendo aplicações da TEIA em problemas de difusão usando aproximações de Hermite 0,0H , 1,0H , 1,1H pode ser verificada em (Alves et al., 2000).

Aproximações de ordem maior que 1,1H envolvem derivadas de ordem maior que um, estas

são evitadas para manter a simplicidade da metodologia. Por isso, apenas duas diferentes aproximações são consideradas abaixo:

)),((0)(2

1)(

00,0 hffhdxxfHh

+≈⇒ ∫ (2a)

)),((0)(12

1))((0)(

2

1)( 2

01,1 hffhhffhdxxfHh

′−′++≈⇒ ∫ (2b)

que corresponde as conhecidas fórmulas de integração do trapézio e a fórmula corrigida do trapézio, respectivamente.

Page 69: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

69

3. CONVECÇÃO-DIFUSÃO / PROBLEMA DE ESCOAMENTO EM DE SENVOLVIMENTO TÉRMICO

Para ilustrar a metodologia proposta, um problema genérico de escoamento em placas paralelas é considerado, escrito na sua forma adimensional abaixo:

,Pe=2

12

2

2

22

ηθ

ξθ

ξθ

∂∂+

∂∂

∂∂ −∗

Hu (3a)

0,=0=ηη

θ

∂∂

(3b)

1,=,1)()(11=ηη

θωξθω

∂∂+− (3c)

0,=)(0,ηθ (3d)

,2= ωξθ

ξ ∞→

∂∂

(3e)

onde ω é o parâmetro que indica o tipo de condição de contorno na parede. Para temperatura constante na parede temos ω =0, enquanto que para fluxo de calor constante na parede ω =1. A velocidade é dada pelo perfil de Hagen-Poiseuille:

( ) ,/2=with,12

3= 2 Hyuu ηη− (4)

e parâmetros adimensionais e variáveis são definidas por:

αHu

H =Pe (5a)

,Pe2

=,=,/2

= H

HL

L

x

H

y ξη (5b)

,=minmax

min

TT

TT

−−θ (5c)

Para fluxo de calor constante na parede, maxT e minT são definidos como:

,=,'/2)(

= minmax inwin TTqk

HTT ′+ & (6)

enquanto que para parede com temperatura constante (parede isotérmica), define-se como:

,=,= minmax inw TTTT (7)

Após o cálculo da temperatura adimensional, o número de Nusselt é computado de:

,4

=)(Nu=Nu1=ηη

θθθ

ξ

∂∂

− mw

(8)

onde wθ e mθ , temperatura da parede e de mistura são calculadas por:

.d=,1),(=1

0ηθθξθθ ∗

∫ umw (9)

Page 70: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

70

4. PARÂMETROS CONCENTRADOS PARA ESCOAMENTO UNIFORME

Esta seção apresenta a metodologia para escoamento uniforme, na qual o perfil de velocidade adimensional é simplificado para:

1=∗u (10)

Definição de temperatura média:

ηηξθξθ d),(=)(1

0∫ (11)

4.1. EQUAÇÃO INTEGRAL

,ddPe=d2

12

21

02

21

0

21

ηθη

ξθη

ξθ

∂∂+

∂∂

∂∂

∫∫∫−H (12)

,dd

dPe=d

d

d

2

11=

0=

1

02

221

0

η

ηηθηθ

ξηθ

ξ

∂∂+∫∫

−H (13)

Substituindo a definição de temperatura média e aplicando as condições de contorno:

,d

dPe=

d

d

2

1

1=2

22

ηηθ

ξθ

ξθ

∂∂+−

H (14)

A forma anterior é usada na condição de parede termicamente isolada ( 0=ω ); entretanto para fluxo de calor constante a condição na parede leva a:

1,d

dPe=

d

d

2

12

22 +−

ξθ

ξθ

H (15)

Para ambas as condições da parede, temos as seguintes condições:

.2=d

d0,=(0) ω

ξθθ

ξ ∞→

(16)

Para parede isotérmica, diferentes níveis de aproximação implicam em diferentes formulações de parâmetros concentrados, como descrito a seguir:

4.2. FORMULAÇÃO CLÁSSICA POR PARÂMETROS CONCENTRADOS

Corresponde à regra de integração por retângulos:

,1)(dou,0)(d1

0

1

0ξθηθξθηθ ≈≈ ∫∫ (17)

1=

1

00=

1

0doud

ηη ηθη

ηθ

ηθη

ηθ

∂∂≈

∂∂

∂∂≈

∂∂

∫∫ (18)

Para evitar uma temperatura de mistura constante e obter uma relação que leve ,0)(ξθ diferente de ,1)(ξθ , o par seguinte é selecionado:

Page 71: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

71

,0)(d1

0ξθηθ ≈∫ (19)

1=

1

0d

ηηθη

ηθ

∂∂≈

∂∂∫ (20)

levando ao seguinte sistema para determinar a relação entre o valor de contorno desconhecido e a temperatura de mistura:

,0)()( ξθξθ ≈ (21)

1=

,0)(,1)(ηη

θξθξθ

∂∂≈− (22)

que pode ser resolvido para gerar:

)(1=)(,1)(1=

ξθξθξθηθ

η

−−≈

∂∂

(23)

substituindo na equação (14), temos:

),(1d

dPe=

d

d

2

12

22 ξθ

ξθ

ξθ −+−

H (24)

Caso não haja difusão axial (Alto valor para o número de Péclet):

),(1=d

d

2

1 ξθξθ − (25)

onde se obtem a seguinte solução:

),2(exp1=)( ξξθ −− (26)

A solução com difusão axial é dada por:

( )

++

++ ξξξξθ 22

21

2 Pe164

PesinhPe16

4

Pecosh/4Peexp1=)( H

HH

HH cc (27)

ou

+−+

+++ ξξξξξθ 222

221 Pe16

4

Pe/4PeexpPe16

4

Pe/4Peexp1=)( H

HHH

HH cc (28)

A condição de contorno em ∞→ξ requer que a solução seja dada por (para evitar que a solução tenda ao infinito):

+−− ξξξθ 22 Pe164

Pe/4Peexp1=)( H

HH (29)

4.3. FORMULAÇÃO 0,0H / 0,0H

Vamos aproximar as integrais que definem a temperatura média e o fluxo na placa

,1))(,0)((2

1d

1

0ξθξθηθ +≈∫ (30)

Page 72: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

72

∂∂+

∂∂≈

∂∂∫

1=0=

1

0 2

1d

ηη ηθ

ηθη

ηθ

(31)

usando as equações acima e mais as condições de contorno (3b) e (3c) temos:

,0))((12

1)( ξθξθ +≈ (32)

1=

2

1,0)(1

ηηθξθ

∂∂≈− (33)

resultando em :

( ))(141=

ξθηθ

η

−≈

∂∂

(34)

substituindo na equação (14), temos:

( ),)(14d

dPe=

d

d

2

12

22 ξθ

ξθ

ξθ −+−

H (35)

Caso não haja difusão axial (Alto valor para o número de Péclet):

( ),)(14=d

d

2

1 ξθξθ − (36)

onde se obtem a seguinte solução:

),8(exp1=)( ξξθ −− (37)

A solução com difusão axial é dada por:

( )

++

++ ξξξξθ 22

21

2 Pe644

PesinhPe64

4

Pecosh/4Peexp1=)( H

HH

HH cc (38)

ou

+−+

+++ ξξξξξθ 222

221 Pe64

4

Pe/4PeexpPe64

4

Pe/4Peexp1=)( H

HHH

HH cc (39)

A condição de contorno em ∞→ξ requer que a solução seja dada por (para evitar que a solução tenda ao infinito):

+−− ξξξθ 22 Pe644

Pe/4Peexp1=)( H

HH (40)

4.4. FORMULAÇÃO 1,1H / 0,0H

Tornando a aproximação melhor, temos :

∂∂−

∂∂++≈∫

1=0=

1

0 12

1,1))(,0)((

2

1d

ηη ηθ

ηθξθξθηθ (41)

Page 73: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

73

∂∂+

∂∂≈

∂∂∫

1=0=

1

0 2

1d

ηη ηθ

ηθη

ηθ

(42)

Aplicando as condições de contorno (3b) e (3c):

1=

12

1,0))((1

2

1)(

ηηθξθξθ

∂∂−+≈ (43)

1=

2

1,0)(1

ηηθξθ

∂∂≈− (44)

que pode ser resolvido para gerar:

( ))(131=

ξθηθ

η

−≈

∂∂

(45)

substituindo na equação (14), temos:

( ),)(13d

dPe=

d

d

2

12

22 ξθ

ξθ

ξθ −+−

H (46)

Caso não haja difusão axial (Alto valor para o número de Péclet):

( ),)(13=d

d

2

1 ξθξθ − (47)

onde se obtem a seguinte solução:

),6(exp1=)( ξξθ −− (48)

A solução com difusão axial é dada por:

( )

++

++ ξξξξθ 22

21

2 Pe484

PesinhPe48

4

Pecosh/4Peexp1=)( H

HH

HH cc (49)

ou

+−+

+++ ξξξξξθ 222

221 Pe48

4

Pe/4PeexpPe48

4

Pe/4Peexp1=)( H

HHH

HH cc (50)

A condição de contorno em ∞→ξ requer que a solução seja dada por (para evitar que a solução tenda ao infinito):

+−− ξξξθ 22 Pe484

Pe/4Peexp1=)( H

HH (51)

4.5. FORMULAÇÃO 1,1H / 1,1H

Vamos aperfeiçoar a aproximação:

∂∂−

∂∂++≈∫

1=0=

1

0 12

1,1))(,0)((

2

1d

ηη ηθ

ηθξθξθηθ (52)

Page 74: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

74

∂∂−

∂∂+

∂∂+

∂∂≈

∂∂∫

1=2

2

0=2

2

1=0=

1

0 12

1

2

1d

ηηηη ηθ

ηθ

ηθ

ηθη

ηθ

(53)

Usando a equação (3a) e a (3c) determina-se a relação para as derivadas segundas:

0=

2

22

0=0=2

2

Pe2

1=

ηηη ξθ

ξθ

ηθ

∂∂−

∂∂

∂∂ −

H (54a)

0=1=

2

2

ηηθ

∂∂

(54b)

Aplicando as condições de contorno e as equações acima, temos:

1=

12

1,0))((1

2

1)(

ηηθξθξθ

∂∂−+≈ (55)

∂∂−

∂∂+

∂∂≈− −

0=2

22

0=1=

Pe2

1

12

1

2

1,0)(1

ηηη ξθ

ξθ

ηθξθ H (56)

Resolvendo a equação (55) para 1=ηη

θ

∂∂

e aplicando em (14) e (56), temos o

seguinte sistema:

2

22

d

dPe)(12,0)(66=

d

d

2

1

ξθξθξθ

ξθ −+−+ H (57a)

0=

2

2

0=

2 2=)(144,0)(9648Peηη ξ

θξθξθξθ

∂∂

∂∂+−+H (57b)

Após resolver o sistema acima, para valores altos de Péclet, temos:

( ))21(12sinh214)21(12cosh21)60(exp21

11=)( ξξξξθ +−− (58)

5. SOLUÇÃO EXATA

)(

)()(=),(

1= n

nn

n N

Y

ληξθηξθ ∑

(59)

22 16Pe4

Pe= nH

Hn λβ + (60)

)(sinhPe)(cosh4

))((sinhPe))((cosh4

4

Peexp=)(

max2

max

max2

max2

ξβξββξξβξξββξξθ

nHnn

nHnnHnn b

+−+−

(61)

Page 75: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

75

6. RESULTADOS E DISCUSSÃO

Expressões analíticas foram obtidas para cada formulação. Dois casos foram analisados distintamente: Para altos valores de Péclet e para Péclet igual a 3. Este parâmetro é importante, pois caracteriza o escoamento.

As figuras 1 e 2 são relativas à situação de valores altos de Péclet (escoamento sem difusão axial); Na primeira temos um gráfico da temperatura média pela distância axial (adimensional). À medida que o nível de aproximação cresce as soluções se tornam cada vez mais próximas da solução exata. Esta aproximação pode ser mais bem compreendida pela figura 2, o gráfico do erro cometido em cada aproximação.

Exceto na região de entrada, o erro cometido é pequeno (o cálculo do erro relativo na região de entrada envolve divisão do tipo 0/0, por isso essa discrepância).

Figura 4: Comparativo entre a solução exata e os diferentes tipos de formulação para altos valores de Péclet

Figura 2: Gráfico do Erro Relativo ao se aproximar a solução exata (Altos valores de Péclet)

As Figuras 3 e 4 expressam a análise para Péclet igual a 3. Na figura 3 temos um gráfico da temperatura de mistura pela distância axial (adimensional). À medida que o nível de aproximação cresce as soluções se tornam cada vez mais próximas da solução exata. O sistema da formulação 1,1H / 1,1H foi resolvido numericamente.

Na figura 4 temos o gráfico do erro relativo. Para 1,1H / 0,0H e 1,1H / 1,1H o erro

envolvido é menor que 3% na maior parte do escoamento. Além de uma boa representação do problema original, o método apresentado neste trabalho se mostra de fácil manipulação.

Page 76: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

76

Isto é, mesmo sem exigir um grande esforço computacional, é alcançada uma boa aproximação da solução exata.

Figura 3: Comparativo entre a solução exata e os diferentes tipos de formulação

Figura 4: Gráfico do Erro Relativo ao se aproximar a solução exata

7. AGRADECIMENTOS

O autor gostaria de agradecer o apoio financeiro do CAPES, CNPq, FAPERJ e Universidade Federal Fluminense.

8. REFERÊNCIAS

L. S. B. Alves, L. A. Sphaier, and R. M. Cotta. Error analysis of mixed lumped-differential

diffusion problems. Hybrid Methods in Engineering, 2(4):409–435, 2000.

E. J. Corrêa and R. M. Cotta. Enhanced lumped-differential formulations of diffusion problems. Applied Mathematical Modelling, 22(3):137–152, 1998.

M. C. Hermite. Sur la formule d’interpolation de lagrange. J. Crelle, 84, 1878.

R. M. Cotta J. B. Aparecido. Improved one-dimensional fin solutions. Heat Transfer in Engineering, (11): 49–59, 1989.

Page 77: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

77

T. Auerbach J. Menning and W. Hälg. Two point hermite approximate for the solution of linear initial value and boundary value. Computacional Methods in Applied Mechanical Engineering, (39):199–224, 1983.

P. Keshavarz and M. Taheri. An improved lumped analysis for transient heat conduction by using the polynomial approximation method. Heat and Mass Transfer, 43(11):1151–1156, 2007.

R. M. Cotta L. B. Dantas, H. R. Orlande. Improved lumped-differential formulations and hybrid solution methods for drying in porous media. International Journal of Thermal Sciences, (46):878–889, 2007.

J. Menning and M. N. Özi ¸sik. Coupled integral equation approach for solving melting or solidification. International Journal of Heat and Mass Transfer, 28(8):1481–1485, 1985.

F.S. Neto and R. M. Cotta. Improved hybrid lumped-differential formulation for double- pipe heat-exchanger analysis. Journal of Heat Transfer (ASME), 115(4):921–927, 1993.

M. C. L. Reis, E. N. Macêdo, and J. N. N. Quaresma. Improved lumped-differential formulations in hyperbolic heat conduction. International Communications in Heat and Mass Transfer, 27(7):965–974, 2000.

N. J. Ruperti, R. M. Cotta, C. V. Falkenberg, and J. Su. Engineering analysis of ablative thermal protection for atmospheric reentry: Improved lumped formulations and symbolic- numerical computation. Heat Transfer in Engineering, 25(6):101–111, 2004.

Ge Su, Zheng Tan, and Jian Su. Improved lumped models for transient heat conduction in a slab with temperature-dependent thermal conductivity. Applied Mathematical Modelling, 33(1):274–283, 2009.

Jian Su. Improved lumped models for transient radiative cooling of a spherical body. International Communications in Heat and Mass Transfer, 31(1):85–94, 2004.

Page 78: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

78

Aplicação de redes neurais no diagnóstico de falhas em transformadores de potência

Caio Monteiro Leocádio, Vitor Hugo Ferreira. Departamento de Engenharia Elétrica - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected], [email protected]

RESUMO

O monitoramento e diagnóstico de falhas incipientes e potenciais em transformadores de potência imersos em óleo isolante permitem determinar um programa de manutenção periódico para detectar e prevenir possíveis falhas nos transformadores, evitando prejuízos para as empresas de energia. O objetivo principal do trabalho é aplicar as Redes Neurais Artificiais (RNA) na criação de uma ferramenta de diagnóstico de falhas incipientes através dos gases dissolvidos no óleo isolante, podendo assim ser utilizado como um método adicional para identificação de falha interna do equipamento. São realizados testes com dois modelos neurais distintos e é feita a comparação dos resultados com os métodos convencionais de diagnóstico de falhas. Os resultados obtidos através do testes comparativos evidenciam a aplicabilidade das redes neurais no diagnóstico de falhas incipientes, onde as mesmas apresentaram resultados superiores aos determinados pelos critérios convencionais, além de mostrar maior capacidade de reconhecimento de diferentes falhas e condições de operação. As RNA' ainda se confirmaram como uma boa ferramenta para a manutenção preventiva dos transformadores de potência, visto que elas indicam a probabilidade de ocorrência de cada falta para um determinado estado de operação.

Palavras-Chave: transformadores de potência, falhas incipientes, redes neurais artificiais.

1. INTRODUÇÃO

Os transformadores de potência são um dos mais importantes equipamentos que compõem um sistema elétrico e suas aplicações abrangem desde concessionárias de energia, indústrias a pequenos consumidores. O sistema de isolamento de um transformador, mesmo operando em condições de normalidade, sofre redução de sua capacidade na medida em que envelhece. No caso de operação em condições críticas, esta redução pode ser acelerada e a vida útil do material isolante se torna mais breve. Quando a capacidade do sistema de isolamento é reduzida, vários processos podem ser desencadeados. Estes processos que colaboram para a aceleração da incapacidade do sistema de isolamento, quando em estágio inicial, são conhecidos como falhas incipientes (BARBOSA, 2008). Essas são caracterizadas por esforços térmicos, como sobreaquecimentos, e elétricos, relacionados às descargas internas no equipamento.

O monitoramento e diagnóstico de falhas incipientes em transformadores de potência imersos em óleo isolante permitem determinar um programa de manutenção periódico para detectar e prevenir possíveis falhas nos transformadores, evitando prejuízos para as empresas de energia. Os sistemas de diagnóstico de transformadores possuem a função de interpretar os dados relativos ao funcionamento do transformador e cuja coleta envolve modernas tecnologias em sensores, técnicas de aquisição de dados e dispositivos digitais ou analógicos. Essa interpretação pode ser realizada por um especialista ou por um software especialmente desenvolvido para este fim.

Os métodos de diagnósticos com base na Análise de Gases Dissolvidos (DGA) são os mais estudados e os mais aplicados nos transformadores de potência imersos em óleo. Estes métodos baseiam-se na análise de tipos de concentração e taxa de produção de gases gerados e dissolvidos no óleo do transformador e procuram associar o tipo de falha ao gás presente. Os principais gases formados a partir da decomposição do óleo mineral de

Page 79: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

79

transformadores submetidos a falhas são: hidrogênio (H2), metano (CH4), etano (C2H6), etileno (C2H4), acetileno (C2H2). Os métodos convencionais DGA têm sido empregados por mais de trinta anos e constituem uma técnica de sucesso comprovado, a ponto de a metodologia ser padronizada por diversas normas, tais como a NBR 7070, a IEC 599 e a IEEE C57.104. Dentre os principais métodos de diagnóstico podem-se destacar os Métodos do Gás Chave, de Rogers e de Doernenburg.

Estas metodologias são facilmente computadas e geram resultados satisfatórios no diagnóstico para a prevenção ou após a ocorrência de faltas severas em transformadores, mas podem ser pouco sensíveis na detecção de falhas incipientes. Entretanto, os mesmos métodos são usados como guias para os sistemas inteligentes baseados em Inteligência Artificial. Atualmente, observa-se a tendência da substituição do diagnóstico feito por um especialista por sistemas automáticos de diagnóstico que incorporam técnicas inteligentes para representar entre outros conhecimentos, aquele acumulado com a experiência de um especialista (BARBOSA, 2008); (ARANTES, 2005); (LIMA, 2005); (MORAIS, 2004).

2. REDES NEURAIS

A Rede Neural Artificial (RNA) é provavelmente a técnica de aprendizado de máquina (um tipo de modelo caixa-preta) de maior sucesso e com estrutura matemática flexível, capaz de identificar relações não lineares complexas entre entrada e saída, sem a necessidade de entendimento dos fenômenos naturais. O neurônio artificial é composto por p terminais de entrada 1, 2, ,..., px x x , que podem ser os padrões de entrada da rede ou as

saídas dos neurônios da camada anterior, e por uma saída. Cada entrada do neurônio artificial ix possui associada a ela um valor kiw , chamado de peso sináptico, em uma alusão às sinapses presentes no cérebro humano, que são as conexões entre os dendritos de um neurônio e os axônios de outros neurônios. Esses pesos têm a função de regular os valores das entradas no corpo da célula. O neurônio propriamente dito é onde são processadas a soma das entradas já multiplicadas pelos respectivos pesos. A soma é, então, fornecida à função de ativação (Φ), gerando assim a saída do neurônio. O processamento de uma rede neural pode ser dividido basicamente em duas fases: aprendizado, onde ocorre o processo de atualização dos pesos sinápticos para a aquisição do conhecimento; e recuperação de dados, onde ocorre o processo de cálculo da saída da rede, dado certo padrão de entrada.

Os Perceptrons Multicamadas ou, no inglês, Multi Layer Perceptron (MLP) são as redes mais utilizadas em problemas envolvendo as RNAs e, em geral, possuem uma camada oculta de neurônios e uma saída linear. A saída ∈ℜy é dada por:

( ) ϕ= =

= = + +

∑ ∑

1 1

,m n

i ij j ii j

y f x w w w x b b

(1)

Seja ∈ ℜnx o vetor contendo os sinais de entrada, ∈ ℜd a saída desejada, ∈ℜMw , onde = + +2 1M mn m (M igual ao número total de parâmetros do modelo e m o número de neurônios na camada oculta), o vetor contendo os pesos das conexões e os “bias”

=, 1,2,...,kb k m e b, e ( )ϕ ℜ → ℜ:x , uma função não linear.

Page 80: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

80

Figura 1. Estrutura de uma RNA

Conforme demonstra a Figura 1, a RNA é composta pela camada de entrada, onde os neurônios constituem a interface de entrada (X), por uma ou mais camadas intermediárias ou escondidas, e por uma camada de saída (Y). As setas denotam cada conexão e esta mantém uma associação com um peso sináptico (wij) que pondera a referida entrada i do neurônio j, por exemplo. Em termos de aplicações em reconhecimento de padrões, A MLP é talvez a rede neural mais popular (HAYKIN, 1999).

3. DESCRIÇÃO DA METODOLOGIA ADOTADA

O presente tópico apresenta a metodologia e os critérios adotados para a aplicação de Redes Neurais Artificiais para diagnóstico de falhas incipientes em transformadores de potência. A base de dados utilizada neste trabalho para treinamento e teste dos modelos neurais desenvolvidos é composta por 503 medições dos gases dissolvidos no óleo dos transformadores de uma distribuidora de energia, provenientes dos relatórios de análise cromatográfica. Todas as medições obtidas apresentam as concentrações de cada um dos gases presentes na amostra coletada. Foram considerados os seguintes gases encontrados na amostras: hidrogênio (H2), metano (CH4), etano (C2H6), etileno (C2H4), acetileno (C2H2), monóxido de carbono (CO) e dióxido de carbono (CO2), oxigênio (O2) e nitrogênio (N2). A análise cromatográfica de cada uma das amostras coletadas vem acompanhada ainda do diagnóstico de falha incipiente realizado por uma empresa especializada. A cada tipo de diagnóstico de falha foi atribuído um número representando o padrão da saída desejada, conforme Tabela 1. Esta mesma padronização foi aplicada nos diagnósticos obtidos pelos métodos tradicionais que utilizam DGA, para futura comparação.

Tabela 1. Numeração atribuída às falhas

Como mencionado anteriormente, para cada saída da rede neural foi associado um valor. Posteriormente, este valores numéricos, que representam um dos cinco possíveis diagnósticos de falha, são associados a uma codificação binária de 1 a n para melhor caracterização das saídas desejadas. Em outras palavras, a codificação 1 de n é utilizada para representar a classe de cada padrão ix . Nesta representação, a saída desejada id é um vetor binário de dimensão n com todos os seus componentes nulos (inativos), sendo ativado (igual a 1) somente o bit relacionado com a classe à qual o padrão ix pertence (

= 1ijd ). Como as classes são mutuamente exclusivas, ou seja, um determinado padrão ix

só pode pertencer a uma única classe, =

=∑ 11

C

ikkd . Como exemplo, o diagnóstico com valor

1 será representado pelo vetor v1 = (1 0 0 0 0), o de valor 2 por v2 = (0 1 0 0 0) e assim por

Page 81: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

81

diante. Esta estratégia garante que a rede neural não entenda os valores de saída como uma sequência de números crescentes.

Com o objetivo de determinar um modelo neural que obtenha um desempenho satisfatório, foram testadas e comparadas duas estratégias distintas de treinamento, sendo um treinado pelo algoritmo Levemberg-Marquardt e o outro utilizando a Inferência Bayesiana. O treinamento bayesiano se utiliza de técnicas estatísticas baseadas em inferência bayesiana. Ele ainda usa artifícios matemáticos para não ocorrer o treinamento excessivo da rede, não sendo necessário variar o número de épocas do treinamento da rede (FERREIRA, 2008). O vetor de entrada é composto pelos dados das concentrações dos seguintes gases: hidrogênio (H2), metano (CH4), etano (C2H6), etileno (C2H4), acetileno (C2H2), monóxido de carbono (CO). A estrutura da rede neural escolhida para ambos os modelos foi a MLP com uma camada escondida. Esta estrutura tem comprovada capacidade de generalização e é utilizada em diversos trabalhos presentes na literatura. A função de ativação tangente sigmoidal é utilizada nos neurônios da camada escondida, devido à sua anti-simetria que proporciona maior velocidade de convergência, e a função linear no neurônio de saída (HAYKIN, 1999). Finalmente, obtemos os seguintes modelos:

• Modelo LM1 - com treinamento back-propagation e algoritmo Levemberg-Marquardt, 6 entradas e 7 neurônios na camada escondida;

• Modelo BAY1 - com treinamento por inferência bayesiana, 6 entradas e 4 neurônios na camada escondida;

4. RESULTADOS

A Tabela 2 apresenta alguns exemplos de diagnósticos obtidos pelo modelo BAY1, utilizando as Redes Neurais Artificiais. Como se pode observar, a camada de saída da rede neural desenvolvida é composta por 5 neurônios, representando as 5 possíveis falhas que podem ser diagnosticadas. Os valores de cada neurônio correspondem a probabilidade de acontecer determinada falta. Para selecionar apenas um diagnóstico, a saída da rede neural passa por uma função competitiva, de tal forma que o neurônio que apresentou maior valor de saída seja associado à falta, conforme destacado na Tabela 2.

Tabela 2. Exemplo de Diagnósticos das Redes Neurais

Um detalhe interessante da utilização das redes neurais é que as mesmas apontam a possibilidade de ocorrer outro tipo de falta além da indicada pelo diagnóstico. Como exemplo, a Tabela 3 mostra a saída de 10 diagnósticos errados gerados pela rede neural BAY1. Observa-se que, apesar do neurônio que possui o maior valor de saída indicar o diagnóstico errado, ele possui um número muito próximo ao neurônio que representa o diagnóstico correto. Portanto, entende-se que o valor contido na saída de cada neurônio ilustra a probabilidade de determinada falha ocorrer. Na 3ª linha da Tabela 3, por exemplo, o modelo indicou que a chance da falha 1 ocorrer é de 37,3%, enquanto que a possibilidade de a falta 2 ser a correta é de 36,6%. Analisando ainda todos os 39 erros do modelo BAY1

Page 82: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

82

constatou-se que 62% deles apresentavam valores inferiores a 0,5 no neurônio que demonstrou a falta e com uma diferença menor que 0,25 em relação ao diagnóstico correto.

Tabela 3. Diagnósticos Errados RNAs

Para comparação dos resultados das redes neurais artificiais com os dos métodos tradicionais, foram obtidas as taxas de diagnósticos corretos para alguns dos principais métodos tradicionais presentes na literatura, conforme a Tabela 4.

Tabela 4. Comparação entre os métodos

De posse dos resultados apresentados na Tabela 4, pode-se perceber que os modelos neurais tiveram desempenho considerado bem superior em relação aos outros métodos, com mais de 60% dos casos identificados de forma correta. É importante salientar que mesmo os diagnósticos errados obtidos pelas redes neurais possibilitam ao usuário verificar a probabilidade de ocorrer outro tipo de falta através dos valores contidos nas outras saídas do modelo. Ao contrário dos outros métodos que, quando não são conclusivos quanto ao tipo de falta, geram como resultado a condição de normalidade, os modelos neurais sempre apontam um diagnóstico próximo do exato, quando o valor apresentado em determinada falta for maior que 0,5. Quando este valor é inferior a 0,5, a ferramenta permite ao usuário identificar quais outras condições de falta podem ocorrer ao além da indicada. Excetuando-se os erros de diagnósticos que se encontram nessa condição, a ferramenta poderia atingir até 85% de acertos. A aplicação de redes neurais proporcionou uma solução para o problema da não decisão. O problema de não decisão é crítico quando os métodos tradicionais são aplicados no diagnóstico de falhas.

Outro comentário pertinente é a análise da alta taxa de diagnósticos corretos obtidos pelos critérios convencionais quando sinalizam a operação normal dos transformadores. Apesar de apenas 28% da amostra testada ser composta de condição “Normal”, verificada pela opinião do especialista, os métodos tradicionais indicam diagnóstico de operação normal em 70% dos testes. Isto explica em partes o porquê da alta taxa de diagnósticos corretos obtidos por estes critérios. Segundo o IEEE, quando os limites de concentração dos gases não forem atingidos, o método vai fornecer como diagnóstico a operação normal do equipamento. Sendo assim, e para os dados em questão, esses limites por muitas vezes não foram atingidos, fazendo com que a resposta deste critério, aplicado individualmente, fosse na maioria dos casos, a condição de normalidade. Além disso, é importante mencionar que, para 78% do total de amostras, as quais apresentavam falhas, os métodos convencionais acertaram não mais que 32%. Por outro lado, as redes neurais artificiais tiveram índice de acerto na faixa de 51%. Isso mostra a perspectiva de que os critérios tradicionais não teriam boas taxas de diagnósticos corretos se as amostras se apresentassem em maior número com condições de falhas.

Page 83: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

83

5. CONCLUSÕES

Este trabalho teve por objetivo demonstrar a aplicabilidade das redes neurais no diagnóstico de falhas incipientes em transformadores de potência. A utilização da inteligência computacional para problemas de tomada de decisões operativas vêm se consolidando como uma ferramenta importante para a segurança e planejamento de um sistema elétrico e de fácil adaptação a diversos problemas. Foram testados dois modelos com algoritmos distintos de treinamento para avaliação e comparação dos resultados com os métodos convencionais presentes na norma.

Os resultados obtidos pelos testes comparativos evidenciam a aplicabilidade das redes neurais no diagnóstico de falhas incipientes. As redes neurais apresentaram resultados de diagnósticos corretos superiores aos determinados pelos critérios convencionais, além de mostrar maior capacidade de reconhecimento de diferentes falhas e condições de operação. Por fim, as redes neurais artificiais se confirmaram como mais uma ferramenta para a manutenção preventiva dos transformadores de potência, visto que elas indicam a probabilidade de ocorrência de cada falta para aquele estado de operação. Este fato pode auxiliar os operadores numa análise mais cuidadosa de possíveis falhas e na tomada de decisões operativas.

6. REFERÊNCIAS

ARANTES, J. G. (2005). Diagnóstico de Falhas em Transformadores de Potência pela Análise de Gases Dissolvidos no Óleo Isolante Através de Redes Neurais. Dissertação de Mestrado. UNIFEI.

BARBOSA, F. R. (2008). Monitoramento e diagnóstico inteligente da qualidade dielétrica do isolamento líquido de transformadores de potência. Dissertação de Mestrado em Engenharia Elétrica – Universidade Federal do Ceará, Fortaleza.

FERREIRA, V. H. (2008). Desenvolvimento de Modelos Neurais Autônomos para Previsão de Carga Elétrica, Tese de Doutorado, COPPE/UFRJ, Rio de Janeiro, RJ, Brasil.

GUARDADO, J. L et al. (2001). A Comparative Study of Neural Network Efficiency in Power Transformers Diagnosis Using Dissolved Gas Analysis, IEEE Trans. on Power Delivery. Vol. 16, No. 4, pp. 643-647.

HAYKIN, S. (1999). Neural Networks – A Comprehensive Foundation, Second Edition, Macmillan College Publishing CO.

IEEE C57.104-1991 (1991). IEEE Guide for the Interpretation of Gases Generated in Oil- Immersed Transformers.

LEOCÁDIO, C. M. (2011). Aplicação de redes neurais artificiais no diagnóstico de falhas em transformadores de potência - Trabalho de Conclusão de Curso – Departamento de Engenharia de Elétrica, Universidade Federal Fluminense, Niterói.

LIMA, S. E. U. (2005). Diagnóstico Inteligente de Falhas Incipientes em Transformadores de Potência Utilizando a Análise dos Gases Dissolvidos em Óleo. Dissertação de Mestrado, UFC/CT/DEE - Departamento de Energia Elétrica, Fortaleza, CE.

MORAIS, D. R. (2004). Ferramenta Inteligente para Detecção de Falhas Incipientes em Transformadores Baseada na Análise de Gases Dissolvidos no Óleo Isolante. Dissertação de Mestrado em Engenharia Elétrica – Universidade Federal de Santa Catarina, Florianópolis, SC.

Page 84: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

84

Avaliação da cinética de secagem da polpa e casca d a banana para a velocidade de 2m.s -1

Luciana P. Teixeira; José G. da Silva; Ednilton T. de Andrade; Angelo José L. Braz Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected]; [email protected]; [email protected]; [email protected]

RESUMO

Este trabalho teve por objetivo estudar a cinética de secagem da polpa e casca da banana para a velocidade de 2m.s-1 submetida a diferentes temperaturas do ar de secagem, além de ajustar os dados experimentais a diferentes modelos matemáticos representativos da razão de umidade, analisando-se também as variâncias entre os resultados obtidos. Para condução do experimento de secagem foram utilizadas as temperaturas de 35, 45, 55, e 70ºC. Para o ajuste dos modelos matemáticos aos dados experimentais, realizou-se análise de regressão não linear, pelo método Quasi-Newton, sendo os valores dos parâmetros dos modelos estimados em função da temperatura do ar de secagem. Como resultado, foi verificado que o modelo de Midilli foi o que melhor representou o fenômeno nas temperaturas de 35, 45, 55 e 70ºC. Já, para a casca da banana na temperatura de 35 ºC, o modelo de Dois termos apresentou melhor ajuste, enquanto que para as temperaturas de 45, 55 e 70ºC, houve melhor representação pelo modelo de Midilli.

Palavras-Chave: banana, cinética de secagem, modelos matemáticos.

1. INTRODUÇÃO

As bananas são frutos comestíveis do gênero Musa cavendishii., cultivadas na maioria dos países tropicais.

A obtenção de um produto de alta qualidade deve ser a meta de qualquer processo de produção para grandes ou pequenos produtores. Uma vez alcançada, resulta numa melhor aceitação pelo mercado consumidor e maior retorno financeiro à base produtiva. Contudo, a pós-colheita da banana apresenta certos inconvenientes, tais como:

a) a fruta madura é bastante suscetível a danos físicos durante o transporte e comercialização, devido aos constantes manuseios dos cachos;

b) as bananas maduras deterioram-se rapidamente, devido ao ataque dos fungos que podem instalar-se nos frutos antes ou após a colheita;

c) em condições naturais, existe desuniformidade no amadurecimento de bananas após a colheita.

A banana caracteriza-se por apresentar uma respiração muito ativa, sendo classificada do tipo climatérico, portanto para sua conservação se faz necessário utilizar-se de meios físicos para reduzir seu metabolismo, dentro dos limites tolerados pelas frutas, sem causar qualquer problema em sua estrutura celular e, consequentemente, sem que haja perda de sua qualidade (CHITARRA e CHITARRA, 2005).

Vários processos tecnológicos têm sido explorados em escala industrial para preservar frutas, tais como, enlatamento, congelamento e desidratação, produzindo frutas do tipo passa. A banana-passa é obtida pela secagem natural ou artificial dos frutos em estádio de maturação avançado.

Em virtude da importância desse processo, o presente trabalho tem o objetivo estudar a cinética de secagem da polpa e casca da banana para a velocidade de 2m.s-1

Page 85: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

85

submetida a diferentes temperaturas do ar de secagem, e ajustar os dados experimentais a diferentes modelos matemáticos representativos da razão de umidade, analisando-se também as variâncias entre os resultados obtidos.

2. MATERIAIS E MÉTODOS

O presente trabalho foi desenvolvido na Universidade Federal Fluminense, pelo Departamento de Engenharia Agrícola e Meio Ambiente. Para a realização das análises foi utilizado o Laboratório de Termociências do Departamento de Engenharia Mecânica.

Para a realização do estudo, foram analisadas separadamente a polpa e a casca da banana, da cultivar nanica, as quais se encontravam completamente amarelas, com áreas café no estádio de cor 7 (CHITARRA e CHITARRA, 2005).

As bananas foram lavadas, antes dos descascamentos com água clorada (300 ppm de cloro ativo) durante 20 minutos e posteriormente secas ao ar. A seguir, elas foram descascadas e submetidas a sulfitação com imersão em solução de 0,5% de metasulfito de sódio, durante um minuto (SILVA, 1995) e dispostas em bandejas para secagem. Antes da secagem, separou-se a polpa da casca, sendo que a polpa foi subdividida para a análise em cortes de 0,5, 1 e 2 cm, além de meia banana e banana inteira. Estas amostras foram individualmente submetidas a secagem em secador industrial, para as temperaturas do ar de secagem 35, 45, 55, e 70°C, e velocidade do ar d e secagem de 2 m.s-1.

Durante o processo de secagem, as amostras foram pesadas periodicamente, até atingir seu teor de água de equilíbrio com a condição do ar especificada, de forma a possibilitar o cálculo da razão de umidade do produto, que será utilizado para a determinação das curvas de secagem e ajuste dos modelos. Para a determinação da razão de umidade da polpa e casca da banana, para as diferentes condições de secagem, utilizar-se-á a Equação 1 a seguir:

RU = θe

ie (1)

em que,

RU - razão de umidade do produto, adimensional; Uθ - teor de água da banana no tempo θ, (decimal b.s.); Ui- teor de água inicial, (decimal b.s.); e Ue- teor de água de equilíbrio, (decimal b.s.).

Para a determinação do teor de água de equilíbrio da banana, foi utilizado o modelo de Halsey Modificado para a polpa e Sigma Copace para a casca (ANDRADE et al., 2010), sendo, para a determinação da umidade relativa no interior do equipamento, utilizado o programa GRAPSI. Os modelos matemáticos obtidos na literatura e representativos da secagem de produtos agrícolas (CORRÊA et al., 2005; DOYMAZ, 2007; MOHAPATRA & RAO, 2005; LAHSASNI et al., 2004; MIDILLI et al., 2002; PANCHARIYA et al., 2002; OZDEMIR & DEVRES, 1999), utilizados neste estudo, estão expostos na Tabela 1.

Tabela 1. Modelos utilizados para a verificação da Razão de Umidade.

Modelo Equação

Aproximação da Difusão RU = aexp−kt + 1 − aexp−kbt (2)

Dois Termos RU = aexp−kt + bexp−kt (3)

Exponencial de Dois Termos RU = aexp−kt + 1 − aexp−kat (4)

Henderson e Pabis RU = aexp−kt (5)

Henderson e Pabis Modificado RU = aexp−kt + bexp−kt + cexp−kt (6)

Logarítmico RU = aexp−kt + c (7)

Midilli RU = aexp−kt + bt (8)

Page 86: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

86

Page RU = exp−kt (9)

Thompson RU = exp−aa + 4bt, 2b⁄ (10)

Verna RU = aexp−kt + 1 − aexp−kt (11)

em que,

t – tempo de secagem, h; k, ko, k1 - constantes de secagem, h-1; e a, b, c, n - coeficientes dos modelos.

Para estimar os parâmetros dos modelos matemáticos ajustados foi utilizado o programa STATISTICA 5. A representatividade dos modelos foi determinada em função do erro médio relativo (P) e o erro médio estimado (SE), Equações 12 e 13.

P = ∑Y − Ŷ/Y) (12)

SE = $∑%Ŷ&'() (13)

em que,

Y - valor observado experimentalmente; Ŷ - valor calculado pelo modelo; e GLR - graus de liberdade do modelo.

3. RESULTADOS

Através dos valores de razão de umidade calculados pela Equação 1, em função do tempo e seus respectivos teores de água obtidos experimentalmente, foram analisadas as estimativas relacionadas com os modelos de razão de umidade. Para cada modelo foram determinados seus respectivos parâmetros, coeficientes de determinação (R2), e erros médio relativo (P) e estimado (SE). Na Tabela 2, estão apresentados os melhores modelos de razão de umidade para cada temperatura e cortes analisados, assim como seus parâmetros estimados e coeficientes de determinação, e erros médio relativo e estimados.

De acordo com Mohapatra e Rao (2005), os modelos com P superiores a 10% não apresentam um ajuste satisfatório. Lomauro et al. (1985) acrescenta que os valores de R2

devem ser próximos da unidade.

Assim como o exposto na Tabela 2, de acordo com os resultados obtidos a partir da análise dos modelos estudados, para a temperatura de 35°C, o modelo de Midilli para todas as diferentes espessuras da polpa da banana apresentou melhor representatividade do fenômeno, enquanto para a casca foi o modelo de Dois Termos. Para as temperaturas de 45, 55, e 70°C, a razão de umidade da polpa da bana na com diferentes espessuras foi também melhor representada pelo modelo de Midilli.

Já, para a casca, nas temperaturas de 45°C, 55 e 70 °C o modelo com melhor representatividade foi o modelo de Midilli.

Tabela 2. Parâmetros estimados, coeficientes de determinação, e erros médio relativo e estimado dos melhores modelos para cada temperatura e corte.

Temperatura

(oC) Cortes Melhores

modelos

Parâmetros R2

P

(%)

SE

(decimal) A K0 K K1 N B

35

Inteira

Midilli

1,0048 - 0,0658 - 0,7731 0,0001 99,97 4,98 0,0201

Meia 0,9913 - 0,0554 - 0,9950 0,0001 99,97 6,11 0,0183

2 cm 1,0089 - 0,1309 - 0,7163 0,0000 99,94 16,60 0,0258

1 cm 0,9949 - 0,1589 - 0,8025 0,0000 99,97 8,93 0,0160

Page 87: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

87

0,5 cm 0,9985 - 0,3331 - 0,7815 0,0001 99,99 5,81 0,0098

Casca Dois termos 0,0188 0,0044 0,9713 0,0752 - - 99,95 9,42 0,0250

45

Inteira

Midilli

0,9995 - 0,0593 - 0,9225 -0,0001 99,99 1,50 0,00963

Meia 0,9948 - 0,0803 - 1,0016 0,0006 99,97 2,25 0,0134

2 cm 0,9946 - 0,1298 - 0,8504 0,0007 99,86 5,84 0,0265

1 cm 1,0020 - 0,2044 - 0,8152 0,0006 99,97 0,67 0,0092

0,5 cm 0,9917 - 0,3576 - 0,9261 0,0013 99,89 2,90 0,0194

Casca Midilli 0,9967 - 0,1223 - 0,9941 -0,0006 99,97 0,65 0,0090

55

Inteira

Midilli

0,9938 - 0,0639 - 1,0082 0,0006 99,98 1,06 0,0111

Meia 0,9994 - 0,1217 - 0,9475 -0,0006 99,99 0,29 0,0043

2 cm 0,9950 - 0,1407 - 0,9107 0,0012 99,97 2,24 0,0116

1 cm 0,9978 - 0,2367 - 0,8823 0,0006 99,98 0,79 0,0071

0,5 cm 0,9960 - 0,4986 - 0,9271 0,0002 99,90 5,99 0,0184

Casca Midilli 0,9933 - 0,1151 - 1,0791 0,0001 99,99 5,84 0,0100

70

Inteira

Midilli

0,9919 - 0,0894 - 1,0379 0,0004 99,97 2,27 0,0124

Meia 0,9926 - 0,1589 - 1,0558 0,0017 99,96 1,91 0,0140

2 cm 0,9951 - 0,1409 - 1,0694 0,0010 99,99 0,71 0,0069

1 cm 0,9831 - 0,2955 - 1,0794 0,0007 99,84 7,00 0,0262

0,5 cm 0,9872 - 0,5338 - 1,1108 0,0024 99,65 13,37 0,0360

Casca Midilli 0,9909 - 0,1976 - 1,1633 0,0004 99,83 9,79 0,0300

4. CONCLUSÃO

De acordo com as análises realizadas, o modelo de Midilli foi o que melhor representou o fenômeno de cinética de secagem da polpa da banana para velocidade de 2m.s-1, nas temperaturas de 35, 45, 55 e 70ºC. Já, o fenômeno para a casca da banana, analisada para a mesma velocidade, na temperatura de 35 ºC foi melhor representada pelo modelo de Dois termos, enquanto que para as temperaturas de 45, 55 e 70ºC, houve melhor representação pelo modelo de Midilli.

5. REFERÊNCIAS

ANDRADE, E. T.; BECKMAN, E. H.; ANDRADE, D. O.; BRAZ, A. J. L.; SILVA, J. G.; PEREIRA, R. G. (2010). Equilíbrio higroscópico e entalpia de vaporização da banana-passa e da casca da banana. Revista Brasileira de Armazenamento. Viçosa, MG. v.35, n.1, p.80-89

CHITARRA, M. I. F.; CHITARRA, A. B. (2005) Pós-colheita de frutos e hortaliças: fisiologia e manuseio. 2ª Edição, Editora UFLA. 783p.

CORRÊA, P. C.; GONELI, A. L. D.; RESENDE, O.; RIBEIRO, D. M. (2005). Obtenção e modelagem das isotermas de dessorção e do calor isotérico de dessorção para grãos de trigo. Revista Brasileira de Produtos Agroindustriais, v.7, p.39-48.

DOYMAZ, I. (2007). The kinetics of forced convective air-drying of pumpkin slices. Journal of Food Engineering, v.79, n.1, p. 243-249.

LAHSASNI, S.; KOUHILA, M.; MAHROUZ, M.; JAOUHARI, J.T. (2004). Drying kinetics of prickly pear fruit (Opuntia ficus indica). Journal of Food Engineering, v.61, n.2, p. 173-179.

LOMAURO, C. J.; BAKSHI, A. S.; LABUZA, T. P. (1985). Evaluation of food moisture sorption isotherm equations. Part I: Fruit, vegetable and meat products. Lebensmittel-Wissenschaft and technologie, Zurich, v.18, n.2, p.111-117

Page 88: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

88

MIDILLI, A.; KUCUK, H.; YAPAR, Z. (2002). A new model for single-layer drying. Drying Technology, Philadelphia, v.20, n.7, p.1503–1513.

MOHAPATRA, D.; RAO, P.S. (2005). A thin layer drying model of parboiled wheat. Journal of Food Engineering. p.513-518

ÖZDEMIR, M.; DEVRES, Y. O. (1999). The thins layer drying characteristics of hazelnuts during roasting. Journal of Food Engineering, v.42, n.4, p. 225 - 233

PANCHARIYA, P. C.; POPOVIC, D.; SHARMA, A. L. (2002). Thin-layer modeling of black tea drying process. Journal of Food Engineering, Davis, v.52, n.4, p.349-357

SILVA, C. A. B. (1995). Produção de banana-passa. Brasília. Ministério da Agricultura, do Abastecimento e da Reforma Agrária, Secretaria do Desenvolvimento Rural. Série perfis agroindustriais 5. 32p.

Page 89: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

89

Avaliação da cinética de secagem da polpa e casca d a banana para a velocidade de 3 m.s -1

Ednilton T. de Andrade; José G. da Silva; Luciana P. Teixeira; Angelo José L. Braz

Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected]; [email protected]; [email protected]; [email protected]

RESUMO

Este trabalho teve por objetivo estudar a cinética de secagem da polpa e casca da banana para a velocidade de 3m.s-1 submetidas a diferentes temperaturas do ar de secagem (35, 45, 55, e 70ºC) e ajustar os dados experimentais a diferentes modelos matemáticos, verificando-se também as variâncias entre os resultados obtidos. Para o ajuste dos modelos matemáticos aos dados experimentais foi utilizado o método Quasi-Newton, a partir da análise de regressão não linear, sendo os parâmetros dos modelos estimados em função da temperatura do ar de secagem utilizada. Como resultado, foi verificado para a temperatura de 35 e 45°C, que o modelo Logarítimico foi o de me lhor representação do fenômeno de cinética de secagem para a polpa, enquanto o modelo de Midilli para a casca da banana. Já, para a temperatura de 55°C, o modelo da Aproximação da difusão foi o que apresentou melhor ajuste para a polpa da banana, e o modelo Logarítimico para a casca. Por fim, para a temperatura de 70°C, o modelo de Midilli foi o mais representativo para a polpa, enquanto, para a casca da banana foi o modelo da Aproximação da difusão.

Palavras-Chave: banana, cinética de secagem, razão de umidade.

1. INTRODUÇÃO

As bananas são frutos comestíveis do gênero Musa cavendishii, cultivadas na maioria dos países tropicais. Elas possuem um alto valor energético e nutricional, sendo uma importante fonte na alimentação humana, tanto na forma in-natura como industrial (BARBOSA LIMA, et al., 2000).

Contudo, a pós-colheita da banana apresenta certos inconvenientes tais como a alta suscetibilidade a danos físicos durante o transporte e comercialização; a rápida deterioração por microorganismos quando maduras, antes ou após a colheita; e, em condições naturais, a sua desuniformidade no amadurecimento após a colheita. A banana caracteriza-se por apresentar uma respiração muito ativa, sendo classificada do tipo climatérico, portanto para sua conservação se faz necessário utilizar-se de meios físicos para reduzir seu metabolismo sem que haja perda de sua qualidade (CHITARRA e CHITARRA, 2005).

Dessa forma, para um melhor aproveitamento, vários processos tecnológicos têm sido explorados em escala industrial para preservar frutas, tais como, enlatamento, congelamento, e desidratação que produz frutas do tipo passa. A banana-passa é obtida pela secagem natural ou artificial dos frutos em estádio de maturação avançado. Dentre os processos de aproveitamento industrial, a produção de banana-passa requer baixo investimento inicial e perspectivas de lucratividade compatíveis com o investimento.

Em virtude da importância desse processo, o presente trabalho tem o objetivo estudar a cinética de secagem da polpa e casca da banana para a velocidade de 3m.s-1 submetida a diferentes temperaturas do ar de secagem, e ajustar os dados experimentais a diferentes modelos matemáticos representativos da razão de umidade, analisando-se também as variâncias entre os resultados obtidos.

2. MATERIAIS E MÉTODOS

Page 90: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

90

O presente trabalho foi desenvolvido na Universidade Federal Fluminense, pelo Departamento de Engenharia Agrícola e Meio Ambiente. Para a realização das análises foi utilizado o Laboratório de Termociências do Departamento de Engenharia Mecânica.

Para a realização do estudo, foram analisadas separadamente a polpa e a casca da banana, da cultivar nanica, as quais se encontravam completamente amarelas, com áreas café no estádio de cor 7 (CHITARRA e CHITARRA, 2005).

As bananas foram lavadas, antes dos descascamentos com água clorada (300 ppm de cloro ativo) durante 20 minutos e posteriormente secas ao ar. A seguir, elas foram descascadas e submetidas a sulfitação com imersão em solução de 0,5% de metasulfito de sódio, durante um minuto (SILVA, 1995) e dispostas em bandejas para secagem.

Antes da secagem, separou-se a polpa da casca, sendo que a polpa foi subdividida para a análise em cortes de 0,5, 1 e 2 cm, além da meia banana e da banana inteira. Estas amostras foram individualmente submetidas a secagem em secador industrial, para as temperaturas do ar de secagem 35, 45, 55, e 70°C, e velocidade do ar de secagem de 3 m.s-1. Durante o processo de secagem, as amostras foram periodicamente pesadas, até atingir seu teor de água de equilíbrio com a condição do ar especificada, de forma a possibilitar o cálculo da razão de umidade do produto, que será utilizado para a determinação das curvas de secagem e ajuste dos modelos.

Para a determinação da razão de umidade da polpa e casca da banana, para as diferentes condições de secagem, utilizar-se-á a Equação 1.

RU = θe

ie (1)

em que,

RU - razão de umidade do produto, adimensional; Uθ - teor de água da banana no tempo θ, (decimal b.s.); Ui- teor de água inicial, (decimal b.s.); e Ue- teor de água de equilíbrio, (decimal b.s.).

No que diz respeito à determinação do teor de água de equilíbrio da banana, foi utilizado o modelo de Halsey Modificado para a polpa e Sigma Copace para a casca, assim como o indicado por ANDRADE et al. (2010).

Para a determinação da umidade relativa no interior do equipamento foi utilizado o programa GRAPSI. Os modelos matemáticos obtidos na literatura e representativos da secagem de produtos agrícolas (CORRÊA et al., 2005; DOYMAZ, 2007; MOHAPATRA & RAO, 2005; LAHSASNI et al., 2004; MIDILLI et al., 2002; PANCHARIYA et al., 2002; OZDEMIR & DEVRES, 1999), utilizados neste estudo, estão expostos na Tabela 1.

Tabela 1. Modelos utilizados para a verificação da Razão de Umidade

Modelo Equação

Aproximação da Difusão RU = aexp−kt + 1 − aexp−kbt (2)

Dois Termos RU = aexp−kt + bexp−kt (3)

Exponencial de Dois Termos RU = aexp−kt + 1 − aexp−kat (4)

Henderson e Pabis RU = aexp−kt (5)

Henderson e Pabis Modificado RU = aexp−kt + bexp−kt + cexp−kt (6)

Logarítmico RU = aexp−kt + c (7)

Midilli RU = aexp−kt + bt (8)

Page RU = exp−kt (9)

Page 91: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

91

Thompson RU = exp−aa + 4bt, 2b⁄ (10)

Verna RU = aexp−kt + 1 − aexp−kt (11)

em que,

t - tempo de secagem, h; k, ko, k1 - constantes de secagem, h-1; e a, b, c, n - coeficientes dos modelos.

Para estimar os parâmetros dos modelos matemáticos ajustados foi utilizado o programa STATISTICA 5. A representatividade dos modelos foi determinada em função do erro médio relativo (P) e o erro médio estimado (SE), Equações 12 e 13.

P = ∑Y − Ŷ/Y) (12)

SE = $∑%Ŷ&'() (13)

em que,

Y - valor observado experimentalmente; Ŷ - valor calculado pelo modelo; e GLR -

graus de liberdade do modelo.

3. RESULTADOS

Através dos valores de razão de umidade calculados pela Equação 1, em função do tempo e seus respectivos teores de água obtidos experimentalmente, foram analisadas as estimativas relacionadas com os modelos de razão de umidade.

Para cada modelo foram determinados seus respectivos parâmetros, coeficientes de determinação (R2), e erros médio relativo (P) e estimado (SE). Na Tabela 2, estão apresentados os melhores modelos de razão de umidade para cada temperatura e cortes analisados, assim como seus parâmetros estimados e coeficientes de determinação, e erros médio relativo e estimados. De acordo com Mohapatra e Rao (2005), os modelos com P superiores a 10% não apresentam um ajuste satisfatório. Lomauro et al. (1985) acrescenta que os valores de R2 devem ser próximos da unidade.

Assim como o exposto na Tabela 2, de acordo com os resultados obtidos na análise dos modelos estudados, para a temperatura de 35 e 45°C, o modelo Logarítimico foi o que melhor representou o fenômeno de cinética de secagem para a polpa, enquanto o modelo de Midilli para a casca da banana. Já, para a temperatura de 55°C, o modelo da Aproximação da difusão foi o que apresentou melhor ajuste para a polpa da banana, e o modelo Logarítimico para a casca. Por fim, para a temperatura de 70°C, o modelo de Midilli foi o mais representativo para a polpa, enquanto, para a casca da banana foi o modelo da Aproximação da difusão.

Tabela 2. Parâmetros estimados, coeficientes de determinação, e erros médio relativo e estimado dos melhores modelos para cada temperatura e corte.

Temperatura

(oC) Cortes Melhores

modelos

Parâmetros R2

P

(%)

SE

(decimal) A K C N B

35

Inteira

Logarítimico

0,8500 0,0366 0,1238 - - 99,92 1,14 0,0259

Meia 0,8768 0,0586 0,1094 - - 99,98 0,44 0,0133

2 cm 0,8360 0,0534 0,1057 - - 99,28 3,99 0,0570

1 cm 0,8664 0,1154 0,1086 - - 99,86 2,98 0,0274

0,5 cm 0,8885 0,1983 0,0890 - - 99,84 3,33 0,0295

Page 92: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

92

Casca Midilli 0,9976 0,0529 - 0,8641 -0,0082 99,99 0,65 0,0062

45

Inteira

Logarítimico

0,9147 0,0396 0,0450 - - 99,88 1,50 0,0359

Meia 0,9203 0,0793 0,0511 - - 99,94 2,52 0,0270

2 cm 0,8698 0,0695 0,0775 - - 99,69 9,46 0,0567

1 cm 0,8892 0,1163 0,0547 - - 99,69 6,45 0,0561

0,5 cm 0,9224 0,2266 0,0487 - - 99,83 5,17 0,0378

Casca Midilli 0,9764 0,0630 - 1,0860 -0,0002 99,93 1,80 0,0236

55

Inteira

Aproximação da difusão

0,8800 0,0827 - - 0,0657 99,91 4,74 0,0375

Meia 0,9459 0,1462 - - 0,0193 99,89 2,58 0,0388

2 cm 0,9110 0,1472 - - 0,0354 99,78 7,12 0,0545

1 cm 0,9092 0,2446 - - 0,0616 99,38 7,48 0,0800

0,5 cm 0,7776 0,7347 - - 0,1073 99,47 5,32 0,0520

Casca Logarítimico 1,0122 0,1197 -0,0269 - - 99,93 6,63 0,0172

70

Inteira

Midilli

0,9927 0,1263 - 0,8345 0,0006 99,93 4,37 0,0229

Meia 1,0047 0,3117 - 0,7263 0,0008 99,94 4,24 0,0184

2 cm 0,9996 0,2651 - 0,7232 0,0003 99,96 9,60 0,0162

1 cm 0,9899 0,3890 - 0,6607 0,0002 99,59 5,83 0,0398

0,5 cm 1,0011 0,7748 - 0,7592 0,0021 99,60 6,05 0,0207

Casca Aproximação da Difusão 0,6541 0,9614 - - 0,0557 98,27 9,44 0,0977

4. CONCLUSÃO

A partir dos resultados, pode-se verificar que os modelos com melhores ajustes são representativos do fenômeno de cinética de secagem para a velocidade de 3m.s-1 tanto para as diferentes espessuras da polpa como para a casca da banana, podendo, dessa forma, serem utilizados como representação do fenômeno.

5. REFERÊNCIAS

ANDRADE, E. T.; BECKMAN, E. H.; ANDRADE, D. O.; BRAZ, A. J. L.; SILVA, J. G.; PEREIRA, R. G. (2010). Equilíbrio higroscópico e entalpia de vaporização da banana-passa e da casca da banana. Revista Brasileira de Armazenamento. Viçosa, MG. v.35, n.1, p.80-89

BARBOSA DE LIMA, A. G.; AZUCENA NEBRA, S.; QUEIROZ, M. R. (2000). Comunicado Técnico Aspectos Científico e Tecnológico da Banana. Revista Brasileira de Produtos Agroindustriais, Campina Grande, v.2, n.1, p.87-101

CHITARRA, M. I. F.; CHITARRA, AB. (2005). Pós-colheita de frutos e hortaliças: fisiologia e manuseio. 2ª Edição, Editora UFLA. 783p.

CORRÊA, P. C.; GONELI, A. L. D.; RESENDE, O.; RIBEIRO, D. M. (2005). Obtenção e modelagem das isotermas de dessorção e do calor isotérico de dessorção para grãos de trigo. Revista Brasileira de Produtos Agroindustriais, v.7, p.39-48

DOYMAZ, I. (2007). The kinetics of forced convective air-drying of pumpkin slices. Journal of Food Engineering, 79(1): 243-249.

LAHSASNI, S.; KOUHILA, M.; MAHROUZ, M.; JAOUHARI, J.T. (2004). Drying kinetics of prickly pear fruit (Opuntia ficus indica). Journal of Food Engineering, 61(2): 173-179

LOMAURO, C.J.; Bakshi, A.S.; Labuza, T. P. (1985). Evaluation of food moisture sorption isotherm equations. Part I: Fruit, vegetable and meat products. Lebensmittel-Wissenschaft and technologie, Zurich, v.18, n.2, p.111-117

Page 93: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

93

MIDILLI, A.; KUCUK, H.; YAPAR, Z. (2002). A new model for single-layer drying. Drying Technology, Philadelphia, v.20, n.7, p.1503–1513

MOHAPATRA, D.; RAO, P.S. (2005). A thin layer drying model of parboiled wheat. Journal of Food Engineering. p.513-518

ÖZDEMIR, M.; DEVRES, Y.O. (1999). The thins layer drying characteristics of hazelnuts during roasting. Journal of Food Engineering, v.42, n.4, p. 225 - 233

PANCHARIYA, P. C.; POPOVIC, D.; SHARMA, A. L. (2002). Thin-layer modeling of black tea drying process. Journal of Food Engineering, Davis, v.52, n.4, p.349-357

SILVA, C.A.B. (1995). Produção de banana-passa. Brasília. Ministério da Agricultura, do Abastecimento e da Reforma Agrária, Secretaria do Desenvolvimento Rural. Série perfis agroindustriais 5. 32p

Page 94: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

94

Avaliação da resistência à corrosão de anéis de aço ASTM A-36 para junção metálica de estacas de concreto pa ra

utilização submarina

R.S.P. Domingos1, J.M. Pardal1, S.S.M. Tavares1, A.B. Salles1, R. R. Pinheiro2, F.B.Mainier2, M.L.O. Medrano3

1,2Escola de Engenharia – Universidade Federal Fluminense

Niterói, RJ, Brasil. 3SCAC Fundações e Estruturas Ltda.

São Paulo, SP, Brasil. [email protected]

RESUMO

O presente trabalho refere-se à avaliação da resistência à corrosão de anéis de aço ASTM A-36 soldados para junção metálica de estacas de concreto imersas em água do mar. A motivação deste trabalho é atribuída a uma solução logística da empresa SCAC Fundações e Estruturas Ltda, tendo em vista a dificuldade da locomoção de estacas de dimensões muito grandes através de rodovias no Brasil. Deste modo, os processos corrosivos no anel metálico e no aço CA-50 da armadura concreto foram avaliados através de ensaios de imersão por perda de massa realizados em uma solução de 3,5% de NaCl, assim como pela utilização de proteção catódica com anodo de sacrifício de zinco. Com os resultados destes ensaios foram propostas diversas soluções para mitigar o processo corrosivo, dos anéis metálicos da junção, fazendo uso de sistemas de proteção mediante anodos de sacrifício de zinco e de alumínio com o intuito a proteger o anel de aço das estacas de concreto para uma vida útil de 100 anos.

Palavras-Chave: Corrosão, estacas de concreto, anéis de junção de aço, proteção catódica.

1. INTRODUÇÃO

Com o crescimento da construção civil em nosso país, a aplicação de estacas de concreto armado em meios muito agressivos tem apresentado rotineiramente novos desafios para a engenharia, em termos de soluções logísticas. Este estudo foi motivado por uma solução logística da SCAC Fundações e Estruturas Ltda, tendo em vista a dificuldade da locomoção de estacas de dimensões muito grandes através de rodovias. Uma vez o papel da engenharia contemporânea visa buscar soluções técnicas e financeiramente viáveis de problemas constatados no cotidiano. Para tal, foi projetada pela empresa o uso de um anel de aço carbono vinculado à armação metálica na extremidade da estaca. Deste modo, a mesma pode ser fixada a outra estaca, produzida de forma análoga, mediante a deposição de um cordão de solda no bisel feito na região da extremidade tal como mostrado na figura 1. Neste contexto, será abordado o processo corrosivo, em água do mar, dos aços ASTM A-36 e CA-50, utilizados na construção civil em junções de estacas de concreto. Por fim, são propostos meios de prevenção contra corrosão, para garantir uma vida útil de 100 anos para junção metálica de estacas com emenda soldada.

Page 95: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

95

Figura1. Junção de duas estacas de concreto armado com um anel de aço em cada extremidade.

2. MATERIAIS E MÉTODOS

Para este trabalho, os ensaios realizados foram: Perda de massa com imersão em água salgada de corpos de provas lisos e soldados; Imersão em água contendo 3,5% NaCl de amostras de aço CA-50 conectado ao vergalhão do concreto armado e imersão da estaca de concreto contendo um anel de aço com anodo de sacrifício de zinco para analisar a eficiência da proteção catódica proposta.

Os materiais utilizados nos ensaios de imersão foram fornecidos pela empresa SCAC Fundações e Estruturas Ltda, sendo estes listados a seguir:

• Cinco corpos de prova lisos (CPL) retangulares de aço ASTM A-36 de dimensões (50 mm x 30 mm x 6 mm) com furo passante de diâmetro 1,6 mm.

• Cinco corpos de prova retangulares de aço ASTM A-36 de dimensões (50 mm x 30 mm x 6 mm) com furo passante de diâmetro 1,6 mm, contendo um cordão de solda (CPS) depositado em uma das faces pelo processo de eletrodo revestido SMAW com consumível AWS E- 7018.

• Um corpo de prova de concreto (SCAC) com diâmetro de 150 mm e altura de 300 mm contendo cinco vergalhões de CA-50, em forma radial, com diâmetro de 20 mm e altura de 250 mm e um vergalhão de CA-50 com diâmetro de 20 mm e 350 mm de altura, sendo a superfície superior do corpo de prova coberta com resina epóxi.

• Um segmento de estaca de concreto centrifugado (SCAC) com diâmetro de 150 mm e altura de 250 mm contendo um anel de aço ASTM A-36 com altura de 60,3 mm e espessura de 2,8 mm soldados internamente com 5 vergalhões de CA-50 com diâmetro de 20 mm e altura de 250 mm.

• Um segmento de estaca de concreto centrifugado (SCAC) de características semelhantes ao anterior com diâmetro de 150 mm e altura de 250 mm contendo um anel de aço ASTM A36 com altura de 57,1 mm, espessura de 2,9 mm e diâmetro de 260 mm soldados internamente a 5 vergalhões de CA-50 com diâmetro de 20 mm e altura de 250 mm. Cabe salientar que neste corpo de prova foi fixado um anodo de zinco.

• Um anodo de sacrifício de zinco com diâmetro de 10,65 mm, altura de 19,95 mm e peso de 12,810 g.

• Um cilindro maciço de aço carbono com diâmetro de 15,88 mm, altura de 74,95 mm e peso de 114,400 g.

Cabe ressaltar que o anodo de sacrifício de Zn e o cilindro de aço possuem uma rosca interna de fixação passando através de um cilindro de teflon. Deste modo pretende-se isolar eletricamente o sistema mediante uso de anéis de vedação.

2.1 Ensaio 1 – Perda de Massa com Imersão de Amostras de Aço ASTM A36 em Água 3, 5% NaCl.

Page 96: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

Neste ensaio os dez corpos de prova lisos e soldados faquosa de 3,5% NaCl à temperatura ambiente com o objetivo de determinar as respectivas taxas de corrosão. Para simular uma situação mais rigorosa, foi feita uma aeração forçada, usando aeradores com pedra porosa acionados por uma bona figura 2. Cabe destacar, que os corpos de prova, antes de serem imersos na solução, foram escovados para remoção da camada superficial de óxido, desengordurados, secos e pesados em uma balança com 3 casas decimais de precisã

Figura 2. Início do Ensaio 1 com sistema de aeração.

Nos respectivos períodos de 2 dias (CPL1 e CPS1), 7 dias (CPL2 e CPS2), 14 dias (CPL3 e CPS3), 21 dias (CPL4 e CPS4) e 28 dias (CPL5 e CPS5) um corpo de prova liso e soldado foram retirados da soluç

2.2 Ensaio 2 – Imersão em Água 3,5% NaCl de Amostras de Aço CAVergalhão do Concreto Armado.

O Ensaio 2, mostrado na figura 3, consistiu na imersão em solução aquosa com 3,5% NaCl de um cilindro de concretocarbono de CA-50. Através do uso de um fio de cobre foi ligado o vergalhão do cp de concreto ao cilindro de aço carbono, intercalandocorrente em função do tempo do ensaio.

Os objetivos deste ensaio foram: avaliar o processo corrosivo do aço Cem solução salina e a corrosão galvânica entre o aço do concreto e o aço carbono do anel, devido à pilha formada pela difda solução (pH 6-8).

2.3 Ensaio 3 – Imersão de Corpo de Prova Simulando a Extremidade de uma Estaca com Anel.

O Ensaio 3 foi realizado submergindo duas estacas de concreto contendo o anel de aço ASTM A36, uma sem anodo de zinco e outra com anodo de zinco durante um período de 34 dias, tal como mostrado na figura 4.

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

Neste ensaio os dez corpos de prova lisos e soldados foram imersos em solução aquosa de 3,5% NaCl à temperatura ambiente com o objetivo de determinar as respectivas taxas de corrosão. Para simular uma situação mais rigorosa, foi feita uma aeração forçada, usando aeradores com pedra porosa acionados por uma bomba de ar, tal como mostrado na figura 2. Cabe destacar, que os corpos de prova, antes de serem imersos na solução, foram escovados para remoção da camada superficial de óxido, desengordurados, secos e pesados em uma balança com 3 casas decimais de precisão.

Figura 2. Início do Ensaio 1 com sistema de aeração.

Nos respectivos períodos de 2 dias (CPL1 e CPS1), 7 dias (CPL2 e CPS2), 14 dias (CPL3 e CPS3), 21 dias (CPL4 e CPS4) e 28 dias (CPL5 e CPS5) um corpo de prova liso e soldado foram retirados da solução, fotografados, limpados e pesados.

Imersão em Água 3,5% NaCl de Amostras de Aço CAdo Concreto Armado.

O Ensaio 2, mostrado na figura 3, consistiu na imersão em solução aquosa com 3,5% NaCl de um cilindro de concreto (SCAC) ligado eletricamente ao cilindro de aço

50. Através do uso de um fio de cobre foi ligado o vergalhão do cp de concreto ao cilindro de aço carbono, intercalando-se um amperímetro para a medição da corrente em função do tempo do ensaio. O ensaio foi realizado durante o período de 7 dias.

Os objetivos deste ensaio foram: avaliar o processo corrosivo do aço Cem solução salina e a corrosão galvânica entre o aço do concreto e o aço carbono do anel, devido à pilha formada pela diferença de pH do concreto ( com aproximadamente pH 12) e

Figura 3. Início do Ensaio 2.

Imersão de Corpo de Prova Simulando a Extremidade de uma Estaca com

O Ensaio 3 foi realizado submergindo duas estacas de concreto centrifugado (SCAC) contendo o anel de aço ASTM A36, uma sem anodo de zinco e outra com anodo de zinco durante um período de 34 dias, tal como mostrado na figura 4.

9 de outubro de 2011

96

oram imersos em solução aquosa de 3,5% NaCl à temperatura ambiente com o objetivo de determinar as respectivas taxas de corrosão. Para simular uma situação mais rigorosa, foi feita uma aeração forçada,

mba de ar, tal como mostrado na figura 2. Cabe destacar, que os corpos de prova, antes de serem imersos na solução, foram escovados para remoção da camada superficial de óxido, desengordurados, secos e

Nos respectivos períodos de 2 dias (CPL1 e CPS1), 7 dias (CPL2 e CPS2), 14 dias (CPL3 e CPS3), 21 dias (CPL4 e CPS4) e 28 dias (CPL5 e CPS5) um corpo de prova liso e

Imersão em Água 3,5% NaCl de Amostras de Aço CA-50 Conectado ao

O Ensaio 2, mostrado na figura 3, consistiu na imersão em solução aquosa com (SCAC) ligado eletricamente ao cilindro de aço

50. Através do uso de um fio de cobre foi ligado o vergalhão do cp de se um amperímetro para a medição da

O ensaio foi realizado durante o período de 7 dias.

Os objetivos deste ensaio foram: avaliar o processo corrosivo do aço CA-50 imerso em solução salina e a corrosão galvânica entre o aço do concreto e o aço carbono do anel,

erença de pH do concreto ( com aproximadamente pH 12) e

Imersão de Corpo de Prova Simulando a Extremidade de uma Estaca com

centrifugado (SCAC) contendo o anel de aço ASTM A36, uma sem anodo de zinco e outra com anodo de zinco

Page 97: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

97

(a) (b)

Figura 4. (a) Segmento de estaca de concreto centrifugado com anodo de zinco e (b) sem anodo após 17 dias de ensaio.

3. RESULTADOS E DISCUSSÕES

Para o Ensaio 1 foi observado, depois de 48 horas, o processo de corrosão nas amostras com depósito de produto de corrosão em suas superfícies, assim como a precipitação do mesmo produto no fundo do recipiente do ensaio. Com a evolução do ensaio ficou mais visível e espessa a camada do produto de corrosão nos corpos de prova imersos, e consequentemente a solução se tornou mais turva. Devido à coloração marrom levemente alaranjada da solução, deduz-se que o depósito no fundo do recipiente seja de hidróxido de ferro (Fe(OH)2). A figura 5 mostra o andamento do teste após 2 dias de ensaio.

As taxas de corrosão dos 10 corpos de prova foram calculadas através da equação 1 (GENTIL, 2007).

DTA

WKTC

××∆×= (1)

Onde: TC é a taxa de corrosão em mm/ano; K = constante (8,76 x 104); ∆W = perda de massa em g; A = área exposta em cm2; T = tempo em horas; D = densidade em g/cm3 (7,86 g/cm3 para o aço). Neste sentido, a figura 6 expressa graficamente os resultados obtidos das taxas de corrosão em mm/ano no Ensaio 1 que foi realizado no período de 28 dias.

Figura 5. Ensaio 1 com 2 dias de imersão.

Page 98: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

98

Figura 6. Variação da taxa de corrosão com o tempo de imersão para corpos de prova lisos e soldados.

Através da análise dos dados obtidos experimentalmente no Ensaio 1, representados na figura 6, verifica-se um imprevisto, pois a taxa de corrosão do CPL1 não deveria ser superior ao do CPS1. Para os CPL2, CPS2, CPL3 e CPS3 as taxas de corrosão estão corretas, uma vez que para os corpos soldados é maior do que para os corpos lisos devido à presença de frestas e imperfeições na solda. No caso dos CPL 4, CPS 4, CPL 5 e CPS 5, as taxas de corrosão dos corpos soldados podem ser consideradas iguais ao dos corpos lisos. Este fato pode ser conseqüência do depósito de produto de corrosão na superfície do aço que protegeu o metal e assim diminuiu o processo corrosivo. Outra explicação para esta discrepância encontrada refere-se à balança utilizada que não teve sensibilidade suficiente para detectar a perda de massa devido ao pequeno intervalo de tempo do ensaio no caso do CPL1 e CPS1.

Para o ensaio 2 o cilindro usinado de aço CA-50 sofreu corrosão com a formação de produtos de corrosão concentrada na área mais próxima ao concreto. Este processo corrosivo pode ser observado através da figura 7.

Figura 7. Ensaio 2 após de 7 dias.

A figura 8 mostra a variação da corrente durante o intervalo de tempo do ensaio 2. No mesmo foi observado o decréscimo da corrente no decorrer do tempo, fato que é justificado pela formação de uma camada de produto de corrosão no aço CA-50. A existência da corrente medida confirma a formação de uma pilha que contribui para o processo corrosivo e deve ser considerada para fins de calculo do anodo. A formação desta pilha ocorre devido às diferentes películas de óxido formadas no aço do concreto e no aço imerso na água do mar.

Page 99: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

Figura 8. Variação da corrente em função do tempo do Ensaio 2.

A Tabela 1 expressa a taxa de corrosão do aço carbono obtida no Ensaio 2.

Tabela 1. Taxa de corrosão do aço carbono no Ensaio 2

Massa inicial (g) Massa final (g)

114,400 113,991

Os resultados do ensaio 3 com e sem proteção catodica podem ser observados nas figura 9 (a) e (b), respectivamente. Na figura 9 (a) observaanodo de sacrifício de zinco fixado no anel, onde o anel encontraoutro lado, a Figura 9(b) mostra o processo corrosivo severo no anel de aço ASTM A36 quando imerso em água do mar sem nenhum tipo de proteção contra corrosão.

(a)

Figura 9. (a) Segmento de estaca com concreto centrifugado com anodo de zinco e (b) sem anodo

No fundo do recipiente após hidróxido de ferro no fundo do recipiente, produto da reação entre o aço do anel e do anodo de zinco.

3.1 Propostas para Proteção Galvânica

A proteção galvânica é o método de proteção mais adotado para praço carbono imerso em água do mar. O sistema de proteção contra corrosão do metal se deve a polarização catódica do metal até alcançar a área de imunidade. Segundo o Diagrama de Pourbaix, para que o material seja protegido é necessário que o metaárea de corrosão e alcance a área de imunidade (representado pelo ponto A) na Figura 10.

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

Figura 8. Variação da corrente em função do tempo do Ensaio 2.

A Tabela 1 expressa a taxa de corrosão do aço carbono obtida no Ensaio 2.

Tabela 1. Taxa de corrosão do aço carbono no Ensaio 2

Massa final (g) Perda de massa (g) Taxa de corrosão

113,991 0,409

Os resultados do ensaio 3 com e sem proteção catodica podem ser observados nas figura 9 (a) e (b), respectivamente. Na figura 9 (a) observa-se a estaca de concreto contendo anodo de sacrifício de zinco fixado no anel, onde o anel encontra-se isento de corroutro lado, a Figura 9(b) mostra o processo corrosivo severo no anel de aço ASTM A36 quando imerso em água do mar sem nenhum tipo de proteção contra corrosão.

(a) (b)

Figura 9. (a) Segmento de estaca com concreto centrifugado com anodo de zinco e (b) sem anodo de zinco após o término do ensaio 3.

No fundo do recipiente após o término do ensaio observou-se o provável depósito de hidróxido de ferro no fundo do recipiente, produto da reação entre o aço do anel e do anodo

Propostas para Proteção Galvânica

A proteção galvânica é o método de proteção mais adotado para praço carbono imerso em água do mar. O sistema de proteção contra corrosão do metal se deve a polarização catódica do metal até alcançar a área de imunidade. Segundo o Diagrama de Pourbaix, para que o material seja protegido é necessário que o metaárea de corrosão e alcance a área de imunidade (representado pelo ponto A) na Figura 10.

9 de outubro de 2011

99

Figura 8. Variação da corrente em função do tempo do Ensaio 2.

A Tabela 1 expressa a taxa de corrosão do aço carbono obtida no Ensaio 2.

Tabela 1. Taxa de corrosão do aço carbono no Ensaio 2.

Taxa de corrosão (mm/ano)

0,689

Os resultados do ensaio 3 com e sem proteção catodica podem ser observados nas se a estaca de concreto contendo

se isento de corrosão. Por outro lado, a Figura 9(b) mostra o processo corrosivo severo no anel de aço ASTM A36 quando imerso em água do mar sem nenhum tipo de proteção contra corrosão.

Figura 9. (a) Segmento de estaca com concreto centrifugado com anodo de zinco e (b) sem anodo

se o provável depósito de hidróxido de ferro no fundo do recipiente, produto da reação entre o aço do anel e do anodo

A proteção galvânica é o método de proteção mais adotado para proteção de aço carbono imerso em água do mar. O sistema de proteção contra corrosão do metal se deve a polarização catódica do metal até alcançar a área de imunidade. Segundo o Diagrama de Pourbaix, para que o material seja protegido é necessário que o metal deixe a área de corrosão e alcance a área de imunidade (representado pelo ponto A) na Figura 10.

Page 100: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

100

Entretanto, para que tal fato aconteça é necessária a introdução de uma corrente para polarização catódica do mesmo até o potencial desejado. Na proteção galvânica a corrente é fornecida através do consumo do anodo de zinco que se oxida e libera elétrons para proteção do aço carbono.

Os cálculos para determinar a massa dos anodos foram realizados segundo a metodologia apresentada por DUTRA & NUNES (2001) e GENTIL (2007) baseando-se na utilização da seguinte equação.

C

VIrM

×××=

φ8760

(2)

Onde, M = massa total de anodos em kg; Ir = corrente requerida em àmpere; V = vida dos anodos em ano; φ = fator de utilização; C = capacidade de corrente do anodo em Ah/kg. O fator de utilização expressa o percentual de massa do anodo consumido. Uma vez que quando resta pouca massa de anodo a sua capacidade de produzir corrente é reduzida. Portanto, este valor adotado permitirá a proteção da estrutura (DUTRA & NUNES, 2011).

Conforme comentado, no ensaio 2 foi verificada a circulação de uma corrente elétrica entre o aço CA-50 do vergalhão da estaca e o aço carbono imerso em contato direto com a água do mar. Isto ocorre por causa da pilha formada entre os dois aços imersos em água do mar. Devido a este fato é necessário fornecer uma corrente para proteger também o aço dos vergalhões. Segundo LOURENÇO (2007), a densidade de corrente para proteção catódica do aço do concreto armado está compreendida de 0,2 a 2 mA/m2. Neste projeto, foi adotado conservativamente o valor de 2,0 mA/m2.

Figura 10. Diagrama de Pourbaix (MENNUCCI, 2006).

3.1.1 Solução 1 – Anodo de Liga de Zn (Tipo Braçadeira)

A primeira solução proposta consiste na formulação de um anodo de liga de zinco, tipo braçadeira, que possui alma de aço com dois anéis de aço dobrado e 10 barras de aço verticais. O fator de utilização adotado conservativamente é φ = 0,60 e V = 100 anos. As características deste anodo são exemplificadas através da figura 11.

Conforme a Figura 11, a alma ou armadura dos anodos é composta de dois anéis compostos de duas barras dobradas e soldadas e 10 barras verticais de comprimento igual a 7,0 cm (70 mm). Estas barras devem ser de aço galvanizado. O peso estimado da armadura de aço será de 15 kg, de modo que o peso total do anodo de Zn tipo braçadeira seria de aproximadamente 249 kg.

Page 101: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

101

Vista Frontal Vista Superior

Figura 11. Anodo tipo braçadeira proposto (cotas em mm).

3.1.2 Solução 2 – Anodo de Liga de Zn de Seção Retangular

A solução 2 consiste na formulação de 2 anodos de liga de zinco de seção retangular cujo fator de utilização é φ = 0,90. Para anodos de liga de Zn, o valor da capacidade de corrente é de 740 Ah/kg e a massa específica é 7,2 g/cm3. Neste caso, são propostos 4 anodos por estaca de dois anéis, fixados por braçadeiras, dispostos em forma de cluster, conforme mostrado na figura 12.

Figura 12. Solução 2 - 4 Anodos tipo estaca.

Page 102: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

102

Figura 12 (continuação). Solução 2 - 4 Anodos tipo estaca.

3.1.3 Solução 3 – Anodo de Liga de Aluminio de Seção Retangular

A solução 3 se baseia na formulação de anodos de liga de Al de seção retangular cujo fator de utilização é φ = 0,90. Para anodos de liga de Al, o valor da capacidade de corrente é de 2300 A.h/kg e a massa específica é 2,8 g/cm3. São propostos 2 anodos por estaca de dois anéis, fixados por braçadeiras, dispostos em forma de cluster. O arranjo é semelhante ao da figura 12, porém são recomendados 2 anodos ao invés dos 4 da solução 2.

A alma dos anodos será formada por uma barra quadrada de aço galvanizado de 15,9 mm de lado. O comprimento desta barra deve ser de 1,35 m e a massa estimada do mesmo de 2,70 kg. É necessária uma verificação adicional com relação ao comprimento de especificado de 65 cm. O volume total seria de 65 x 12 x 12 = 9360 cm3. Entretanto, este volume inclui o volume da alma de aço galvanizado. Por tanto, é preciso garantir que a massa de liga de alumínio efetiva seja igual ou superior ao valor necessário, ou seja, 25,052 kg.

Na tabela 2 são apresentadas as dimensões dos anodos das 3 soluções formuladas.

Tabela 2. Resumo das dimensões dos anodos para as Soluções 1, 2 e 3.

Solução 1 Solução 2 Solução 3

Tipo de anodo Liga de Zn – tipo braçadeira

Liga de Zn – estacas de seção quadrada

Liga de Al – estacas de seção quadrada

Dimensões Dint = 95 cm; Dint = 80 cm e L = 17 cm 12 x 12 x 40 (cm3) 12 x 12 x 65 (cm3)

Massa de liga por anodo ≥ 233,60 kg 40,00 kg 25,75 kg

Massa total por anodo ∼ 248,60 kg ∼ 42,78 kg ∼ 28,45 kg

Número de anodos 1 4 / cluster 2 /cluster

Page 103: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

103

A Tabela 3. apresenta as principais características das 3 soluções apresentadas para garantir uma proteção anticorrosiva por anodos de sacrifício por 100 anos aos anéis da junção metálica. Os valores são aplicáveis aos dados de áreas fornecidas dos anéis e dos vergalhões.

Tabela 3. Resumo das soluções apresentadas para estacas de 15 m, contendo dois anéis, um em cada extremidade.

Solução Anodos Corrente

requerida Massa

requerida

Número de

anodos

Massa por anodo* Tipo Material

1 Braçadeira Liga de Zn 118,4 mA 233,60 kg 1 233,60 kg

2 Estaca Liga de Zn 118,4 mA 155,73 kg 4 38,93 kg

3 Estaca Liga de Al 118,4 mA 50,11 kg 2 25,05 kg * Esta é a massa de liga de Zn ou Al, ou seja, não considera a massa da armadura dos anodos.

4. CONCLUSÕES

O presente trabalho teve como objetivo avaliar a corrosão em um anel de aço ASTM A-36 submerso em água do mar permitindo obter as seguintes conclusões:

1. Na maioria das condições analisadas os corpos de prova com cordão de solda apresentaram uma taxa de corrosão superior aos corpos de prova lisos, conforme encontrado na literatura.

2. Nos aços a formação da película protetora é promovida pela reação entre o zinco e o aço do concreto. Tal fato foi observado através do decaimento da corrente desta pilha galvânica.

3. Foi observado que existem dois processos corrosivos agindo simultaneamente nos anéis metálicos um atribuído à própria imersão e outro à corrosão pela pilha galvânica entre o aço da armadura e o aço do anel.

4. A proteção galvânica com anodo de zinco para aços submersos em água do mar é realmente eficiente.

5. Foram apresentadas três soluções para proteção catódica com anodo de liga de zinco e alumínio, dentre estas a com anodo de liga de alumínio de seção quadrada é a que requer menor massa de anodo.

5. REFERÊNCIAS BIBLIOGRÁFICAS

DUTRA, A. C.; NUNES, L.P. (2011). Proteção Catódica, Técnica de Combate à Corrosão. Editora Interciência.

GENTIL, V. (2007). Corrosão. Editora LTC.

LOURENÇO, Z. (2007). Proteção catódica de estruturas de betão armado. Corrosion Protection Material. Vol. 26 Nº 3.

MENNUCCI, M. M. (2006). Avaliação de potencialidade de aditivos como inibidores de corrosão do aço carbono CA-50 usado na armadura de estruturas de concreto. Dissertação de Mestrado, Universidade de São Paulo.

Page 104: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

104

Avaliação dos processos de soldagem TIG e MIG em estruturas de alumínio 6082 T6 NBR 6834

Ednilson Antonio Ribeiro Pimenta, Ronaldo Shiguemi Fujisawa, Ailton Roberto da Conceição

Escola de Engenharia - Universidade de Taubaté (UNITAU) Taubaté, SP, Brasil

[email protected]

[email protected]

ailton.conceiçã[email protected]

RESUMO.

É possível soldar estruturas de alumínio, utilizando-se de equipamentos básicos de uma indústria, determinando seus parâmetros e obtendo o melhor desempenho possível. O alumínio e suas ligas são muito utilizados em estruturas, por possuírem baixo peso, alta resistência à fadiga, e serem resistentes à corrosão. Má aderência do cordão de solda, porosidades, mordeduras, falta de penetração, são alguns dos defeitos e dificuldades comuns em processos de soldagem. Os processos de soldagem Metal Inert Gas (MIG) e Tungsten Inert Gas (TIG), são utilizados na soldagem de estruturas de alumínio. Este estudo tem como objetivo geral desenvolver um processo otimizado para soldagem em estruturas de alumínio, com qualidade e produtividade. Especificamente busca determinar os parâmetros de soldagem e obter, assim, o melhor desempenho possível no que se refere à produtividade, à qualidade na soldagem e propriedades mecânicas. Foram feitos corpos de prova pelos processos de soldagem TIG e MIG, sendo dimensionados por macrografia e resistência à tração. Com base na análise do software minitab, foi obtido os melhores parâmetros para o processo TIG sendo 180 A, vazão de 12 l/min. E para o processo MIG, foram 170A e 23 Volts. Com esses novos parâmetros, conseguiu-se aumentar a produtividade em 30%. Para o critério de resistência, tanto o processo MIG como o processo TIG, atenderam a especificação da Aluminum Design Manual 2005.

Palavras-chave: Alumínio, MIG, TIG, Resistência Mecânica, Acabamento Superficial

1. INTRODUÇÃO

Na indústria de estrutura de alumínio, é extremamente elevada a quantidade produzida de componentes soldados pelo processo “GMAW” e GTAW, portanto, é de suma importância garantir um controle tanto no aspecto de resistência, como no aspecto visual. Para isso, as indústrias de caldeirarias e estruturas procuram melhorar seus processos visando tanto à otimização, quanto à qualidade.

Esta pesquisa tem como objetivo estudar a possibilidade de soldar estruturas de alumínio, utilizando-se de equipamentos básicos de uma indústria, para determinar os parâmetros de soldagem e obter assim, o melhor desempenho possível no que se refere à produtividade, à qualidade na soldagem e propriedade mecânica. O alumínio e suas ligas são muito utilizados em estruturas, por serem de baixo peso e, serem resistentes à corrosão e à alta resistência à fadiga, que são propriedades desejadas. Por isso, construções soldadas com baixo peso são preferidas por todos projetistas. A resistência, a trabalhabilidade, a soldabilidade e a resistência à corrosão, determinam a seleção da liga certa.

Devido à tendência de formar uma película estável e refrataria de óxido de alumínio e requerer uma grande energia por causa da sua condutibilidade térmica, torna-se difícil a soldagem do alumínio e suas ligas.

2. REVISÃO DA LITERATURA

Page 105: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

105

As indústrias de estruturas de alumínio utilizam comumente o processo GTAW (Gás Tungsten Arc Welding), também designado TIG (Tungsten Inert Gás), A soldagem a arco com eletrodo não consumível de tungstênio e proteção gasosa (Gas Tungsten Arc Welding) é um processo no qual a união de peças metálicas é produzida pelo aquecimento e fusão dessas, através de um arco elétrico estabelecido entre o eletrodo de tungstênio, não consumível, e as peças a unir. A proteção da poça de fusão e do arco contra a contaminação pela atmosfera é feita por uma nuvem de gás ou mistura de gases inertes que geralmente são Argônio e/ou Hélio.

O Processo GMAW (Gas Metal Arc Welding) ou MIG (Metal Inert Gas), é a soldagem ao arco elétrico com gás de proteção (GMAW – Gas Metal Arc Welding), também conhecida como soldagem MIG/MAG (MIG – Metal Inert Gas e MAG – Metal Active Gas), um arco elétrico é estabelecido entre a peça e um consumível na forma de arame. O arco funde continuamente o arame à medida que este é alimentado à poça de fusão. O metal de solda é protegido da atmosfera pelo fluxo de um gás (ou mistura de gases) inerte ou ativo.

A soldagem é hoje um dos processos de fabricação mais importantes e populares para a união de materiais metálicos (1). A garantia de sua qualidade requer, no entanto, em determinadas aplicações, avaliações e qualificações da junta soldada. A inspeção e a aceitabilidade de determinada solda deve atender a critérios preestabelecidos, tais como em normas especificas (2). Nos paises desenvolvidos, onde a qualidade do produto é fator determinante da sua aceitabilidade no mercado, o desenvolvimento de normas e inspeção e aprovação do produto torna-se necessidade indispensável (3).

O processo de soldagem é bastante antigo e comum na maioria das indústrias. Apesar da evolução das técnicas, ainda existe um número elevado de processos que dependem da experiência do operador no ajuste dos parâmetros. Estes parâmetros são importantes e estão relacionados com defeitos e dificuldades comuns em processos de soldagem: má aderência do cordão de solda, porosidades, mordeduras, falta de penetração, entre outras (4).

São inevitáveis as distorções em estruturas leves onde a solda por fusão é aplicada. Ao ver a integridade do projeto estrutural, a racionalidade da tecnologia de fabricação e, a confiabilidade do serviço, os problemas de tensão residual da solda e de distorção em estruturas leves, são os quais muitas vezes afetam a qualidade dos produtos e causam um custo adicional de operação para remover distorções ou para avaliar as tensões residuais (5).

Conhecendo-se a capacidade de cada processo de soldagem comumente utilizado na soldagem do alumínio, e aplicando-o na soldagem de estruturas de alumínio, pode-se determinar o melhor processo, e os parâmetros mais adequados para obtenção de uma soldagem de qualidade, com a menor distorção possível. Esse conhecimento possibilita o desenvolvimento de estruturas leves mais precisas e de melhor qualidade.

3. MATERIAIS E METODOLOGIA EXPERIMENTAL

O presente trabalho aborda a avaliação dos processos de soldagem GMAW (Gas Metal Active Welding) e GTAW (Gas Tungstein Active Welding) de alumínio aplicados em torres, plataformas, sistemas de palcos, barricadas, estruturas para sonorização, prateleiras, “pallets”, “geo túnel”, “top tenda”, etc.

3.1 Materiais

Foram utilizados materiais específicos para fabricação de estruturas de alumínio: tubos e perfis com a liga 6082-T6, conforme norma NBR 6834, com classificação das temperas “T6” que são solubilizadas e envelhecidas artificialmente, conforme Quadro 1. Estes materiais e corpos de prova foram fornecidos pela empresa Feeling Structures e possui boa trabalhabilidade, soldabilidade, e resistência à corrosão.

Page 106: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

106

Foram utilizados para o ensaio dos corpos de provas tubos redondos 44,4”x1/8” e 2”x1/8”; chapa L 100 mm x 34 mm x 9,5mm; e barra chata 10”x ¼”.

Analise Liga MP

LE (MPa)

LT (MPa)

Along.(%) Composição Química (%)

60 mm Si Fe Cu Mn Mg Cr Zn TI

Espec.

6082 T6

Chapa e

Tubo

255 Máx.

300 Máx.

6 min.

0,7-1,3 0,5 0,1

0

0,4-

1,0

0,6-1,2

0,25

0,20

0,10

Quadro 1 – Propriedades físicas e químicas, especificadas e utilizadas nos componentes das estruturas de alumínio (NBR 6834/7000).

Para a soldagem dos componentes das estruturas de alumínio foram utilizados os processos “GTAW” e “GMAW”, usando como material de adição para o processo GTAW a vareta ER 4043 com diâmetro de 2,35 mm, e para o processo GMAW o arame ER 4043 com diâmetro de 1 mm, conforme Quadro 2. Sendo a liga do material de adição a predileta da maioria dos soldadores, porque “molha e flui melhor” e, é menos sensível ao fissuramento da solda com metal de base 6082-T6. Também proporciona um acabamento de solda superficialmente mais brilhante e com menos fuligem. O gás de proteção utilizados nos dois processos foi o Argônio.

Analise Liga Tipo do

material de adição

Composição química (%)

Si Fe Cu Mn Mg Zn Ti

Especificado ER

4043 Arame 4,5-6,0 0,8 0,3 0,05 0,05 0,10 0,20

Especificado ER

4043 Vareta 4,5-6,0 0,8 0,3 0,05 0,05 0,10 0,20

Quadro 2 – Composição química nominal dos metais de adição (AWS 5.10)

Para soldagem das amostras analisadas, foram utilizadas uma máquina de solda TIG (marca Merkle Insquare W300) e uma máquina de solda MIG (marca Merkle Pu 250K série 32217).

Figura 1- Máquina de solda TIG ......... Figura 2- Máquina de solda MIG

Page 107: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

107

3.2 Metodologia Experimental

Para a fabricação dos corpos de provas simulando as juntas soldadas das estruturas de alumínio, foram utilizados procedimentos de soldagem convencional de “GTAW” e “GMAW” com solda em ângulo utilizando a ferramenta DOE do software Minitab para determinar a quantidade de corpos de provas para o ensaio macrografia, tanto no processo MIG como no processo TIG, conforme quadro 3. Após os ensaios de macrografia e visual, foram definidos os melhores parâmetros do processo MIG e TIG, onde foram feitos 5 corpos de provas de junta de topo pelo processo TIG e 5 corpos de provas de junta de topo com o processo MIG. Os corpos de provas foram posicionados sobre a mesa e presos com grampos para evitar o deslocamento dos mesmos. Após a soldagem, foi feito um lixamento para retirar o excesso de solda e em seguida o ensaio de líquido penetrante, conforme ilustrado nas figuras 3 e 4. Posteriormente, foi retirado o líquido penetrante e aplicado o revelador de acordo com as figuras 5 e 6, para avaliar os possíveis defeitos na solda como trincas, poros, mordeduras, etc., depois disso foi feito o ensaio de tração, para avaliar a resistência à tração do material após a soldagem.

Nº CDPS Processo TIG

Nº CDPS Processo MIG

Amperagem Vazão Amperagem Voltagem

1 145 14 1 150 22

2 165 12 2 108 22

3 165 12 3 192 22

4 185 10 4 150 22

5 165 12 5 150 28

6 185 14 6 150 16

7 145 10 7 150 22

8 165 12 8 150 22

9 165 9 9 180 18

10 165 12 10 150 22

11 193 12 11 180 26

12 165 12 12 150 22

13 165 15 13 120 18

14 137 12 14 120 23

Quadro 3 (Parâmetros de solda em ângulo TIG e MIG).

Para a realização da solda de topo com processo TIG e MIG foram fixados os parâmetros conforme mostrado no quadro 4:

Page 108: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

108

Processo Tipo de Junta Corrente Voltagem Vazão

MIG Junta de topo 170 A 23 V 12 L/Min

TIG Junta de topo 180 A 19 V 12 L/Min

Quadro 4 (Parâmetros de solda de topo TIG e MIG).

Figura 3: Aplicação de líquido penetrante Figura 4: Aplicação de líquido penetrante

Figura 5: Aplicação de revelador Figura 6: Aplicação de revelador

3.3 Ensaios Mecânicos e Macrográficos

Foi realizado a análise macrográfica dos corpos de provas soldados em ângulo, para avaliar a penetração, a garganta, a perna e a largura de solda conforme ilustrado na figura 7 e 8. A preparação das amostras consistiu da técnica convencional de lixamento e polimento, seguido de ataque químico com reagente keller e as respectivas normas de soldagem e suas especificações.

Em seguida, foram retirados corpos de prova no sentido de laminação do material e, transversais ao cordão de solda, para ensaios de tração, mostrados na figura 9, dureza e macrograficos. Os ensaios de dureza foram executados, em corpos de prova retirados do mesmo lote do material.

Page 109: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

109

Figura 7: Corpo de prova solda ângulo processo TIG

Figura 8: Corpo de prova solda ângulo processo MIG

Figura 9: Corpo de Prova para ensaio de tração.

4. RESULTADOS E DISCUSSÃO

Foram realizadas as medições da garganta de solda(G), largura do cordão (L) e penetração da solda (P) como pode-se observar nas figuras 10, 11, 12 e 13. A garganta é a distância mais curta entre a raiz e a superfície da solda, para critério de aprovação da garganta deve ter no mínimo 70% da espessura mais fina. A largura é a distância entre ambas as extremidades, ou seja, em uma parcela do metal da solda sem desvio, para critério de aprovação da largura da solda deve-se ter pelo menos 1,5 vezes a espessura

Page 110: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

mais fina. A penetração é a profundidade atingida pela zona fundida no metal de base, para critério de aprovação da solda devechapa mais fina. Com as medidas obtidas na macrografia das soldas TIG, os dadaplicados no software Minitab, estando representado no quadro 5 e gráfico 1.

Figura 10 e 11:

Figura 12 e 13:

Quadro 5: Resultado da macrografia da solda em ângulo

StdOrder RunOrder PtType Blocks

3 1 1

5 2 0

6 3 0

2 4 1

7 5 0

4 6 1

1 7 1

12 8 0

10 9 -1

13 10 0

9 11 -1

14 12 0

11 13 -1

8 14 -1

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

mais fina. A penetração é a profundidade atingida pela zona fundida no metal de base, para critério de aprovação da solda deve-se ter no mínimo 20 % de penetração da espessura da chapa mais fina. Com as medidas obtidas na macrografia das soldas TIG, os dadaplicados no software Minitab, estando representado no quadro 5 e gráfico 1.

Figura 10 e 11: Macrografia processo de solda TIG

Figura 12 e 13: Macrografia processo de solda MIG

Quadro 5: Resultado da macrografia da solda em ângulo TIG

Blocks AmperagemVazão Perna Penetração

1 145 14 5,045 0,96

1 165 12 5,29 1,115

1 165 12 4,875 0,825

1 185 10 6,845 3,035

1 165 12 5,91 1,67

1 185 14 5,875 1,36

1 145 10 5,915 1,43

2 165 12 5,05 1,24

2 165 9 6,445 1,675

2 165 12 5,705 1,445

2 193 12 5,93 1,67

2 165 12 6,155 1,79

2 165 15 5,965 1,485

2 137 12 6,705 1,685

9 de outubro de 2011

110

mais fina. A penetração é a profundidade atingida pela zona fundida no metal de base, para se ter no mínimo 20 % de penetração da espessura da

chapa mais fina. Com as medidas obtidas na macrografia das soldas TIG, os dados foram aplicados no software Minitab, estando representado no quadro 5 e gráfico 1.

TIG

PenetraçãoGarganta Largura

0,96 2,55 7,33

1,115 2,425 8,235

0,825 2,98 8,645

3,035 3,955 9,435

1,67 2,825 8,945

1,36 2,68 9,175

1,43 2,85 8,405

1,24 2,67 7,995

1,675 3,1 9,11

1,445 2,99 7,985

1,67 2,92 8,665

1,79 2,81 8,06

1,485 2,76 7,77

1,685 3,325 9,16

Page 111: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

111

Grafico 1: Resultado da macrografia da solda em ângulo TIG

Com as medidas obtidas na macrografia das soldas MIG, os dados foram aplicados no software Minitab, estando representado no quadro 6 e gráfico 2.

Quadro 6: Resultado da macrografia da solda em ângulo MIG

StdOrder RunOrder PtType Blocks AmperagemVoltagem Perna PenetraçãoGarganta Largura

13 1 0 2 150 22 8,92 1 7,68 6,96

8 2 -1 2 108 22 6,54 0,255 6,04 5,44

9 3 -1 2 192 22 9,41 2,39 8,19 7,21

14 4 0 2 150 22 7,94 0,885 7,19 6,72

11 5 -1 2 150 28 8,67 1,32 6,43 7,76

10 6 -1 2 150 16 7,975 0,33 2,22 6,78

12 7 0 2 150 22 8,445 0,97 7,3 6,61

7 8 0 1 150 22 8,675 0,84 7,78 6,45

2 9 1 1 180 18 8,45 1,225 8,41 6,45

5 10 0 1 150 22 10,51 0,905 9,38 7,83

4 11 1 1 180 26 8,445 2,555 6,44 6,9

6 12 0 1 150 22 9,705 0,74 8,17 7,17

1 13 1 1 120 18 7,565 0,145 7,33 6,47

3 14 1 1 120 26 8,1 1,105 5,17 11,99

CurHigh

Low0,00000D

New

d = 0,00000

Targ: 4,50Perna

y = 5,7461

d = 0,72157

Targ: 1,50Penetraç

y = 1,6392

d = 0,88106

Targ: 3,0Garganta

y = 2,9405

d = 0,00000

Targ: 6,0Largura

y = 8,6758

0,00000DesirabilityComposite

9,1716

14,8284

136,7157

193,2843VazãoAmperage

[180,1315] [12,0]

Page 112: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

112

Grafico 2: Resultado da macrografia da solda em ângulo MIG.

O processo MIG na parte de resistência a tração atingiu os resultados esperados, conforme mostra a figura 14 e o quadro 7, rompeu na solda com valores acima do exigido pela norma Aluminum Design Manual 2005.

Figura 14: Resultado ensaio de tração MIG

Carga Tensão

encontrada (N/mm2)

Tensão especificada

(n/mm2)

Nº CDPS Material Aluminio

Dureza HB

Area (mm2) Maxima Maxima Maxima

2MIG2 6082 T6 96 82,55 16122,39N 195,31 170

3MIG2 6082 T6 96 82,55 15779,15N 191,14 170

4MIG2 6082 T6 96 82,55 15308,42N 185,44 170

5MIG2 6082 T6 96 82,55 16671,57N 201,95 170

Quadro 7: Resultado ensaio de tração MIG

CurHigh

Low0,00000D

New

d = 0,00000

Targ: 4,50Perna

y = 9,2363

d = 0,73706

Targ: 1,50Penetraç

y = 1,6315

d = 0,00000

Targ: 3,0Garganta

y = 8,2832

d = 0,23483

Targ: 6,0Largura

y = 6,7652

0,00000DesirabilityComposite

16,3431

27,6569

107,5736

192,4264VoltagemAmperage

[170,6021] [23,0708]

Page 113: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

113

O acabamento dos cordões de solda nos corpos de provas soldados no processo MIG esteticamente ficou mais fosco, não apresentou boa uniformidade no depósito, houve muitos respingos e, apresentou um grande volume de poros, conforme observado nas figuras 8 e 9.

Figura 8: Foto cordão solda MIG Figura 9: Foto cordão solda MIG

Os resultados com o processo TIG atingiram os resultados esperados em todos os aspectos, acabamento, resistência, conforme visto no quadro 6.

Carga Tensão

encontrada (N/mm2)

Tensão especificada

(n/mm2)

Nº CDPS Material Aluminio

Dureza HB

Area (mm2)

Maxima Maxima Maxima

6 TIG1 6082 T6 96 82,55 17191,33N 208,25 170

7 TIG1 6082 T6 96 82,55 17103,07N 207,18 170

8 TIG1 6082 T6 96 82,55 17181,52N 208,13 170

9 TIG1 6082 T6 96 82,55 17289,40N 209,44 170

10 TIG1 6082 T6 96 82,55 17202,53N 208,39 170

Quadro 6: Resultado ensaio de tração TIG

O acabamento do cordão de solda nos corpos de provas soldado no processo TIG esteticamente ficou bem melhor que o processo MIG, apresentou uma boa uniformidade no depósito e, não houve muitos respingos, como se pode observar nas figuras 10 e 11.

Page 114: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

114

Figura 10 (Foto cordão solda TIG) Figura 11 (Foto cordão solda TIG)

5. CONCLUSÕES

De acordo com os resultados obtidos pôde-se concluir que o processo TIG apresentou o melhor resultado para soldagem das estruturas de alumínio. Na inspeção visual, as características geométricas do cordão de solda realizado com o processo TIG se deram mais uniformes que do cordão de solda realizada com o processo MIG. Quanto ao acabamento superficial, o processo TIG apresentou melhores resultados em relação o processo MIG.

Com base na análise do software minitab foram obtidos os melhores parâmetros para o processo TIG sendo 180 A, vazão de 12 l/min. E para o processo MIG foram 170A e 23 Volts. Com esses novos parâmetros otimizados para a liga de alumínio e faixas de espessura utilizados conseguiu-se aumentar a produtividade em 30%. Para o critério de resistência, tanto o processo MIG como o processo TIG atenderam a especificação da Aluminum Design Manual 2005. Com isso, esse trabalho visa dar contribuição relevantes ao desenvolvimento dos sistemas produtivos das indústrias de estruturas de alumínio.

6. REFERÊNCIAS.

ALMENDRA, A.C.; SILVA F.L.T.; PIRANI, J.L.; RAMALHO, J.P.; Soldagem. Editora Senai – São Paulo, 1997.

ANSI/AWS D1.2/D1.2M:2008 Structural Welding Code – Aluminum.

AWS, Welding Inspection- American Welding, Society USA, 1980,222p.

MARQUES, P.V.; MODENESI, P.J.; BRACARENSE, A.Q.; Soldagem Fundamentos e tecnologia. Editora UFMG, 2005.

ALCAN ALUMINIO DO BRASIL S.A. Manual de Soldagem, 1 edição, 1993.

Page 115: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

115

Desastres industriais: um alerta aos cursos de enge nharia 1Fernando B. Mainier, 2Sabrina de Azevedo Faria, 3Matheus R.M. Signorelli, 4Marcus V.S. Silva,

5Carlos V.M. Inocêncio, 6Rafaela L. Santos de Souza 1,2,3,4,5,6Escola de Engenharia, Universidade Federal Fluminense (UFF), Niterói, RJ, Brasil

1 [email protected]; 2 [email protected]; 3 [email protected]; [email protected];[email protected];[email protected]

RESUMO

Os grandes complexos industriais, preferencialmente, os químicos, petrolíferos/petroquímicos e metalúrgicos armazenam e processam, grande quantidade de produtos químicos e combustíveis. O processamento destas substâncias é controlado por normas e procedimentos que visam a minimizar os riscos, os danos aos equipamentos, ao meio ambiente e preservar a saúde do trabalhador. Também se deve levar em conta que a maioria destes processos foi concebida no início do século ou na década de quarenta, quando os princípios da precaução, do ambiente e da segurança industrial não eram requisitos fundamentais nas implantações destes complexos industriais. O momento atual de crise social e ambiental também leva a refletir no que é desejável quanto à produção e a sustentabilidade para a sociedade. Objetiva-se neste trabalho, avaliar, criticamente, alguns vazamentos industriais mostrando a importância de inserir nos programas das disciplinas de engenharia esses fatos que podem aclarar e construir um novo horizonte baseado nas inovações e na precaução industrial.

Palavras-Chave: desastres industriais, meio ambiente, segurança, contaminações.

1. INTRODUÇÃO

A história das tecnologias mostra que o homem tem lançado, desde os primórdios das civilizações, seu lixo, seus resíduos no meio ambiente, principalmente, nos cursos d’ água, no solo ou no ar atmosférico. Mesmo considerando os processos artesanais ou semi-industrializados, não restam dúvidas de que havia, naquela época, uma preocupação com o cheiro desagradável ou com as fumaças agressivas que tais sistemas exalavam, de tal forma que, tanto na Grécia quanto na Roma Antiga, as fundições de cobre e prata, as fábricas de azeite, os matadouros e os curtumes eram localizados em zonas desabitadas e longe da cidade (FALLENBERG, 1970).

A história das tecnologias também mostra, que a degradação ambiental vem ocorrendo de forma sistemática a partir da Revolução Industrial do século XIX, entretanto, o quadro nestas últimas décadas tem apresentado um crescimento espetacular, principalmente em função das atividades tecnológicas desenvolvidas a qualquer custo, não dando importância as consequências a curto e a longo prazo. Atualmente, a ordem mundial converge no sentido do estabelecimento da proteção ambiental, principalmente, com base na definição de meio ambiente que não coloca o homem como uma parte externa a esse meio, e sim como sua parte integrante e fundamental nas decisões presentes e futuras.

Consequentemente aumentou-se o rigor no controle das condições de qualidade do meio ambiente, como fator essencial para a manutenção da vida da espécie humana, mas considerando que grande parte dos processos e complexos industriais químicos/petrolíferos/metalúrgicos e afins foram projetados e construídos nas décadas de 1930-1940, onde as teorias ambientais, de precaução de acidentes e da saúde do trabalhador e das populações que habitam as cercanias das instalações industriais, ainda eram incipientes. É claro, que têm havido aperfeiçoamentos e modificações nos processos industriais visando maior segurança, consequentemente, reduzindo possibilidades de acidentes. Entretanto, as tecnologias obsoletas ainda em uso, associadas aos processos de reúso, reciclagem, lixos tóxicos, sucatas, falta de controle de qualidade, grandes mercados

Page 116: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

116

emergentes ávidos por produtos de baixo custo, acabam gerando, direta ou indiretamente, derramamentos, vazamentos e contaminações com grande impacto ambiental.

Outro ponto que merece destaque nesta lógica de processo é o tratamento de efluentes, onde grande parte dos grandes complexos industriais adota uma política do tratamento dos resíduos no final do processo (end-of-pipe tecnology) em detrimento do tratamento baseado nas tecnologias limpas (clean tecnology) que se desenvolvem ao longo do processo levando em consideração uma série de parâmetros importantes, tais como: a segregação dos processos e procedimentos, redução da energia, recuperação dos resíduos, utilização de boas práticas gerenciais, etc. (TIGRE et al., 1994; MAINIER, 1999).

As tecnologias limpas se destacam das tecnologias tradicionais podendo ser definidas como o conjunto de métodos e técnicas que objetivam a minimização dos resíduos e tem como eixo central a preservação do meio ambiente, consequentemente, adotando normas de gestão ambiental. Observa-se que os tratamentos de efluentes devem ser realizados na própria fonte geradora da poluição, pois o que se tem observado normalmente é um grande esforço acompanhado de um elevado custo de tratamento, para recuperar o sistema final contaminado quando na verdade, a maioria das análises mostra que se deve cuidar do efluente contaminante na sua origem e não final do processo. Como exemplo são apresentadas na Figura 1 duas indústrias que geram grandes volumes de resíduos cujos vazamentos podem causar grande impacto ambiental.

Figura 1 – Visão geral de unidades fabris geradoras de grande quantidade de resíduos.

Fonte: Google map.

2. OS ACIDENTES INDUSTRIAIS COMO TEMA DE DISCUSSÃO NA DISCIPLINA DE INTRODUÇÃO À ENGENHARIA

Atualmente a sociedade se defronta com notáveis avanços científicos e tecnológicos que, de uma maneira ou de outra, acabam impactando a vida diária do homem comum, com conhecimentos que não podem ficar enclausurados e segregados na escuridão do desconhecido, conhecimentos que devem ser desvelados e expostos, de maneira simples, nos primeiros degraus do ensino.

A disciplina Introdução à Engenharia deve propiciar esta assistência ao aluno, de tal forma, que possa ser construído no primeiro degrau do ensino de engenharia a consciência técnica crítica que deve acompanhá-lo no seu caminho universitário até o momento da colação do grau de engenheiro e continuar com aperfeiçoamento contínuo dessa consciência crítica ao longo de sua existência profissional para que o conhecimento vise processos, equipamentos e materiais que não estejam na contramão da sociedade.

O conhecimento científico é feito por pessoas para pessoas. O leigo aceita o que o cientista lhe diz com o espírito de credulidade, pois sabe que aprender a “pensar cientificamente” é um processo longo e complexo. Além disto, é preciso estar plenamente

Page 117: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

117

familiarizado com os fundamentos conceituais da pesquisa do momento, e aprender os paradigmas contemporâneos que envolvem o conhecimento de uma disciplina.

Daí a necessidade de repensar ideias inovadoras para a disciplina baseadas, por exemplo, no desenvolvimento de um tema que possa ligar os alunos na temática ambiental considerando os desastres tecnológicos que ocorrem impactando o meio ambiento e deixando um rastro de destruições e mortes.

Conforme referido anteriormente a maioria dos processos industriais químicos foi concebida no início do século ou na década de quarenta, onde os princípios da preservação do homem, do ambiente e da segurança industrial não eram requisitos fundamentais nas implantações destas grandes indústrias de base. Atualmente, é comum, no mínimo, a existência de três tecnologias competitivas para fabricação de um mesmo produto químico, entretanto, dependendo de sua utilização é fundamental estabelecer critérios diversos para cada processo industrial, por exemplo, os critérios de uma indústria farmacêutica são inteiramente diferentes da indústria petroquímica, daí a importância de definir critérios amplos ou detalhados para cada ação industrial. (MAINIER & MELLO, 2001)

Em função dos acidentes químicos que podem ocorrer nos processos industriais, é fundamental conscientizar o Engenheiro, principalmente, o Engenheiro Químico da responsabilidade no uso, direto ou indireto, de um produto químico e das tecnologias correlatas de sua produção, bem como o do seu uso, direto ou indireto, e também estabelecer projetos confiáveis de tratamento de efluentes. Além disso, conhecer e conceber planos de emergência caso haja um acidente químico. As substâncias químicas produzidas industrialmente com potenciais de risco de acidentes químicos podem ser classificadas em função dos seguintes parâmetros: toxidez; propriedades físico-químicas; diversidade de aplicação; volume e concentração durante o processamento industrial, armazenamento e transporte.

Na visão de Duarte (2002), os acidentes poderiam ser evitáveis, considerando que o estudo sistemático de um grande número de acidentes industriais foi gerado por falhas humanas e/ou de equipamentos, que poderiam ser evitados caso houvessem planos e diretrizes gerenciais compatíveis, procedimentos e programas de manutenções efetivas. Por outro lado, os acidentes podem ser considerados inevitáveis quando estão associados aos fenômenos naturais catastróficos difíceis de serem diagnosticados em tempo hábil.

Ainda com base em Duarte (2002), os acidentes industriais mais traumáticos podem proporcionar vítimas fatais, entre os empregados e os membros das comunidades dos arredores e causar grandes danos ambientais, entretanto, o estudo sistemático do acidente pode estabelecer um aprendizado significativo no sentido de determinar diretrizes, planos e projetos futuros visando processos industriais mais confiáveis. Geralmente, as consequências de um acidente com liberação de substâncias químicas dependerão de vários fatores, tais como, propriedades das substâncias, a quantidade da descarga, o período durante o qual as pessoas estão expostas e o tempo que decorre entre a exposição propriamente dita e o tratamento médico efetivo nas vítimas. Visando discutir o problema dos desastres ambientais são apresentados os seguintes acidentes químicos.

2.1. VAZAMENTO DE BENZENO

Segundo Silva & Mainier (2004), o benzeno é representado pela fórmula molecular, C

6H

6, é um líquido volátil, estável e incolor. Tem o odor característico dos hidrocarbonetos

aromáticos. É altamente inflamável. É pouco solúvel em água, mas miscível com a maior parte dos solventes orgânicos. O benzeno também é encontrado na formulação de tintas, ceras, lubrificantes, misturas de solventes, agrotóxicos, detergentes, borrachas, graxas, resinas, etc. No setor sucro-alcooleiro, o benzeno é utilizado para produção do álcool anidro. Além disso, pode ser encontrado em alguns petróleos e na própria gasolina automotiva.

Page 118: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

118

Ainda com base em Silva & Mainier (2004), o benzeno devido a grande afinidade por gordura é armazenado em tecidos ricos em gorduras, como o sistema nervoso central e a medula óssea. O efeito agudo na via respiratória provaca a irritação nos brônquios e na laringe, surgindo, consequentemente, tosse, rouquidão e edema pulmonar. O benzeno pode provocar depressão generalizada na medula óssea onde o sangue é produzido, que se manifesta pela redução da contagem de todos os tipos de células sanguíneas: células vermelhas, brancas e plaquetas. Há relação causal comprovada entre exposição ao benzeno e ocorrência de Leucemia. A Leucemia mais comum relacionada ao benzeno é a Leucemia Mieloide Aguda e suas variações, entre elas a Eritroleucemia e a Leucemia.

No dia 13 de novembro de 2005, em Jilin, China, ocorreram uma série de explosões no complexo petroquímico de produção de anilina onde o benzeno é a principal matéria-prima. Nesta operação ocorreram a morte instantânea de cinco pessoas e fez com que pelo menos dez mil moradores da região fossem obrigados a fugir da fumaça amarelada resultante do acidente conforme mostra a Figura 2, a seguir.

Figura 2 – Explosão no Complexo Petroquímico da China.

Fonte: http://www.chinadaily.com.cn/

Grande parte do benzeno e nitrobenzeno vazou para águas do Rio Songhua, nordeste da China resultou num dos maiores desastres ecológicos do país, atingindo a Rússia e até ameaçou as relações diplomáticas entre os dois países. Os níveis de benzeno alcançaram valores superiores a 108 vezes o valor permitido e seguro para o homem. A Figura 3, a seguir, apresenta a contaminação do rio Songhua. As investigações iniciais mostraram que o desastre foi causado quando os operadores tentaram desbloquear a torre de retificação de nitrobenzeno. O Governo Chinês não mais divulgou relatórios sobre o acidente.

2.2. VAZAMENTOS DE SULFETO DE HIDROGÊNIO (H2S)

O sulfeto de hidrogênio (H2S), também denominado gás ácido ou gás sulfídrico, é um gás incolor, de cheiro desagradável, extremamente tóxico e corrosivo, e mais denso que o ar.

Figura 3 – Contaminação do Rio Songhua pelo vazamento da Petroquímica, China. Fonte: http://www.gov.cn

Page 119: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

119

A ação tóxica do sulfeto de hidrogênio nos seres humanos é conhecida desde o século XVIII, entretanto, passados tantos anos, ainda ocorrem casos de intoxicações, inclusive com mortes. Sua agressividade também é avaliada nos contatos com materiais e equipamentos, resultando, na maioria das vezes em deteriorações ou fraturas com consequências catastróficas. Devido a sua toxidez, o H2S é capaz de irritar os olhos e/ou atuar no sistema nervoso e respiratório dos seres humanos. Dependendo da concentração pode matar rapidamente. Desta forma, caso haja um acidente envolvendo vazamento de H2S, as consequências podem alcançar proporções imensuráveis, colocando em risco a vida humana, a integridade do patrimônio industrial e o meio ambiente (MAINIER, 2002). A Tabela 2, a seguir, mostra uma série histórica de acidentes com vazamentos de H2S resultando em intoxicações e mortes.

Tabela 2 – Acidentes com vazamentos de H2S (Mainier, 2002)

Acidentes/local Intoxi-cações

Mortes

Planta de remoção de H2S em gás natural, Poza Rica, México, 1950 320 22

Vazamento em refinaria de petróleo, Texas, USA,1969 6 3

Formação de H2S em tanque de ácido crômico, Maine, USA, 1971 --- 6

Formação de H2S em tanque de ácido crômico Chicago, USA,1978 6 3

Vazamento em refinaria de petróleo Texas, USA,1979 10 2

Vazamento em planta de água pesada em usina nuclear, Índia,1984 3 1

Vazamento de petróleo em parque de tanque Texas, USA,1989 30 ---

Descarga de produtos químicos, Whitehall, USA,1999 1 1

Refinaria de petróleo Memphis, USA, 1999 11 ---

Fábrica de produtos químicos, Dalian, China, 1999 11 4

Manutenção em válvula de gasoduto, Alberta, Canadá, 2000 13 ---

Fábrica de ácido sulfúrico Ufa, Rússia, 2000 9 3

Resultados de estudos realizados com animais, que inalaram sulfeto de hidrogênio, indicam que o gás em questão distribui-se no cérebro, fígado, rins, pâncreas e pequeno intestino. A percepção inicial do seu cheiro varia de indivíduo para indivíduo, porém a concentração de 0.13 ppm (0.18 mg/m3) foi considerada suficiente para que o odor comece a ser percebido. Os seres humanos não são capazes de sentir o odor de H2S em concentrações acima de 100 a 150 ppm (140 – 210 mg/m3), provavelmente devido a uma fadiga olfativa que ocorre após ficarem expostos por prolongado período a concentrações mais baixas (DENG, 1992).

Segundo estudos realizados por Kilburn & Warshaw (1991) com operários e moradores residentes nas cercanias de uma refinaria de petróleo na Califórnia, destinada a recuperar enxofre proveniente de petróleo rico em H2S, foi constatado que parte desta população residente queixava-se, rotineiramente, de náuseas, vômitos, dores de cabeça e depressão. Quando foram comparados com outros residentes da região, porém não expostos à exposição de H2S, apresentaram alguns distúrbios na coordenação motora e na discriminação de cores.

Na ótica de Chaves (2004), a experiência e o aprendizado decorridos dos grandes acidentes industriais apoiaram a transformação e o aprimoramento do conceito de gerenciamento do risco. As próprias técnicas de análise de risco vêm sendo também revistas, abrindo espaço para abordagens holísticas, considerando a sensibilidade ambiental da região em estudo. Assim, podem ser aplicadas metodologias, na avaliação do risco

Page 120: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

120

ambiental, sendo bastante úteis para o gerenciamento de riscos de empreendimentos que apresentam o potencial de ocorrência de acidentes, em grandes proporções, como o setor de petróleo.

3. CONCLUSÕES

Diante dos fatos expostos, conclui-se da necessidade de:

• reavaliar e reestruturar os projetos industriais, de tal forma, que os efeitos ambientais, sociais, econômicos e políticos sejam identificados na fase de planejamento do projeto, antes que as decisões de implantações sejam adotadas;

• estimular a participação dos jovens universitários no conhecimento crítico confiável dos processos industriais com relação aos riscos industriais considerando a potencialidade de resultar em impactos ambientais, sociais e econômicos.

4. REFERÊNCIAS

CHAVES,L.A. O. (2004), Fatores que afetam os planos de emergência aplicados às atividades petrolíferas offshore: Estudo de caso, Dissertação de Mestrado. Universidade Federal Fluminense. Niterói, RJ, 2004.

DENG, J, F, (1992), Hydrogen sulphide, In: JB Sullivan, GR Krieger, eds. Hazardous materials toxicology: clinical principles of environmental health. Baltimore: Williams and Wilkins,: p.711-717.

DUARTE, M. (2002), Riscos Industrias. Etapas para a investigação e a prevenção de acidentes, Rio de Janeiro: FUNENSEG, 340p.

FELLENBERG, G. (1970), Introdução aos problemas da poluição ambiental. São Paulo: EPU: Springer: Editora da Universidade de São Paulo, 196p.

KILBURN, K. H. & WARSHAW, R. H., (1991), Neurobehavioral impairment from H2S, University of Southern California School of Medicine, Environmental Sciences Laboratory: Los Angeles, CA.

MAINIER, F. B. & MELLO, M. H. CAMPOS SOARES (2001), Implantação da disciplina Tecnologia Química aplicada aos cursos de Engenharia, In: XXIX Congresso Brasileiro de Ensino de Engenharia - COBENGE, 2001, Porto Alegre, Rio Grande do Sul, 20 a 21 de Setembro, 7p.

MAINIER, F. B. (1999), Tecnologias Limpas: um direito da sociedade. Anais: XXVII Congresso Brasileiro de Ensino de Engenharia – COBENGE 99, Natal, Rio Grande do Norte, 12/15 setembro, 7p.

MAINIER, F.B., (2002), H2S rotas de aproveitamento industrial frente aos problemas de corrosão e contaminação ambiental, Engevista, v. 4, n. 6, março, p.16-22, 2002.

SILVA, E. F. & MAINIER, F. B., (2004), Contaminações ambientais provocadas pelo benzeno existente na gasolina automotiva, Anais: Simpósio sobre Excelência em Gestão e Tecnologia, 27/29 Outubro, AEDB, Resende, RJ, http://www.aedb.br/seget

TIGRE, P. B., VANDERLEY, A. FERRAZ, J. C., RUSH, H. (1994), Tecnologia e Meio Ambiente - Oportunidade para a indústria, Rio de Janeiro: Editora UFRJ,139p.

Page 121: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

121

Determinação da velocidade terminal dos grãos de pi nhão-manso ( Jatropha curcas L.)

Ednilton T. de Andrade; Jacqueline M. Brasil; Luciana P. Teixeira; Angelo José L. Braz; Neila S. Freixo; Patrícia M. de Araujo

Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected]; [email protected]; [email protected]; [email protected]; [email protected]; [email protected]

RESUMO

O objetivo do presente trabalho é determinar experimentalmente a velocidade terminal dos grãos de pinhão-manso e comparar os resultados com os resultados obtidos a partir de modelo matemático presente na literatura da área. Dessa forma, é possível caracterizar a velocidade máxima do ar envolvida no processamento e beneficiamento do grão em questão, como transporte e separação. A partir dessa análise é possível determinar o coeficiente de arrasto, possibilitando a regulagem de máquinas e equipamentos. Para a realização das análises experimentais, as amostras foram submetidas a teores de água de, aproximadamente, 4, 9, 11, 15, 18, 20 e 25% (b.u.). Como resultado verificou-se que a equação utilizada para o cálculo da velocidade terminal está de acordo com os resultados obtidos experimentalmente. Além disso, o resultado também demonstra que a velocidade terminal dos grãos de pinhão-manso é diretamente proporcional ao teor de água.

Palavras-chave: Pinhão-manso, Velocidade terminal, Teor de água

1. INTRODUÇÃO

Nos últimos anos, pesquisas envolvendo a obtenção de energia proveniente de biomassa têm recebido especial atenção. Dentre as principais formas de energias obtidas a partir da biomassa, está o biodiesel. Além de ser uma fonte limpa e renovável, o biodiesel também possibilita a redução da importação de óleo diesel, assim como pode representar uma importante oportunidade de desenvolvimento econômico para diversas regiões do País.

O biodiesel pode ser obtido a partir de óleos vegetais, gorduras de origem animal e até mesmo de óleos usados em frituras. O Brasil possui um grande número de oleaginosas com possibilidade de extração de óleos vegetais para a produção de biodiesel em grande escala, dentre elas está o pinhão-manso (Jatropha curcas L.).

Contudo, para a utilização dos grãos do pinhão-manso para a extração de óleo visando à produção de biodiesel, se faz necessário o conhecimento de suas propriedades físicas. De acordo com a literatura da área, as principais aplicações do conhecimento das propriedades físicas dos grãos relacionam-se com a elaboração de projetos, construção e operação de equipamentos de limpeza, secagem, classificação, armazenamento e industrialização, otimização da operação de equipamentos visando maior rendimento, racionalização de energia, controle de poluição e redução de custos.

Dentre as principais características, destaca-se a velocidade terminal e, consequentemente, o coeficiente de arrasto. De acordo com Teixeira et al. (2003), a velocidade terminal é uma propriedade que determina a velocidade a ser imposta ao ar, para que este não arraste os grãos durantes a sua passagem pelos mesmos.

Dessa forma, o conhecimento a respeito da velocidade terminal e do coeficiente de arrasto dos produtos agrícolas é de fundamental importância no projeto e no dimensionamento de equipamentos e estruturas utilizados, sobretudo, nas operações de colheita e pós-colheita desses produtos, visto que grande parte dos equipamentos utiliza

Page 122: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

água ou ar para transportar ou separar materiais de qualidade variável.

Dessa forma, o presente trabalho tem o objetivo de determinar a velocidade terminal dos grãos de pinhão-manso, de forma a caracterizar a velocidade máxima do ar envolvida nos processos de beneficiamento do pinhãoresultados experimentais e os obtidos por meio de modelagem matemática.

2. MATERIAIS E MÉTODOS

O presente trabalho foi realizado no Laboratório de Termociências (Latermo), na Universidade Federal Fluminense, Niterói utilizados grãos de pinhão-mansomanualmente, proveniente do Horto Municipal de Macaé, Macaé

A amostra inicial foi dividida em sete subamostras de aproximadamente 250g cada. As subamostras foram submetidas a diferentes teores de água11; 15; 18; 20 e 25% (b.u.), sendo posteriormente armazenadas em saco hermético, de forma a garantir a manutenção do respectivo teor de água.

Os teores de água das subdo método da estufa com temperatura de 105 ± 1°C po r 24 horas (INSTITUTO ADOLFO LUTZ, 2008). Para tanto, foram utilizadas repetições, para cada tratamento.

Para a verificação da velocidade terminal foi utilizado um dispositivo formado por um ventilador acoplado a um tubo de PVC com 150 mm de diâmetro e 104 cm de comprimento (Figura 1). Essas dimensões distribuição da velocidade do ar na secção transversal do duto. À distância de 7,5 cm de sua extremidade superior, fixou-se uma tela para sustentação das amostras. Na entrada do ventilador, a uma distância de 70 cm, foi fixado um registro gaveta para regulagem da velocidade do fluxo de ar.

Figura 1. Equipamento utilizado para medição da Velocidade Terminal

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

água ou ar para transportar ou separar o produto desejável, impurezas presentes oumateriais de qualidade variável.

Dessa forma, o presente trabalho tem o objetivo de determinar a velocidade terminal , de forma a caracterizar a velocidade máxima do ar envolvida

sos de beneficiamento do pinhão-manso, possibilitando a análise entre os resultados experimentais e os obtidos por meio de modelagem matemática.

MATERIAIS E MÉTODOS

O presente trabalho foi realizado no Laboratório de Termociências (Latermo), na iversidade Federal Fluminense, Niterói - RJ. Para a realização dos experimentos, foram

manso, com teor de água inicial de 3,9% (b.u.), colhidos manualmente, proveniente do Horto Municipal de Macaé, Macaé - RJ.

foi dividida em sete subamostras de aproximadamente 250g cada. As subamostras foram submetidas a diferentes teores de água de aproximadamente 3,9; 9; 11; 15; 18; 20 e 25% (b.u.), sendo posteriormente armazenadas em saco hermético, de

utenção do respectivo teor de água.

Os teores de água das subamostras de pinhão-manso foram determinados a partir do método da estufa com temperatura de 105 ± 1°C po r 24 horas (INSTITUTO ADOLFO

, foram utilizadas amostras de aproximadamente 30 gramasrepetições, para cada tratamento.

Para a verificação da velocidade terminal foi utilizado um dispositivo formado por um ventilador acoplado a um tubo de PVC com 150 mm de diâmetro e 104 cm de comprimento

foram utilizadas, a fim de se obter uma maior uniformidade de distribuição da velocidade do ar na secção transversal do duto. À distância de 7,5 cm de sua

se uma tela para sustentação das amostras. Na entrada do ma distância de 70 cm, foi fixado um registro gaveta para regulagem da

Figura 1. Equipamento utilizado para medição da Velocidade Terminal

9 de outubro de 2011

122

sejável, impurezas presentes ou

Dessa forma, o presente trabalho tem o objetivo de determinar a velocidade terminal , de forma a caracterizar a velocidade máxima do ar envolvida

, possibilitando a análise entre os resultados experimentais e os obtidos por meio de modelagem matemática.

O presente trabalho foi realizado no Laboratório de Termociências (Latermo), na RJ. Para a realização dos experimentos, foram

, com teor de água inicial de 3,9% (b.u.), colhidos

foi dividida em sete subamostras de aproximadamente 250g cada. de aproximadamente 3,9; 9;

11; 15; 18; 20 e 25% (b.u.), sendo posteriormente armazenadas em saco hermético, de

foram determinados a partir do método da estufa com temperatura de 105 ± 1°C po r 24 horas (INSTITUTO ADOLFO

adamente 30 gramas em 3

Para a verificação da velocidade terminal foi utilizado um dispositivo formado por um ventilador acoplado a um tubo de PVC com 150 mm de diâmetro e 104 cm de comprimento

foram utilizadas, a fim de se obter uma maior uniformidade de distribuição da velocidade do ar na secção transversal do duto. À distância de 7,5 cm de sua

se uma tela para sustentação das amostras. Na entrada do ma distância de 70 cm, foi fixado um registro gaveta para regulagem da

Figura 1. Equipamento utilizado para medição da Velocidade Terminal

Page 123: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

123

Para as análises foram utilizados 49 grãos de pinhão-manso, sendo 7 para cada subamostra, sendo a velocidade do fluxo de ar medida no ponto localizado a 7,5 cm acima da tela de sustentação, utilizando-se um anemômetro digital.

A medição da velocidade do ar correspondente à velocidade terminal foi realizada no início da trepidação da amostra, de forma a evitar sua flutuação.

Para todos os tratamentos, a obtenção dos valores correspondentes a velocidade terminal foi realizada com grãos cuja massa variava de 0,7 a 1,0 gramas, para cada um das 7 repetições correspondentes aos respectivos teores de água estudados.

A partir dos resultados experimentais, e com o intuito de buscar um modelo representativo do fenômeno da velocidade terminal foi utilizada a equação proposta por Hawk et al. (1966) e Santana & Braga (1999), Equação 1, para a determinação da velocidade terminal.

Vt = +.-.ρ.ρ/0.ρ..ρ/.1. 2 3

(1)

em que:

Vt - velocidade terminal, em m.s-1; w - peso das partículas, em N; ρp - massa específica da partícula, em kg.m-3; ρf - massa específica do fluido, em kg.m-3; C - coeficiente de arrasto, adimensional; e Ap - área projetada das partículas, normal ao seu movimento em relação ao fluído, em m².

Para a determinação do coeficiente de arrasto foi utilizada para correção da forma do grão a Equação 2 proposta por Petty-john e Christiansen, citado por Mohsenin (1978).

C = 5,31 – 4,88f (2)

em que:

C = coeficiente de arrasto, adimensional; e f = esfericidade, adimensional.

A esfericidade que corresponde ao grau de aproximação da forma do produto com uma esfera, pode ser determinada por meio da Equação 3.

E = de

dc (3)

onde:

E - esfericidade, adimensional; de – diâmetro de uma esfera correspondente ao mesmo volume, cm; e dc – diâmetro da menor esfera circunscrita, cm.

3. RESULTADOS E DISCUSSÃO

Na Tabela 1 estão apresentados os teores de água dos grãos de pinhão-manso, analisados neste trabalho.

Tabela 2 - Teor de água dos grãos de pinhão após reumidecimento

Amostras Teor de água (%b.u.)

1 3,94

2 8,82

3 10,83

4 14,66

5 16,68

6 18,90

Page 124: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

124

7 25,04

Para a determinação do coeficiente de arrasto utilizou-se o valor médio correspondente da esfericidade de 0,593. Dessa forma, o coeficiente de arrasto médio calculado utilizado para os cálculos envolvidos com a velocidade terminal corresponde a 2,522.

Na Tabela 2, observa-se os valores médios da velocidade terminal em função do teor de água dos grãos de pinhão e a velocidade terminal calculada. Verifica-se a relação direta de proporcionalidade entre o aumento dos valores de velocidade terminal com a elevação do teor de água do produto.

Tabela 3 - Medidas obtidas para o cálculo da Velocidade Terminal calculada em função do teor de água

Teor de água (%b.u.)

Velocidade terminal

Experimental (m/s) Velocidade terminal

Calculada (m/s)

3,9 7,81 7,79

8,8 7,96 7,95

10,8 8,09 8,03

14,7 8,29 8,20

16,7 8,43 8,30

18,9 8,67 8,42

25,0 8,97 8,81

Possivelmente, este aumento deve-se às alterações das características físicas do produto, principalmente massa, área e volume, confirmando a expectativa de que a maior presença de água na composição do produto contribui para a alteração direta da relação entre a massa e a velocidade terminal.

A velocidade terminal é determinada a fim de obter a velocidade do ar máxima nas colunas pneumática de máquinas de limpeza, sem que ocorra transporte de grãos juntamente com as impurezas, bem como em equipamentos para transporte e movimentação dos grãos.

A partir dos resultados, verifica-se que os dados experimentais não destoam acentuadamente dos obtidos através da equação.

Page 125: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

125

Gráfico 1- Velocidade terminal experimental e calculada da massa de pinhão-manso em função do teor de água

4.CONCLUSÃO

De acordo com os dados analisados neste trabalho, a velocidade terminal dos grãos é diretamente proporcional ao teor de água, aumentando conforme há o aumento do teor de água do pinhão-manso.

5.BIBLIOGRAFIA

HAWK, A. L.; BROOKER, D. B.; CASSIDY, J.J. (1966). Aerodynamic characteristics of selected farm grains. Transactions of the ASAE, St. Joseph, Michigan, v. 9, n. 1, p. 48-51.

INSTITUTO ADOLFO LUTZ. (2008). Métodos físico-químicos para análise de alimentos. Edição IV. 1ª Edição digital. São Paulo, p. 98-99.

MOHSENIN, N. N. (1978). Physical properties of plant and animal material. Gorson and Breach Science Publishess. New York,2 ed, 742p.

SANTANA, M. F. S.; BRAGA, M. E. D. (1999). Parâmetros aerodinâmicos que influenciam na separação de amendoim. Revista Brasileira de Produtos Agroindustriais, Campina Grande, v.1, n.1, p.66-72.

TEIXEIRA, M. M.; MARTYN, P. J.; HARA, T.; CUNHA, J. P. A. R. (2003). Propriedades físicas e aerodinâmicas aplicadas ao projeto de máquinas de limpeza para grãos de milho. Engenharia na Agricultura, Viçosa, v.11, 52 n.1-4.

7,6

7,8

8

8,2

8,4

8,6

8,8

9

9,2

0 5 10 15 20 25 30

Vel

oci

dad

e Te

rmin

al (

m.s

-1)

Teor de água (% b.u.)

Velocidade terminal experimental

Velocidade terminal calculada

Page 126: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

126

Determinação das propriedades físicas dos grãos de pinhão-manso ( Jatropha curcas L.)

Ednilton T. de Andrade; Jacqueline M. Brasil; Luciana P. Teixeira; Angelo José L. Braz; Neila S. Freixo; Patrícia M. de Araujo

Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected]; [email protected]; [email protected]; [email protected]; [email protected]; [email protected]

RESUMO

O objetivo do presente trabalho é determinar as propriedades físicas de grãos de pinhão-manso, tais como: tamanho e forma, massa específica, e porosidade dos grãos. Para a realização das análises experimentais, as amostras foram submetidas a teores de água de, aproximadamente, 4, 8, 13, 18, e 24% (b.u.). No que diz respeito à determinação do tamanho e forma dos grãos se utilizou das características de esfericidade e circularidade, sendo verificado que a esfericidade variou proporcionalmente com a variação do teor de água, enquanto a circularidade permaneceu aproximadamente constante. Quanto a massa específica e a porosidade, o resultado obtido demonstra que a porosidade é diretamente proporcional ao teor de água, até o ponto em que a interação entre a redução do teor de água e a contração volumétrica fazem com que a massa específica volte a aumentar, reduzindo, assim, a porosidade.

Palavras-Chave: pinhão-manso; propriedades físicas, teor de água

1. INTRODUÇÃO

Em razão ao alto consumo de combustível, as incertezas quanto a disponibilidade de combustíveis fósseis, bem como a redução das reservas, e as constantes variações no seu preço e dos seus derivados, vários estudos referentes a outras fontes renováveis para produção de energia têm se mostrado cada vez mais presentes. Essa intensificação de estudos também se dá devido às questões ambientais, já que a utilização de energia a partir de fontes renováveis reduz as emissões de gases poluentes causadores do efeito estufa na atmosfera. A partir disto tem-se dado grande atenção as fontes de energia produzida a partir da biomassa, como é o caso do biodiesel.

Em meio a diferentes oleaginosas com alto potencial produtivo de óleo para fins combustíveis, o pinhão-manso (Jatropha curcas L.) mostra-se como uma cultura promissora, que pode ser usada em escala para extração de óleo destinado à fabricação de biodiesel, porém apresenta características físicas dos grãos que ainda necessitam de maiores estudos.

De acordo com a literatura da área, as principais aplicações das propriedades físicas dos grãos relacionam-se com a elaboração de projetos, construção e operação de equipamentos de limpeza, secagem, classificação, armazenamento e industrialização, otimização da operação de equipamentos visando maior rendimento, racionalização de energia, controle de poluição e redução de custos.

Em razão das características expostas, o presente trabalho objetiva a determinação das principais características físicas dos grãos de pinhão-manso, tais como: tamanho e forma, massa específica, e porosidade dos grãos de pinhão.

2. MATERIAL E MÉTODOS

O presente trabalho foi realizado no Laboratório de Termociências (Latermo), da Universidade Federal Fluminense. Para o experimento foram utilizados grãos de pinhão-manso colhidos manualmente, proveniente do Horto Municipal de Macaé, em Macaé - RJ.

Page 127: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

127

A amostra inicial foi dividida em cinco subamostras de aproximadamente 250g cada. As subamostras foram submetidas a diferentes teores de água de, aproximadamente, 4, 8, 13, 18, e 24% (b.u.), sendo posteriormente armazenadas em saco hermético, de forma a garantir a manutenção do respectivo teor de água.

Os teores de água das subamostras de pinhão-manso foram determinados a partir do método da estufa com temperatura de 105 ± 1°C po r 24 horas (INSTITUTO ADOLFO LUTZ, 2008). Para tanto, foram utilizadas amostras de, aproximadamente, 30 gramas em 3 repetições, para cada tratamento.

2.1 TAMANHO E FORMA DOS GRÃOS

Para a determinação do tamanho e forma dos grãos de pinhão utilizou-se amostras de 200 grãos para cada valor de teor de água. O tamanho dos grãos de pinhão foi determinado utilizando-se um paquímetro digital, medindo-se as características de largura (a), espessura (b), e comprimento (c) de cada grão, conforme especificado na ilustração referente às dimensões (Figura 1).

Figura 1. Largura (a), espessura (b), e comprimento (c) do grão de pinhão-manso

Segundo Corrêa et al. (2002), a determinação da forma do grão pode ser caracterizada por meio do cálculo da circularidade e esfericidade dos mesmos. Mohsenin (1986) citado por Corrêa et al. (2002), com o intuito de analisar tais características, propôs a Equação 1 para a verificação da circularidade que indica o quanto a área da projeção do material na posição de repouso se aproxima de um círculo, de forma a medir a agudeza dos cantos de um sólido. Já a esfericidade que corresponde ao grau de aproximação da forma do produto com uma esfera, pode ser determinada por meio da Equação 2.

C = 1.15 (1)

E = de

dc (2)

onde:

E - esfericidade, adimensional; C – circularidade, adimensional; Ap – área projetada, cm2; Ac - área circunscrita, cm2; de – diâmetro de uma esfera correspondente ao mesmo volume, cm; e dc – diâmetro da menor esfera circunscrita, cm.

Para delimitação dos círculos inscritos e circunscritos, e áreas projetadas, utilizou-se o AutoCad 2008 (Figura 2), no qual se inseriu a imagem tirada do pinhão, através do comando insert – raster image reference, e posteriormente foi realizada a delimitação do pinhão, círculo inscrito e circunscrito (Figura 3). Os valores destes foram obtidos por meio do comando list.

Page 128: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

Figura 2. . Autocad 2008 com o comando

Figura 3. Área projetada e círculo circunscrito

2.2 MASSA ESPECÍFICA

A determinação da massa específica aparente foi realizada em sete repetições para cada amostra, utilizando uma proveta de 1000 ml e uma balança de precisão.

Após a balança entrar em equilíbrio com o ambiente, pesabalança para se desconsiderar o peso desta. O pinhão então é depositado na proveta até a marca de 1000 ml e em seguida é pesado. A massa especifica aparente é então estimada pela Equação 3.

em que:

µap - massa especifica aparente, em kg mvolume da proveta, em m³.

modelagem matemática representativa da massa específica foi utilizada a Equação 4. Os

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

Figura 2. . Autocad 2008 com o comando list

Figura 3. Área projetada e círculo circunscrito

A determinação da massa específica aparente foi realizada em sete repetições para cada amostra, utilizando uma proveta de 1000 ml e uma balança de precisão.

Após a balança entrar em equilíbrio com o ambiente, pesa-se a proveta seca e tara balança para se desconsiderar o peso desta. O pinhão então é depositado na proveta até a marca de 1000 ml e em seguida é pesado. A massa especifica aparente é então estimada

µap = 67

massa especifica aparente, em kg m-3; m - massa do produto, em kg; e V

Para a realização da modelagem matemática representativa da massa específica foi utilizada a Equação 4. Os

9 de outubro de 2011

128

A determinação da massa específica aparente foi realizada em sete repetições para cada amostra, utilizando uma proveta de 1000 ml e uma balança de precisão.

se a proveta seca e tara a balança para se desconsiderar o peso desta. O pinhão então é depositado na proveta até a marca de 1000 ml e em seguida é pesado. A massa especifica aparente é então estimada

(3)

massa do produto, em kg; e V -

Para a realização da modelagem matemática representativa da massa específica foi utilizada a Equação 4. Os

Page 129: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

129

parâmetros da Equação 4 foram determinados através dos programa STATISTICA 4.2, com modelagem não linear pelo método Quasi-Newton.

Massa específica calculada= A (Ta)3 + B (Ta)2 + C (Ta) + D (4)

em que:

A, B, C, D – parâmetros que dependem da natureza do produto, adimensional; e Ta – Teor de água, em b.s.

2.3 POROSIDADE

A porosidade foi determinada pelo método direto, onde a mesma é obtida acrescentando-se um volume líquido conhecido e necessário para complementação dos espaços da massa granular (MOHSENIN,1986). Para esta análise foram utilizadas provetas de 500 ml e 100 ml para a aferição da porosidade, e o líquido utilizado foi óleo de soja.

Já, no que diz respeito a realização da modelagem matemática representativa da porosidade foi utilizada a Equação 5, descrita a seguir, cujos parâmetros foram determinados através dos programa STATISTICA 4.2, com modelagem não linear pelo método Quasi-Newton.

Porosidade calculada= A (Ta)3 + B (Ta)2 + C (Ta) + D (5)

em que:

A, B, C, D – parâmetros que dependem da natureza do produto, adimensional; e Ta – Teor de água, em b.s.

3. RESULTADOS E DISCUSSÃO

Na Tabela 1 estão apresentados os teores de água dos grãos de pinhão, utilizados neste trabalho.

Tabela 1. Teor de água dos grãos de pinhão-manso

Amostras Teor de água (%b.u.)

1 4,3

2 8,3

3 13,3

4 17,8

5 23,7

A Tabela 2 mostra os valores médios dos eixos axiais para os grãos de pinhão nos teores de água estudados. Nota-se um aumento dos eixos de caracterização do tamanho dos grãos: largura (a), espessura (b), e comprimento (c) a medida que o teor de água elevou-se. Além disso, pode-se notar que a espessura foi a que apresentou menor variação, o que já era esperado, pois este é o menor eixo.

Tabela 2. Valores médios dos eixos axiais em função do teor de água dos grãos

Teor de água (%b.u.) Largura (a) Comprimento (c)

Espessura (b)

4,3 10,965 17,275 8,400

8,3 11,205 17,555 8,825

13,3 11,215 17,520 8,790

17,8 11,238 17,570 8,870

Page 130: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

130

23,7 11,358 17,793 9,003

Na Tabela 3, observam-se os valores médios da esfericidade e circularidade dos grãos em função do teor de água dos grãos de pinhão. A esfericidade apresenta valores diretamente proporcionais ao teor de água dos grãos, portanto, ocorre uma tendência no aumento desta propriedade física. Observa-se que a circularidade permaneceu aproximadamente constante apesar dos diferentes teores de água.

Tabela 3. Valores médios da esfericidade e circularidade em função dos teores de água dos grãos de pinhão

Teor de água (%b.u.) Circularidade Esfericidade Peso de Mil Grãos

(kg)

4,3 0,598 0,570 0,777

8,3 0,595 0,575 0,794

13,3 0,582 0,565 0,825

17,8 0,602 0,571 0,889

23,7 0,604 0,576 0,954

A Tabela 4 mostra os valores médios das massas específicas e da porosidade dos grãos de pinhão-manso em função do teor de água. Observa-se nesta tabela que a porosidade é diretamente proporcional ao teor de água até determinado ponto, onde a interação entre a redução do teor de água e a contração volumétrica, fazem com que a massa específica volte a aumentar, reduzindo assim a porosidade. Esse fenômeno pode ser explicado devido à redução do teor de água influenciar a contração volumétrica do produto fazendo com que haja variação no volume do produto.

Tabela 4. Medidas obtidas para a massa específica e porosidade em função do teor de água

Teor de água (%b.u.)

Massa Específica (kg/m 3)

Massa Específica real (kg/m 3)

Porosidade (%)

4,3 480,47 932,71 44,92

8,3 436,66 873,89 47

13,3 430,40 912,29 47,08

17,8 439,34 969,91 46,42

23,7 446,72 1001,85 45,56

A determinação da massa específica real foi realizada a partir do peso do grão de pinhão-manso conhecido, divido pelo seu volume.

A Figura 4 exibe as curvas provenientes das equações ajustadas, juntamente com os valores médios experimentais e calculados.

Page 131: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

131

Figura 4. Porosidade de massa de pinhão-manso e massa específica em função do teor de água

Ao se utilizar as equações ajustadas em um intervalo de teor de água comum a massa específica e porosidade, verifica-se que os valores calculados se encontram na mesma faixa de valores experimentais.

A massa específica foi calculada por meio da Equação 6, e os resultados estão expostos na Tabela 5.

Massa específica calculada= (-0,03275).(Ta)3 + 1,782836.(Ta)2 + (-28,8412).(Ta) + 573,5893 (6)

Tabela 5. Massa específica experimental e calculada em função do teor de água

Teor de água

(%b.u.)

Repetição 1

Repetição 2

Repetição 3

Repetição 4

Repetição 5 Média

M Calculad

o

4,3 488,71 479,35 478,9 473,73 481,64 480,47 479,93

8,3 439,78 433,51 440,42 435,63 433,95 436,66 438,30

13,3 429,65 433,57 421,75 432,57 434,47 430,40 428,32

17,8 444,39 443,77 431,11 436,5 440,93 439,34 440,40

23,7 468,29 463,10 459,79 462,28 455,71 446,72 455,51

Igualmente, a porosidade também pode ser calculada através pela Equação 7, sendo seus resultados expostos na Tabela 6.

Porosidade calculada= 0,001544.(Ta)3 + (-0,08761).(Ta)2 + (1,403172).(Ta) + 40,41263 (7)

420,00

430,00

440,00

450,00

460,00

470,00

480,00

490,00

0 5 10 15 20 25

Teor de Agua (% b.u.)

Mas

sa E

spec

ifica

(kg

m-3

)

44,50

45,00

45,50

46,00

46,50

47,00

47,50

Por

osid

ade

(%)

massa específica

Massa Específica Calculada

Porosidade

Porosidade Calculada

Page 132: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

132

Tabela 6. Porosidade experimental e calculada

Teor de água (%b.u.)

Repetição 1

Repetição 2

Porosidade (%)

Porosidade Calculada (%)

4,3 45,17 44,67 44,93 44,95

8,3 47,00 47,00 47,00 46,91

13,3 47,00 47,17 47,08 47,21

17,8 47,50 45,33 46,42 46,34

23,7 47,67 44,00 45,55 45,01

4.CONCLUSÃO

A partir dos resultados obtidos, pode-se verificar a que esfericidade é diretamente proporcional ao teor de água dos grãos. Com o aumento do teor de água ocorreu um aumento dos eixos de caracterização do grão de pinhão-manso (largura, comprimento e espessura); sendo que a dimensão que menos sofreu alteração com a elevação do teor de água foi a espessura. Os valores da esfericidade variaram de 0,565 a 0,576.

Já, a circularidade manteve-se aproximadamente constante para diferentes teores de água, sendo sua variação presente no intervalo de 0,582 a 0,604.

No que diz respeito à porosidade, a mesma é diretamente proporcional ao teor de água, até o ponto em que a interação entre a redução do teor de água e a contração volumétrica faz com que a massa específica volte a aumentar, reduzindo assim a porosidade. A porosidade variou de 44,93 a 47,08%, indo de acordo com os valores calculados pela equação proposta; assim como a massa específica que variou de 430,40 a 480,47.

Logo, a metodologia utilizada neste trabalho mostrou-se adequada à determinação das propriedades físicas e identificam adequadamente as características analisadas dos grãos de pinhão-manso.

5.BIBLIOGRAFIA

CORRÊA, P. C.; JÚNIOR, P. C. A.; QUEIROZ, D. M.; SAMPAIO, C. P.; CARDOSO, J. B. (2002). Variação das dimensões características e da forma dos frutos de café durante o processo de secagem. Revista Brasileira Engenharia Agrícola Ambiental. vol.6, no.3. Campina Grande Sept./Dec.

INSTITUTO ADOLFO LUTZ. (2008). Métodos físico-químicos para análise de alimentos. Edição IV. 1ª Edição digital. São Paulo. p. 98-99.

MOHSENIN, N. N. (1986). Physical properties of plant and animal material. New York Gorson and Breach Science Publishess. 841p.

Page 133: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

133

Emprego catalítico do ouro e sua aplicação na oxida ção seletiva de CO

1 Luís Eduardo Terra, 2 Fábio Barbosa Passos.

Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

1. [email protected], 2. [email protected]

RESUMO

Os avanços tecnológicos e nos métodos de preparo mostraram a possibilidade do preparo de catalisadores formados por partículas nanométricas de ouro, descobrindo-se então a sua atividade catalítica, o que desperta interesse, uma fez que possui menor custo que platina e paládio. Foram preparados catalisadores de ouro e de cobre, e contendo as duas espécies, suportados em céria, pelo método deposição-precipitação. Os catalisadores foram caracterizados pelas análises de fluorescência de raios-x, fisissorção de N2, redução a temperatura programada, espectroscopia com reflectância difusa no ultra-violeta visível e difração de raios-x. Os ensaios mostraram poder ter ocorrido limitação do teor de ouro no preparo do monometálico e que o cobre precipitou na superfície, favorecendo a deposição do ouro nos catalisadores bimetálicos; as propriedades texturais não foram alteradas; o perfil de redução indicou a presença das espécies Cu2+ e Au3+; houve identificação da ressonância de plasmon, característica normalmente atribuída a aglomeração de partículas; não foi verificada a formação de fase cristalina de ouro, nem de cobre. O teste catalítico mostrou um melhor desempenho dos catalisadores bimetálicos frente aos monometálicos, os catalisadores contendo ouro alcançaram a conversão máxima em menores temperaturas e a presença do cobre pode ter sido responsável pela seletividade para CO2.Este arquivo apresenta a formatação a ser adotada na elaboração de artigos para submissão ao VII Seminário Fluminense de Engenharia com vistas à publicação nos anais deste evento.

Palavras-Chave: Ouro. Cobre. Céria. Oxidação Seletiva de CO. Célula a Combustível.

1. INTRODUÇÃO

Os catalisadores de ouro foram durante muitos anos considerados de baixo desempenho. Mas os avanços tecnológicos e nos métodos de preparo mostraram a possibilidade do preparo de catalisadores de ouro formados por partículas nanométricas, que apresentaram boa atividade catalítica em diversas reações e tem despertado elevado interesse em função do seu custo ser inferior, se comparado com outros metais nobres, como Pt e Pd.

A descoberta da atividade de catalisadores de ouro em reações heterogêneas de oxidação a baixas temperaturas, tais como oxidação de CO e oxidação seletiva de propeno, feita pelo grupo de catálise formado por Haruta e seus colegas (HARUTA et al, 1989; HARUTA et al, 1993; HARUTA, 1997; HARUTA E DATÉ, 2001), motivaram um considerável aumento de pesquisas reportando a atividade de catalisadores baseados em ouro. Os catalisadores de ouro suportado têm apresentado elevado desempenho na oxidação de CO em temperaturas muito mais baixas que os usuais catalisadores de platina e os bimetálicos contendo estas duas espécies têm apresentado uma melhor estabilidade térmica (MIN E FRIEND, 2007).

O aumento do consumo de combustíveis fósseis vem aumentando cada vez mais a emissão de gases do efeito estufa, especialmente CO2. E estas emissões são responsáveis pelo agravamento do efeito estufa que provoca um aumento na temperatura do planeta trazendo grande desequilíbrio ao nosso ecossistema.

Page 134: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

134

No intuito de minimizar esta emissão de CO2 dentre as tecnologias para geração de energia as células a combustível estejam entre as fontes mais promissoras (CHOUDHARY E GOODMAN, 2002).

A célula a combustível de membrana polimérica trocadora de prótons (PEMFC) é considerada altamente interessante para sistemas móveis e estacionários devido a elevada geração de energia em temperaturas relativamente baixas e a seu design compacto (DUDFIELD et al., 2001). O combustível preferencial empregado nestas células é o H2 que apresenta elevada reatividade no eletrodo e gera um produto de baixo impacto ambiental, que é a H2O (LÖFFLER et al., 2003).

As correntes de H2 produzidas industrialmente pela reforma de hidrocarbonetos formam também CO2, CO, e H2O. Apesar desta produção, o maior interesse ambiental está na elevada eficiência de motores operando com células a combustível, quando comparado com a queima de combustíveis, chegando até metade do consumo de energia (PETTERSSON E WESTERHOLM, 2001).

O CO envenena o eletrodo de platina da célula a combustível e precisa ter seu teor reduzido à aproximadamente 10 ppm (PETTERSSON E WESTERHOLM, 2001). A oxidação seletiva catalítica tem se mostrado promissora na redução do teor de CO para o limite estabelecido sem elevar o consumo de H2, além de apresentar baixo custo operacional (HUANG et al., 2009).

Diversos autores vêm estudando a atividade de catalisadores de ouro sobre diferentes suportes nesta reação, e a atividade dos catalisadores de cobre suportados em céria já é conhecida na literatura há bastante tempo.

Pesquisas com Au/CeO2 (LUENGNARUEMITCHAI et al., 2004) e Cu/CeO2 (AVGOUROPOULOS et al., 2002) demonstraram conversões da ordem de 98%, que sofreram queda com a presença de H2O e CO2, sendo estas menos intensas em Cu/CeO2.

O catalisador Au-Cu/Al2O3 também já foi investigado, de modo a identificar o efeito da dispersão do Au no suporte, uma vez que Cu/Al2O3 não apresenta atividade na reação. As pesquisas demonstraram uma diminuição na conversão, mas um aumento na seletividade em baixas temperaturas. (MOZER at al., 2009)

O presente trabalho teve como objetivo estudar o preparo e o desempenho de catalisadores bimetálicos de ouro-cobre na oxidação de CO. Os catalisadores preparados foram caracterizados pelas técnicas de fluorescência de raios-X, fisissorção de N2, redução a temperatura programada, espectroscopia com reflectância difusa no ultra-violeta visível e difração de raios-X, além de testados na reação de oxidação seletiva de CO.

2. EXPERIMENTAL

2.1. PREPARAÇÃO DOS CATALISADORES

O suporte CeO2 foi obtido a partir da calcinação do (NH4)2Ce(NO3)6 (Merck) a 800°C por 1 hora, com uma taxa de aquecimento de 5°C/min. Os catalisadores foram preparados pelo método deposição-precipitação.

Para a deposição do ouro, foi usada uma solução do precursor HAuCl4 (Aldrich) que teve o pH ajustado em 7 através da adição de NaOH.

Para o cobre foi empregada uma solução do precursor CuCl2.2H2O (Merck).

Para os catalisadores monometálicos, a solução do precursor foi adicionada à uma suspensão contendo o suporte. Já nos catalisadores bimetálicos foi adicionado primeiro a solução contendo ouro e imediatamente em seguida a solução contendo cobre.

Em todos os casos, a suspensão resultante teve seu pH mantido em 7 através da adição de NaOH e permaneceu sob vigorosa agitação, por 2 horas.

Page 135: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

135

Passado este tempo, a suspensão foi filtrada a vácuo e lavada com água deionizada, para remoção dos íons residuais, especialmente o cloreto. A secagem foi feita em mufla a 120°C por 16 horas. Todo o procedimento foi realiza do com baixa luminosidade e as amostras não foram calcinadas, para evitar a aglomeração das partículas de ouro.

2.2. TESTES DE CARACTERIZAÇÃO

2.2.1. FLUORESCÊNCIA DE RAIOS-X E FISISSORÇÃO DE N2

As análises de fluorescência de raios-X (FRX) foram realizadas em um equipamento Rigaku RIX 3100, equipado com um tubo de raios-X com alvo de ródio (Rh), potência de 4 kW e pressão de 13 Pa.

Para as análises de fisissorção de N2 foi utilizado um equipamento Micromeritics ASAP 2020.

2.2.2. DIFRAÇÃO DE RAIOS-X

A difração de raios-X (DRX) foi feita num equipamento Rigaku - Miniflex, com radiação CuKα (1,540 Å). Os difratogramas foram obtidos entre 2θ = 2° e 2 θ = 90°, usando um passo de 0,05° e um tempo de contagem de 1 segun do por passo.

2.2.3. REDUÇÃO A TEMPERATURA PROGRAMADA

A redução à temperatura programada (TPR) foi realizada em uma unidade multipropósito acoplada a um espectrômetro de massas Pfeiffer Vacuum – Prisma, com uma massa de amostra de 0,5 g. A redução dos catalisadores foi realizada com uma mistura de 5%H2/Ar a uma taxa de aquecimento de 10°C/min, entre 25 e 1050°C.

2.2.4. ESPECTROSCOPIA COM REFLECTÂNCIA DIFUSA NO ULTRA-VIOLETA VISÍVEL

As análises de espectroscopia com reflectância difusa no ultra-violeta visível (DRS UV-Vis) foram realizadas a temperatura ambiente entre 200-800 nm, a 1800 nm/min, em um espectrofotômetro VARIAN - Cary 500. Para que a contribuição do suporte fosse diferenciada, os espectros de reflectância R(λ) da amostra foram divididos pela reflectância do suporte, antes do cálculo da função “Kubelka-Munk”.

2.3. TESTE CATALÍTICO

Os testes de oxidação seletiva de monóxido de carbono foram realizados em uma unidade acoplada a um cromatógrafo gasoso Varian CP-3800 equipado com uma coluna de separação SUPELCO CARBOXEN 1010 PLOT 30 m x 0,53 mm, um metanador, um detector de condutividade térmica (TCD) e um detector de ionização em chama (FID).

A massa de catalisador utilizada foi de 200 mg, numa faixa de temperatura de 0-300°C em 100 mL/min de uma mistura reacional conten do 30% H2, 1% CO, 1% O2 e He para balanço. E para identificar o efeito da presença H2O e CO2, incorporou-se 10% de H2O e 20% de CO2 a mistura anterior.

3. RESULTADOS E DISCUSSÃO

3.1. FLUORESCÊNCIA DE RAIOS-X E FISISSORÇÃO DE N2

Segundos os resultados listados na Tabela 1, as análises de fisissorção de N2 indicaram que o procedimento adotado no preparo dos catalisadores não provocou alterações significativas nas propriedades texturais do suporte.

Page 136: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

136

Já os resultados de fluorescência de raios-X demonstraram haver uma limitação no teor de ouro depositado no catalisador Au/CeO2, que alcançou 1,4%. Segundo alguns estudos (SOUZA et al., 2008), o teor obtido pelo método deposição-precipitação está vinculado ao pH adotado no método de preparação e o mesmo deve ter ocorrido neste caso. Acredita-se não ter sido percebido este efeito nos catalisadores bimetálicos devido à interação cobre-ouro, que favoreceu a deposição de ouro.

Tabela 1. Resultados de fluorescência de raios-X e fisissorção de N2.

Teor Nominal Teor Real Área BET

(m2/g)

Volume de poros

x10-3 (cm3/g)

Tamanho de poros

(Å) Au (%) Cu (%) Au (%) Cu (%)

0 0 0 0 11 29 103

0 1,5 0 1,4 13 34 109

2,5 0 1,4 0 10 27 101

2,5 1,0 2,2 0,8 11 25 98

2,5 1,5 2,5 1,4 13 34 104

2,5 4,0 2,5 3,7 12 28 100

3.2. DIFRAÇÃO DE RAIOS-X

Através dos resultados do teste de difração de raios-X, exibidos na figura 1, não foi constatada a presença de fase cristalina de ouro, nem de cobre nas amostras, tendo sido percebido claramente a fase cristalina de céria.

A impossibilidade de perceber formação de fase cristalina pode ter ocorrido pelo baixo teor de metal, ficando abaixo do limite de detecção (BAE at al., 2005) ou ainda pela formação de óxidos amorfos, seja devido ao pH adotado no preparo (WANG et al., 2007), seja pela ausência de calcinação (SCIRÈ et al., 2008).

Em todos os casos foram verificados os picos da CeO2 em 28,68°, 33,10°, 47,44°, 56,44°, 59,02°, 69,40°, 76,71°, 79,00° e 89,00°, re presentativos das formas (111), (200), (220), (311), (222), (400), (331), (420) e (333), respectivamente (FUENTES et al, 2008).

Figura 1. Difratograma dos catalisadores e do suporte.

3.3 REDUÇÃO A TEMPERATURA PROGRAMADA

O perfil de redução do suporte e dos catalisadores monometálicos apresentado na figura 2 exibiu para o suporte consumo de H2 a 520°C e 1000 °C que podem ser atribuídos à redução do óxido de cério superficial e do mássico (SANTOS, 2009).

Page 137: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

137

Para o catalisador 1,4%Cu/CeO2 verificaram-se quatro bandas de consumo de H2. O pico a 210°C corresponde à redução do Cu 2+ a Cu+, enquanto o pico a 260°C a redução do Cu+ a Cu0 (JUNG et al., 2004). O pico a 400°C corresponde ao óxido superficial de cério cuja redução foi catalisada para menores temperaturas (FUENTES et al, 2008) e por fim um a 1000°C correspondendo a céria mássica.

O catalisador 1,4%Au/CeO2 apresentou consumo de hidrogênio a 110°C, 300°C e a 1000°C, sendo a temperatura de 110°C atribuída à re dução do óxido Au2O3 (NERI et al., 1999). Na temperatura de 300°C ocorreu a redução do óxido de céria superficial, indicando que a presença de ouro fragiliza a ligação do oxigênio com a céria, melhorando a redutibilidade do catalisador e a 1000°C correspond endo a céria mássica.

Figura 2. TPR do suporte e catalisadores monometálicos.

O perfil de redução dos catalisadores bimetálicos, ilustrados pela figura 3, exibiu características similares com duas bandas de consumo de hidrogênio a 175°C e a 225°C, devido à redução dos óxidos de ouro e cobre, outra em 325-350°C referente ao óxido de cério superficial (com exceção do 2,5%Au-1,4%Cu/CeO2) e a 1000°C da redução da céria mássica. No caso do catalisador 2,5%Au-1,4%Cu/CeO2 não foi possível constatar a banda referente ao óxido de cério superficial, que possivelmente ocorreu simultaneamente à redução dos precursores da fase ativa.

Figura 3. TPR dos catalisadores bimetálicos.

3.4. ESPECTROSCOPIA COM REFLECTÂNCIA DIFUSA NO ULTRA-VIOLETA VISÍVEL

Page 138: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

138

Os espectros de DRS UV-Vis dos catalisadores monometálicos apresentados na figura 4 exibiram para o catalisador 1,4%Cu/CeO2 bandas a 360nm correspondente a “clusters” de (Cu-O-Cu)2+ altamente dispersos, a 450nm devido a Cu1+ formado pela redução parcial de Cu2+ e entre 600-800nm devido a transições d-d da espécie Cu2+ coordenado octaedricamente (PILLAI E DEEVI, 2006).

Figura 4. DRS UV-Vis dos catalisadores.

Enquanto para o catalisador 1,4%Au/CeO2, o espectro de DRS exibiu uma banda a 370nm referente a transferência de carga de Au3+ e Au+ com ligantes ou a transição de elétrons entre orbitais moleculares de “clusters” (Aun, n<10) e banda a 580nm atribuída à ressonância de plasmon de Au metálico, descrita como um conjunto de elétrons de condução em resposta a uma excitação ótica (CHEN E GAO, 2008).

Para os catalisadores bimetálicos, percebeu-se que os efeitos se combinaram, tornando-se difícil diferenciar as bandas do cobre e do ouro. Cabendo destacar, neste caso, o aparecimento de uma banda a 270 nm não percebida nos monometálicos e que segundo a literatura corresponde à transferência de carga Cu2+ ← O2- (MOZER et al., 2009).

3.5. OXIDAÇÃO SELETIVA DE CO

O teste catalítico apresentado na figuras 5 exibiu baixa conversão de CO para o suporte, cuja atividade foi desprezível. Todos os catalisadores atingiram conversão de CO acima de 94% na faixa de temperatura estudada.

Em baixas temperaturas, as seletividades foram muitas elevadas, mas as conversões foram baixas. As seletividades dos catalisadores bimetálicos foram próximas à apresentada pelo catalisador monometálico de cobre e o catalisador monometálico de ouro apresentou o pior resultado de conversão (94%) e de seletividade (54%), indicando a forte influência do cobre na reação, especialmente sobre a seletividade para CO2. Esta presença, no entanto, provocou um aumento da temperatura necessária para alcançar os valores máximos de conversão. Isto é, os catalisadores contendo ouro apresentaram suas conversões máximas em temperaturas inferiores à do catalisador contendo cobre.

Page 139: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

139

Figura 5. (a) conversão de CO, (b) conversão de O2 e (c) seletividade para CO2 na oxidação seletiva de CO. Mistura reacional: 30% H2; 1,0% O2; 1,0% CO; He para balanço. Vazão total: 100 mL/min;

200 mg de catalisador.

4. CONCLUSÕES

Os catalisadores foram preparados pelo método deposição-precipitação. Verificou-se a possibilidade de haver um limite máximo para o teor de Au depositado pelas condições adotadas, mas devido à interação Cu-Au houve o favorecimento da deposição de Au nos catalisadores bimetálicos. A analise de DRS UV-Vis exibiu uma banda de ressonância de plasmon no espectro, indicando a possibilidade de as partículas não terem ficado tão finamente divididas quanto desejado. Esta suposição, só poderia ser confirmada mediante uma análise de microscopia eletrônica de transmissão que não dispomos no momento. No catalisador de cobre, foi percebida a presença de espécie Cu2+ e Cu+ pelo resultado de TPR e de DRS UV-Vis, tendo este último mostrado ainda a presença de pequenos aglomerados de cobre. Não foi constatado, através do DRX, a formação de estruturas cristalinas nos catalisadores preparados, que se deve ao baixo teor, bem como a ausência de calcinação.

Todos os catalisadores preparados foram ativos para a reação de oxidação de CO, alcançando valores altos de conversão de CO e tendo a seletividade sido afetada principalmente pela presença de Cu.

Os catalisadores bimetálicos apresentaram um pequeno aumento da conversão, mas não na seletividade, indicando que o ouro não é o principal responsável pela seletividade. E o catalisador 2,5%Au-3,7%Cu/CeO2 apresentou uma pequena diminuição frente aos demais catalisadores bimetálicos, pelo excesso de cobre ter bloqueado os sítios de ouro.

Page 140: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

140

5. REFERÊNCIAS

AVGOUROPOULOS, G., el al. (2002). A comparative study of Pt/γ-Al2O3, Au/α-Fe2O3 and CuO-CeO2 catalyst for the selective oxidation of carbon monoxide in excess hydrogen. Catalysis Today. n. 75, p. 157-167.

BAE, C. M., KO, J. B. e KIM, D. H. (2005). Selective catalytic oxidation of carbon monoxide with carbon dioxide, water vapor and excess hydrogen on CuO-CeO2 mixed oxide catalysts. Catalysis Communications. n. 6, p. 507-511.

CHEN, Z. e GAO, Q. (2008). Enhanced carbon monoxide oxidation activity over gold-ceria nanocomposites. Applied Catalysis B: Environmental. n. 84, p. 790-796.

CHOUDHARY, T. V. e GOODMAN D. W. (2002). CO-free fuel processing for fuel cell applications. Catalysis Today. n. 77, p. 65-78.

DUDFIELD, C. D., CHEN, R. e ADCOCK, P. L. (2001). A carbon monoxide PROX reactor for PEM fuel cell automotive application. International Journal of Hydrogen Energy. n. 26, p. 763-775.

FUENTES, R. O., et al. (2008). Formation and Structural Properties of Ce-Zr Mixed Oxide Nanotubes. Chemistry of Materials. n. 20, p. 7356-7363.

HARUTA, M., et al. (1989). Gold catalysts prepared by coprecipitation for low-temperature oxidation of hydrogen and of carbon monoxide. Journal of Catalysis. n. 115, p. 301-309.

HARUTA, M., et al. (1993). Low-Temperature Oxidation of CO over Gold Supported on TiO2, α-Fe2O3, and Co3O4. Journal of Catalysis. n. 144, p. 175-192.

HARUTA, M., et al. (1997). Size- and support-dependency in the catalysis of gold. Catalysis Today. n. 36, p. 153-166.

HARUTA, M. e DATÉ, M. (2001). Advances in the catalysis of Au nanoparticles. Applied Catalysis A: General. n. 222, p. 427-436.

HUANG, A., et al. (2009). Preferential oxidation of carbon monoxide in excess hydrogen over platinum catalysts supported on different-pore-sized mesoporous silica. Applied Catalysis A: General. n. 365, p. 268-273.

JUNG, C. R., et al. (2004). Selective oxidation of CO over CuO-CeO2 catalyst: effect of calcinations temperature. Catalysis Today. n. 93-95, p. 183-190.

LÖFFLER, D. G., TAYLOR, K. e MASON, D. (2003). A light hidrocarbon fuel processor producing high-purity hydrogen. Journal of Power Sources. n. 117, p. 84-91.

LUENGNARUEMITCHAI, A., OSUWAN, S., GULARI, E. (2004). Selective catalytic oxidation of CO in the presence of H2 over gold catalyst. International Journal of Hydrogen Energy. n. 29, p. 429-435, 2004.

MIN, B. K. e FRIEND, C. M. (2007). Heterogeneous Gold-Based Catalysis for Green Chemistry: Low-Temperature CO Oxidation and Propene Oxidation. Chemical Reviews. n. 107, p. 2709-2724.

MOZER, T. S., et al. (2009). The effect of copper on the selective carbon monoxide oxidation over alumina supported gold catalysts.Journal of Power Sources. n. 187, p. 209-215.

NERI, G., et al. (1999). Au/iron oxide catalysts: temperature programmed reduction and X-ray diffraction characterization. Thermochimica Acta. n. 329, p. 39-46.

PETTERSSON, L. J. e WESTERHOLM, R. (2001). State of the art of multi-fuel reformers for fuel cell vehicles: problem identification and research needs. International Journal of Hydrogen Energy. n. 26, p. 243-264.

PILLAI, U. R. e DEEVI, S. (2006). Highly active gold-ceria catalyst for the room temperature oxidation of carbon monoxide. Applied Catalysis A: General. n. 299, p. 266-273, 2006.

Page 141: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

141

SANTOS, D. C. R. M. (2009). Efeito da adição de Y2O3 e CeO2 ao catalisador Ni/α-Al2O3 na reação de reforma autotérmica do metano. Tese de Doutorado. Universidade Federal Fluminense, Niterói.

SCIRÈ, S., et al. (2008). Selective oxidation of CO in H2-rich stream over gold/iron oxide: An insight on the effect of catalyst pretreatment. Journal of Molecular Catalysis A: Chemical. n. 284, p. 24-32.

SOUZA, K. R., et al. (2008). Preparing Au/ZnO by precipitation-deposition technique. Applied Catalysis A: General. Applied Catalysis A: General. n. 340, p. 133-139.

WANG, S.-P., et al. (2007). Synthesis characterization and catalytic activity of Au/Ce0,8Zr0,2O2 catalysts for CO oxidation. Journal of Molecular Catalysis A: Chemical. n. 272, p. 45-52.

Page 142: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

142

Energia limpa: a energia solar no aquecimento de ág ua 1João Carlos Curty Alves, 1 Fernando B. Mainier, 2Reinaldo C. de Souza, 1Henrique Henriques.

1 Escola de Engenharia - Universidade Federal Fluminense (UFF) - Niterói, RJ, Brasil, 2 Pontifícia Universidade Católica – Rio de Janeiro, RJ, Brasil

Email dos autores

[email protected]

[email protected]

[email protected]

[email protected]

RESUMO

Este artigo apresenta o resultado de pesquisa no Curso de Mestrado Profissionalizante da UFF – Universidade Federal Fluminense, analisando sistemas para aquecimento de água por energia solar com discussão dos conceitos de Eficiência Energética, discutindo a questão do Meio Ambiente e a viabilidade econômica da substituição dos chuveiros elétricos por sistemas solares em unidades da classe residencial.

As práticas de investimentos em Eficiência Energética devem constituir uma política abrangente preocupada com a preservação do Ecossistema, atrelado às questões do sistema elétrico e com a Matriz Energética.

Avalia a possibilidade de retirar cargas no horário de ponta do sistema elétrico e sua contribuição para o Meio Ambiente, questionando a necessidade da maior participação do governo nesse tipo de projeto, tanto no que diz respeito aos investimentos quanto à conscientização da população. Palavras-Chave: Meio Ambiente – Energia Elétrica –– Eficiência Energética – Energia Solar;

1. INTRODUÇÃO

Cada vez mais o ser humano depende da energia elétrica, pois ao mesmo tempo em que evolui o padrão de vida da humanidade, existe expressivo crescimento na oferta de bens que detêm a capacidade de “melhorar” sua condição de vida mas que implica no aumento da demanda de energia elétrica, qualquer que seja sua fonte de geração.

Após diversas crises energéticas e sérios problemas de impactos ambientais, a comunidade científica concluiu pela necessidade da geração de energia de forma distribuída e valorizou as fontes alternativas, conhecidas como energias limpas, em contraponto à visão reinante, até finais do século XX, do foco em grandes usinas geradoras, com produção centralizada, e grandes linhas de transmissão para transporte em corrente alternada, num conjunto de ações agressoras ao meio ambiente.

O crescimento de Produto Interno Bruto (PIB) e o crescimento do consumo de energia elétrica caminham associados, pois se estima que, para cada ponto percentual de crescimento do PIB, o país precisa aumentar a produção de energia em 3%, já que crescimento econômico compreende maior quantidade de produtos e serviços, demandando maior potência elétrica disponível. Ressalte-se que, quando há crescimento econômico, depois do aumento do consumo de alimentos, um dos primeiros segmentos que mais crescem é o de bens duráveis, representados pelos eletroeletrônicos, os quais, via de regra, fazem com que cresça o consumo de energia.

Particularizando o problema para o setor elétrico brasileiro, observa-se a sua inserção numa conjuntura energética global complexa onde, muito provavelmente, haverá

Page 143: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

143

períodos de grandes incertezas. O momento atual é particularmente instigante, pois apresenta dois desafios de grande ineditismo e extrema gravidade (D’ARAUJO, 2009):

• Dúvidas quanto ao horizonte de duração das reservas mundiais de petróleo.

• Alterações ambientais em escala planetária.

A política de conservação de energia, a busca da energia limpa e o aumento da eficiência energética, até agora pensados marginalmente, precisam fazer parte das políticas públicas analisada sob o paradigma da eficiência energética e preservação dos recursos naturais. É necessário reduzir a demanda de potência no horário de ponta do sistema elétrico, determinada fortemente pela carga dos chuveiros elétricos, com utilização do Sistema para Aquecimento de Água por Energia Solar.

2. A ENERGIA ELÉTRICA E O MEIO AMBIENTE

Em função dos recentes desastres ambientais ocorridos no Japão, aumenta a pressão de organismos ambientalistas contrariamente à permanência das Usinas Termonucleares, e a Europa movimenta-se no sentido de desativar usinas atômicas. Entretanto, dado o nível de dependência deste tipo de geração de energia, interromper a operação destas unidades não se faz factível em curto prazo, requerendo-se a busca de alternativas consistentes e duráveis a esta fonte energética.

Segundo Capra (2005), as alternativas mais desejáveis para o meio ambiente estão ainda num patamar distante daquilo que se imagina como ideal ou, se já descobertas, estão escondidas e proibidas de serem reveladas, face ao desequilíbrio que causariam na indústria mundial, principalmente a do petróleo e a automobilística. Contudo, segundo ele, o futuro da energia está calcado principalmente na extração do hidrogênio da molécula da água e a utilização desse gás como combustível, tecnologia absolutamente limpa, visto que sua combustão gera água.

Abordando as questões do hidrogênio, Fritjof Capra (2005) chama a atenção para o fato de que as células de combustível são caras e sua obtenção ainda não é fácil mas que o volume de produção, necessário, para fazer baixar os preços, virá do uso dessas células em edifícios, supondo que, enquanto não for possível um sistema de entrega residencial de hidrogênio, um processador de combustível extrairá o hidrogênio do gás natural e as redes de gás existentes estarão fornecendo também eletricidade.

Segundo cálculos de Lovins & Lovins (2001), a eletricidade gerada por essas células de combustível concorrerá facilmente com a gerada pelas usinas de carvão e nucleares, pois não somente terá um preço menor, como também economizará nos custos de transporte de eletricidade por longas linhas de transmissão, caracterizando-se desta forma em geração descentralizada, ou seja, produzida no próprio ponto de consumo.

3. CONSERVAÇÃO DE ENERGIA

Conservar energia é explorar os recursos naturais de forma racional, combatendo o desperdício, para assegurar a produção menos onerosa e mais limpa, com o objetivo de atenuar agressões ao ambiente. O processo de conservação de energia é a tradução do que se conhece como eficiência energética e consiste na aplicação de técnicas e recursos que permitam a obtenção de um mesmo serviço, resultado ou conforto, com menor dispêndio de energia. Estas ações consistem do que se chama usina virtual, porque a energia conservada permite gerar e transportar menores montantes de energia elétrica, contribuindo para a preservação do ambiente (LORA; TEIXEIRA, 2006).

Estudo da Empresa de Pesquisas Energéticas (EPE), intitulado “Consumo Final e Conservação de Energia Elétrica, baseado nas séries de informações do Boletim Energético Nacional (BEN), no período de 1970 a 2010, retrata evolução do consumo de energia elétrica no Brasil de 39,7 TWh, em 1970, para 420 TWh em 2010, crescendo a uma taxa

Page 144: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

média de 6,7% ao ano, sendo o energia na classe residencial

Cabe ao homem deste século, preservação do Meio Ambiente, com estratégias de fontes primárias de energiaenergias limpas como a eólica, a fotovoltaica eno Planejamento do Sistema Elétrico o de água e retirada da carga dos chuveiros elétricos (MARTON; CAMPOS, 2003).

4. PARTICIPAÇÃO DO CHUVEIRO

No ano de 2007, foi elaborada pesquisa pela ELETROBRAS/PROCEL, avaliação do Mercado de Eficiência Energética no Brasil e importantes, na utilização do aquecimento de ágdomicílios da região Sudeste aquecem a água do banho (PROCEL/ELETROBRAS, 2007).

No gráfico da Figura 1, é apresentaddos equipamentos dentro da carga residencialpresentes no consumo médio domiciliarenergia consumida nas residências

Figura 2 – Uso Final de Energia Elétrica no Setor Residencial

Aparecem ainda dentro da mesma pesquisa,

• O percentual das fontes utilizadas no aquecimento de água para banho, aparecendo a eletricidade próximo

• É predominante a residenciais, com pelo menos um chuveiro em

5. PROJETO AQUECIMENIMPLEMENTADO

Como resultado prático da Energia Solar em substituição a chuveiros elétricos, retrataEnergia e Serviços S/A, em pequeno Hospital da sua Área de Concessão, Eficiência Energética e por Nconsumidora não podem ser divulgados. das grandezas elétricas e apuração dos ganhos energéticos trazidos pelo Projeto.

A estratégia das medições foi dimplementação do projeto e após, dois momentos. As medições foram repetidasde 4,5 kW cada estavam em operação Aquecimento de Água por Energia Solar

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

média de 6,7% ao ano, sendo o chuveiro elétrico responsável por 26% do consumo de (ELETROBRAS/PROCEL, 2007).

abe ao homem deste século, entender o desenvolvimento e as vantagens dpreservação do Meio Ambiente, com estratégias de sustentáveis na utilização racional das fontes primárias de energia, através da eficiência energética. Necessário valorizar as

a eólica, a fotovoltaica e no futuro a célula combustível, no Planejamento do Sistema Elétrico o aproveitamento da Energia Solar, para aquecimento

retirada da carga dos chuveiros elétricos (MARTON; CAMPOS, 2003).

ICIPAÇÃO DO CHUVEIRO NO CONSUMO DE ENERGIA ELÉTRICA

No ano de 2007, foi elaborada pesquisa pela ELETROBRAS/PROCEL, avaliação do Mercado de Eficiência Energética no Brasil e o resultado trouxe informações

a utilização do aquecimento de água e ficou demonstrado que 97,7% dos domicílios da região Sudeste aquecem a água do banho (PROCEL/ELETROBRAS, 2007).

No gráfico da Figura 1, é apresentada a participação percentual dos equipamentos dentro da carga residencial, realçando os eletrodomésticos mais

no consumo médio domiciliar onde o chuveiro elétrico é responsável por 26% consumida nas residências (PROCEL/ELETROBRAS, 2007).

Uso Final de Energia Elétrica no Setor Residencial – Região Sudeste.

Aparecem ainda dentro da mesma pesquisa, informações importante

percentual das fontes utilizadas no aquecimento de água para banho, eletricidade próximo de 92% e a energia solar com menos de

É predominante a existência de chuveiros elétricos em domicílios pelo menos um chuveiro em 91% das residências.

5. PROJETO AQUECIMENTO DE ÁGUA POR ENERG

Como resultado prático da implantação de um Projeto de Aquecimento de Água por Energia Solar em substituição a chuveiros elétricos, retrata-se um investimento dEnergia e Serviços S/A, em pequeno Hospital da sua Área de Concessão,

or Normas Internas da Empresa, o nome e localização da unidade consumidora não podem ser divulgados. Pretende-se ressaltar a importância da medição das grandezas elétricas e apuração dos ganhos energéticos trazidos pelo Projeto.

as medições foi de avaliar o comportamento das cargas, previamente à implementação do projeto e após, avaliando requisitos de energia e potência elétrica nestes

As medições foram repetidas em 3 semanas distintas, enquanto m operação com nova medição, após instalaçã

Aquecimento de Água por Energia Solar, envolvendo todas as cargas

9 de outubro de 2011

144

chuveiro elétrico responsável por 26% do consumo de

o desenvolvimento e as vantagens da utilização racional das

Necessário valorizar as a célula combustível, considerando

aproveitamento da Energia Solar, para aquecimento retirada da carga dos chuveiros elétricos (MARTON; CAMPOS, 2003).

A ELÉTRICA

No ano de 2007, foi elaborada pesquisa pela ELETROBRAS/PROCEL, para resultado trouxe informações

icou demonstrado que 97,7% dos domicílios da região Sudeste aquecem a água do banho (PROCEL/ELETROBRAS, 2007).

percentual do consumo final eletrodomésticos mais

o chuveiro elétrico é responsável por 26% da

Região Sudeste.

importantes como:

percentual das fontes utilizadas no aquecimento de água para banho, com menos de 1%.

existência de chuveiros elétricos em domicílios

TO DE ÁGUA POR ENERGIA SOLAR

implantação de um Projeto de Aquecimento de Água por se um investimento da Ampla

Energia e Serviços S/A, em pequeno Hospital da sua Área de Concessão, no Programa de ormas Internas da Empresa, o nome e localização da unidade

se ressaltar a importância da medição das grandezas elétricas e apuração dos ganhos energéticos trazidos pelo Projeto.

e avaliar o comportamento das cargas, previamente à requisitos de energia e potência elétrica nestes em 3 semanas distintas, enquanto 9 chuveiros

ção do Sistema para todas as cargas a ele relacionadas

Page 145: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

como moto-bombas, quadros de comando eaquecimento da água em caso da fal

5.1 MEDIÇÕES - CHUVEIROS ELÉTRICOS INSTALADOS

As medições foram realizadas com medidores SAGA 1.000, providos de software que processa o registro de Demanda e os armazena em memória de massa. Os registros apresentados retratam a integralização minutos, cuja informação foi a base para o cálculo da energia consumida em kWh, nestes intervalos, totalizada para cada período de hora e nas 24 horas do dia. As medições preliminares à implementação do Projeto oca 14/03/2010 e de 22 a 28/03/2010.

5.2 TABULAÇÃO DE LEITURAS E GRÁFICOS DE MEDIÇÃO

Por meio das Figuras 4 e 5, apresentapotência em kW e do consumo de energia em kWh, acircuitos que supriam a carga dos chuveiros elétricos, previamente à instalação do Sistema para Aquecimento de Água por Energia Solar. As medições foram instaladas de forma que os medidores registrassem tão somente a cde que os resultados não fossem contaminados com outras cargas, a exemplo de tomadas ou de iluminação.

Figura 3 – Demandas Máximas

Figura 4 - Consumo Diário de Energia

Medições posteriores à implantação do Sistema para Aquecimento de Água por Energia Solar - Período de 17 a 24/04/2010:

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

bombas, quadros de comando e resistências de suporte e apoio para aquecimento da água em caso da falta de sol.

CHUVEIROS ELÉTRICOS INSTALADOS

As medições foram realizadas com medidores SAGA 1.000, providos de software que processa o registro de Demanda e os armazena em memória de massa. Os registros apresentados retratam a integralização dos valores de demanda em intervalos de 15 minutos, cuja informação foi a base para o cálculo da energia consumida em kWh, nestes intervalos, totalizada para cada período de hora e nas 24 horas do dia. As medições preliminares à implementação do Projeto ocorreram nas semanas de 22 a 28/02/2010, de 08 a 14/03/2010 e de 22 a 28/03/2010.

5.2 TABULAÇÃO DE LEITURAS E GRÁFICOS DE MEDIÇÃO

Por meio das Figuras 4 e 5, apresenta-se resultados de medições de demanda de potência em kW e do consumo de energia em kWh, apurados nas avaliações realizadas nos circuitos que supriam a carga dos chuveiros elétricos, previamente à instalação do Sistema para Aquecimento de Água por Energia Solar. As medições foram instaladas de forma que os medidores registrassem tão somente a carga requerida pelos chuveiros, com o cuidado de que os resultados não fossem contaminados com outras cargas, a exemplo de tomadas

Demandas Máximas – 3 semanas de avaliação.

Consumo Diário de Energia - 3 semanas de avaliação.

Medições posteriores à implantação do Sistema para Aquecimento de Água por Período de 17 a 24/04/2010:

9 de outubro de 2011

145

resistências de suporte e apoio para

As medições foram realizadas com medidores SAGA 1.000, providos de software que processa o registro de Demanda e os armazena em memória de massa. Os registros

dos valores de demanda em intervalos de 15 minutos, cuja informação foi a base para o cálculo da energia consumida em kWh, nestes intervalos, totalizada para cada período de hora e nas 24 horas do dia. As medições

orreram nas semanas de 22 a 28/02/2010, de 08

se resultados de medições de demanda de purados nas avaliações realizadas nos

circuitos que supriam a carga dos chuveiros elétricos, previamente à instalação do Sistema para Aquecimento de Água por Energia Solar. As medições foram instaladas de forma que

arga requerida pelos chuveiros, com o cuidado de que os resultados não fossem contaminados com outras cargas, a exemplo de tomadas

3 semanas de avaliação.

Medições posteriores à implantação do Sistema para Aquecimento de Água por

Page 146: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

Comparando-se as medições, pré e pósEnergética, pode-se observar que os montantes de demanda de potência (kW) e energia elétrica (kWh), requisitados pelo novo sistema para aquecimento de água, são significativamente menores. Aassim como as resistências de apoio dos

As variações apresentadas na curva de demandaretratam os níveis de utilização do Sistema para Aquecimostrando também os momentos em quemostrando a operação das bombas de circulação forçada e de prumada.consumo de energia, também houve redução. pois as cargas são pequenas, resistência de apoio.

Figura 5 - Demandas Máximas

Figura 6 - Consumo Diário de Energia

6. CONCLUSÃO

• A utilização de chuveiros elétricos traz efeitos maléficos para o sistema elétrico, uma carga que entra no horário da ponta, exigindo um sistema superdimensionado para pequeno período de consumo.

• Os sistemas para aquecimento de água por energia solar redfaturas de energia elétrica e desonera

0,5

1

1,5

2

Sábado Domingo

Re

gis

tro

s d

e D

em

an

da

-k

W

Demandas Máximas

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

se as medições, pré e pós-implementação das medidas de Eficiência se observar que os montantes de demanda de potência (kW) e energia

elétrica (kWh), requisitados pelo novo sistema para aquecimento de água, são As potências dos motores são pequenas (1/4 a 1

as resistências de apoio dos boilers.

presentadas na curva de demanda, demonstradas na Figura 6, retratam os níveis de utilização do Sistema para Aquecimento de Água por Energia Solar

os momentos em que foi acionado para consumo de água quenteas bombas de circulação forçada e de prumada.

energia, também houve redução. Os valores são significativamente menores, as cargas são pequenas, até porque, nesse período, não ocorreu

Demandas Máximas – Sistema com Energia Solar.

Consumo Diário de Energia – Sistema com Energia Sola

A utilização de chuveiros elétricos traz efeitos maléficos para o sistema elétrico, uma carga que entra no horário da ponta, exigindo um sistema superdimensionado para pequeno período de consumo.

Os sistemas para aquecimento de água por energia solar reddesoneram o sistema dos requisitos de demanda de potência.

Domingo Segunda Terça Quarta Quinta Sexta

Período de Avaliação

Demandas Máximas - Sistema com Energia Solar

9 de outubro de 2011

146

edidas de Eficiência se observar que os montantes de demanda de potência (kW) e energia

elétrica (kWh), requisitados pelo novo sistema para aquecimento de água, são (1/4 a 1/3 de HP),

, demonstradas na Figura 6, mento de Água por Energia Solar,

foi acionado para consumo de água quente, as bombas de circulação forçada e de prumada. Com relação ao

Os valores são significativamente menores, ocorreu entrada da

Sistema com Energia Solar.

Sistema com Energia Solar.

A utilização de chuveiros elétricos traz efeitos maléficos para o sistema elétrico, É uma carga que entra no horário da ponta, exigindo um sistema superdimensionado para

Os sistemas para aquecimento de água por energia solar reduzem o valor das requisitos de demanda de potência.

Sábado

Page 147: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

147

• Os sistemas para aquecimento de água por energia solar desempenham o papel de Usina Geradora virtual de energia, permitindo que a fonte energética, destinada a produzir o calor para aquecer a água, venha da natureza.

• Além dos ganhos ambientais, o projeto possibilitou redução do valor da conta de energia elétrica sendo possível a revisão do Contrato de Demanda junto à Empresa Distribuidora de Energia Elétrica.

• Trouxe ganhos para a Concessionária, porque a unidade passou a operar com melhor fator de carga, com a demanda média aproximando-se da demanda máxima.

REFERÊNCIAS

CAPRA, F. As Conexões Ocultas: ciência para uma vida sustentável. Tradução Marcelo Brandão Cipolla. São Paulo: Cultrix, 2005.

D’ARAUJO, R. P. O Setor Elétrico Brasileiro – uma aventura mercantil. Brasília: CONFEA, 2009.

EMPRESA DE PESQUISA ELÉTRICA. EPE. A questão socioambiental no planejamento da expansão da oferta de energia elétrica. Rio de Janeiro: EPE, 2006.

LORA, E. S.; TEIXEIRA, F. N. Conservação de Energia Eficiência Energética de Equipamentos e Instalações. Universidade Federal de Itajubá. Eletrobras/ PROCEL, 2006.

LOVINS, A.; LOVINS H. RMI Solutions. Official Report Informative of Rocky Mountain Institute, 2001.

MARTON M; CAMPOS C. Aquecimento de água por Energia Solar. Relatório Final de Instrumentação para o Ensino. UNICAMP; 2003.

INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA – IBGE. Contagem da População, 1996. Rio de Janeiro: IBGE, 1997, v.1: Resultados relativos a Sexo da População e Situação da Unidade Domiciliar, p. 23, tabela 6.

PROGRAMA NACIONAL DE CONSERVAÇÃO DE ENERGIA ELÉTRICA. PROCEL/ELETROBRAS. Relatório - Pesquisa de posse de Equipamentos e Hábitos de Uso: Região Sudeste - Ano Base 2005/2007 - Classe Residencial

Page 148: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

148

Engenharia química e mercado de trabalho: percepçõe s discentes

1Vicentina Lúcia da S. Cardoso, 2Fernando B. Mainier, 3Rosenir R. C. M. da Silva

1, 2, 3 Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected], [email protected], [email protected]

RESUMO

A universidade tem a responsabilidade social de gerar e disseminar conhecimento e novas tecnologias de forma a estimular a formação de profissionais qualificados e aptos a enfrentar o desafio de ingressar, com sucesso, num mercado de trabalho cada vez mais exigente. Nesse aspecto, a integração universidade/mercado de trabalho é fundamental. Na busca dessa integração o presente estudo tem o propósito de analisar e destacar, comparativamente, indicadores que permitam avaliar a expectativa e a percepção discente sobre o impacto do curso de graduação em Engenharia Química no perfil profissional. O estudo, primeiramente, aborda a problemática do ensino de engenharia no que tange a necessidade de sua constante adequação, tendo em vista a incorporação de métodos oriundos dos avanços tecnológicos e ao atendimento dos interesses do mercado. A seguir, tomando por base o primeiro semestre de 2011, foi desenvolvida a pesquisa empírica e a análise dos dados, a partir da aplicação de questionário envolvendo alunos ingressantes e concluintes. Os resultados indicaram que ambos os grupos apresentaram uma expectativa positiva sobre a influência do curso na sua formação profissional. As maiores discordâncias apresentadas ocorreram nos critérios relacionados ao desenvolvimento do perfil empreendedor e pesquisador, sugerindo que o estudo avalie futuramente o grau de importância desses critérios, para o referido curso.

Palavras-chave: Percepção. Discentes. Engenharia química. Mercado de trabalho.

1. INTRODUÇÃO

Segundo especialistas da área, a economia brasileira tem dado sinal de crescimento pautado em base mais sólida. A taxa de crescimento econômico mais elevada tem relação direta com um maior número de profissionais especializados e com a demanda da população por educação superior, cujo diploma universitário passa a ser símbolo de status, de oportunidade de emprego e de vida melhor. Historicamente, tem-se conhecimento da importância vital da engenharia para o desenvolvimento do Brasil. As atividades profissionais dos engenheiros, nos diversos ramos de atuação, tem propiciado a melhoria das condições de vida da população.

Nas últimas décadas, o avanço tecnológico afetou diretamente o profissional de engenharia que deve ser preparado para aplicar os conhecimentos científicos para o bem-estar da sociedade, com qualidade e custos apropriados (LONGO, 2001).

Hoje, quando se retoma a consciência nacional da necessidade de investir no crescimento, evidenciada pelos programas do governo federal, tais como, o Programa de Aceleração do Crescimento (PAC), de estratégias para zerar o déficit da habitação, o REUNI – Programa de Apoio a Planos de Reestruturação e Expansão das Universidades Federais, o investimento na infraestrutura para a realização da Copa do Mundo em 2014, as Olimpíadas de 2016 e a exploração do petróleo na camada do pré-sal, é preciso reconhecer o valor da contribuição da engenharia ao desenvolver projetos que ajudam a superar as

Page 149: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

149

dificuldades que possam impedir o surgimento de novos investimentos. A engenharia está relacionada a tudo o que se constrói neste País.

O desenvolvimento de um país perpassa pela engenharia e, a valorização dos seus profissionais deve passar pela excelência de sua formação. Dessa forma, o presente trabalho busca mapear as percepções do impacto do curso de graduação em Engenharia Química oferecido pela Universidade Federal Fluminense no desempenho profissional dos seus alunos, com o objetivo de contribuir com subsídios para ações que visem à elevação da qualidade do curso oferecido.

2. REVISÃO BIBILOGRÁFICA

“Um país para se desenvolver necessita de engenheiros”. Enquanto, por um lado, existe uma efetiva preocupação do Ministério da Educação (MEC) e das universidades com a formação acadêmica de seu corpo docente, exigindo como pré requisito o grau de mestre ou doutor para ministrar aulas na graduação, por outro, esse cuidado não é observado quando se trata de sua formação profissional, desvinculada da obrigatoriedade de possuir experiência em obras e projetos. Acrescenta-se, ainda, que esse descompasso do ensino da Engenharia com o mercado de trabalho no Brasil teve um aumento significativo com os avanços da ciência e de tecnologia, fazendo com que muitas empresas tenham dificuldades de contratar os recém-formados por não preencherem os requisitos necessários à função. (BOGOSSIAN, 2010)3.

A deficiência do sistema educativo tem colocado no mercado muitos profissionais sem habilidades e conhecimentos necessários para formular soluções criativas para os problemas que surgem no dia-a-dia, logo, o ensino de engenharia precisa ser reavaliado para corrigir estas carências (APARÍCIO e RUIZ-TERAN, 2007).

As escolas de ensino médio, por sua vez, também precisam estar em sintonia com as universidades para preparar melhor os alunos para a demanda tecnológica universitária. Por outro lado, as universidades precisam de apoio para oferecer aos alunos que chegam ao ensino superior, com um baixo nível de conhecimento tecnológico, uma estrutura favorável ao seu nivelamento (FILHO et al., 1991).

O ensino tradicional das engenharias precisa passar por mudanças em seu processo incorporando ao seu ensino a cultura de formação continuada, paralela à prática profissional. De fato, o engenheiro precisa se atualizar nas áreas da profissão na qual ele está atuando e se desenvolvendo, sob a pena de ser excluído do mercado de trabalho em curto prazo. A informática e o desenvolvimento das novas tecnologias são fundamentais nesse processo de busca constante de conhecimento (SILVA e CECÍLIO, 2007).

A discussão sobre como melhorar a educação de engenharia não se resume na questão de se eliminar as metodologias da educação tradicional, mas complementá-las com as metodologias inovadoras, a fim de tornar o profissional cada vez mais capacitado para enfrentar os desafios do mundo globalizado (APARICIO e RUIZ-TERAN, 2007).

Na medida em que não há o acompanhamento dos egressos de forma sistemática e consolidada, fica difícil avaliar se as Instituições de Ensino Superior estão cumprindo bem o seu papel de preparar o aluno para a realidade profissional. Esse monitoramento e a integração das empresas com as escolas são fundamentais para alavancar a qualidade do ensino (LOUSADA e MARTINS, 2003).

Atualmente, não se admite que o profissional tenha apenas habilidades manuais aliadas ao saber fazer; é necessário que sejam agregadas novas competências relacionadas à inovação, ao trabalho em equipe, à criatividade e à autonomia na tomada de decisões (SAMPAIO e GUIMARÃES, 2009). 3 Discurso feito por Francis Bogossian, presidente da Associação das Empresas de Engenharia - RJ, em 2010, In; XXXVIII Congresso Brasileiro de Educação em Engenharia. COBENGE, Fortaleza,CE.

Page 150: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

150

Hoje, faz-se necessário que o profissional tenha a capacidade de atuar em vários ramos dentro de sua especialidade profissional. Atributos como a capacidade de trabalhar em equipe, de se comunicar bem, de gerir e resolver conflitos passam a ser uma exigência do mercado e consequentemente um fator de empregabilidade (SILVA e CECÍLIO, 2007).

Estas constatações levam a refletir sobre o que é ensinado e o que é fundamental para que o futuro profissional tenha as habilidades e o conhecimento necessários para se manter no mercado de trabalho, na área de formação.

É, pois, imprescindível saber o que os egressos pensam a respeito da formação recebida para que as mudanças necessárias sejam realizadas, periodicamente, no sistema de ensino ofertado (LOUSADA e MARTINS, 2003).

Especificamente, em relação ao curso de engenharia química, nota-se uma demanda crescente, motivada principalmente pela futura instalação do novo Complexo Petroquímico em Itaboraí, no Rio de Janeiro, e pelo aumento expressivo da produção de petróleo no Brasil, a principal matéria-prima para a indústria química. Altos investimentos vêm sendo realizados no país para projeto e construção de novas refinarias e indústrias que atendam ao mercado interno, altamente deficitário e importador de produtos químicos. Com este cenário, é importante capacitar o futuro engenheiro químico para assumir as novas funções decorrentes dessa reestruturação do país.

Neste contexto, encontra-se o problema central do presente trabalho, que visa mapear as percepções discentes do curso de graduação em Engenharia Química, oferecido pela Universidade Federal Fluminense, no que tange ao impacto do curso na sua inserção no mercado de trabalho.

3. METODOLOGIA EMPREGADA

A metodologia aplicada no presente trabalho consiste em avaliar a percepção discente sobre os impactos do curso de graduação em engenharia química na inserção no mercado de trabalho.

Para tal foram adotados critérios a serem avaliados, ao todo 19 (dezenove), que buscam mapear essas percepções, e aplicados na forma de questionários com questões afirmativas, a 2 (dois) grupos de alunos, “Ingressantes”, alunos do primeiro período do curso, e “Concluintes”, alunos formandos, isto é, alunos que estão cursando o último período do curso. Em relação ao primeiro grupo, pretende-se verificar as expectativas que o motivaram a escolher o curso e, em relação ao segundo grupo, verificar sua percepção sobre o atendimento das expectativas e a percepção sobre a sua inserção no mercado de trabalho, à luz de sua vivência e formação acadêmica adquiridas durante a realização do curso.

A Tabela 1 apresenta o questionário aplicado aos dois grupos, onde serão captados os graus de intensidade com que ocorrem as percepções dos discentes, segundo a relação de critérios utilizados e a escala de julgamento. Os questionários foram aplicados aos alunos ingressantes e concluintes, no primeiro semestre de 2011.

O conjunto de critérios foi definido usando-se como referência os trabalhos de Oliveira et al., que aplicaram metodologia semelhante para avaliar o impacto de um mestrado profissional da Área de Engenharia III da CAPES no desempenho de seus egressos, e de Luiz et al., que aplicaram metodologia similar ao curso de graduação em engenharia de produção. Além destes, foram acrescidos alguns critérios identificados como adequados ao campo da pesquisa em questão, considerando os objetivos do presente trabalho (OLIVEIRA et al., 2008; LUIZ et al., 2009).

Page 151: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

151

Tabela 1 - Critérios adotados para avaliação da percepção discente sobre o impacto do curso de graduação em engenharia química

Critério Descrição do Critério Grau de Impacto

C1. Empregabilidade Impacto na empregabilidade do aluno, facilidade de obtenção de estágios

2 1 0 -1 -2 N

C2. Nível de resposta às expectativas do mercado

Adequação da grade curricular às reais necessidades encontradas nas

empresas 2 1 0 -1 -2 N

C3. Remuneração Impacto na remuneração do estudante 2 1 0 -1 -2 N

C4. Perfil empreendedor

Impacto no perfil de empreendedor do estudante

2 1 0 -1 -2 N

C5. Relacionamento interpessoal

Impacto na capacidade do aluno para trabalhar em equipe

2 1 0 -1 -2 N

C6. Perfil pesquisador Impacto no perfil de pesquisador do aluno

2 1 0 -1 -2 N

C7. Perfil negociador Impacto no perfil de negociador do estudante

2 1 0 -1 -2 N

C8. Auto-estima Impacto na auto-estima do aluno 2 1 0 -1 -2 N

C9. Formação continuada

Impacto na capacidade de buscar aprendizado contínuo

2 1 0 -1 -2 N

C10. Vida pessoal Impacto na vida pessoal do graduando 2 1 0 -1 -2 N

C11. Desinibição Influência no desembaraço do graduando

2 1 0 -1 -2 N

C12. Capacidade de expressão

Impacto na capacidade de expressão do aluno (exposição de idéias, sugestões,

conceitos, conclusões, etc.) 2 1 0 -1 -2 N

C13. Senso crítico Impacto na capacidade do aluno em estabelecer críticas

2 1 0 -1 -2 N

C14. Absorção de críticas

Impacto na capacidade do graduando em receber críticas 2 1 0 -1 -2 N

C15. Solução de problemas

Impacto na capacidade do aluno em resolver problemas

2 1 0 -1 -2 N

C16. Uso de método organizado

Impacto na capacidade de aplicação de métodos organizados

2 1 0 -1 -2 N

C17. Princípios éticos e responsabilidade social

Impacto na formação de princípios éticos e de responsabilidade social 2 1 0 -1 -2 N

C18. Responsabilidade ambiental

Impacto na capacidade de implementar ações de preservação e controle

ambiental 2 1 0 -1 -2 N

C19. Programas e projetos acadêmicos (monitoria, iniciação científica, empresa júnior, etc.)

Impacto na formação profissional 2 1 0 -1 -2 N

Para avaliação dos critérios, adotou-se uma escala de julgamento de acordo com os trabalhos de Likert (1932 apud Oliveira, 2008) e de Miller (1954 apud Oliveira, 2008). Nesta escala, que varia de -2 a 2, em números inteiros, considera-se a seguinte ordem de valores:

Page 152: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

152

2 (Muito Bom), 1 (Bom), 0 (Regular), -1 (Ruim) e -2 (Muito Ruim). Introduziu-se na escala a letra “N” para os alunos que não se sentem aptos a opinar ou a julgar o item respectivo, de forma a evitar dúvida que a pontuação central poderia causar.

4. RESULTADOS

A Figura 1 apresenta as médias dos valores obtidos em todos os critérios ao aplicarem-se os questionários para ambos os grupos. Pode-se verificar que em geral a expectativa dos ingressantes é bem maior do que a dos concluintes, representando uma média geral de 1,45 para os ingressantes e 0,91 para os concluintes. Esta observação se verificou em todos os critérios, exceto no critério C10 (Impacto na vida pessoal).

A melhor expectativa foi verificada no critério C19 na percepção dos ingressantes, seguida dos critérios C1 e C2, significando que os ingressantes possuem uma boa expectativa, enquanto alunos da universidade, evidenciando a perspectiva de participação em programas acadêmicos, e possuem uma boa expectativa após o término do curso de que serão bem absorvidos pelo mercado de trabalho.

Já, para os concluintes, o critério C9 foi o que forneceu a melhor expectativa, indicando a conscientização deste grupo para a necessidade da formação continuada, seguido dos critérios C5 e C14, que fazem referência ao relacionamento interpessoal e a absorção de críticas, que são critérios mais relacionados ao desenvolvimento pessoal do que à formação acadêmica propriamente dita.

Pode-se observar também que os ingressantes possuem menores expectativas em relação aos critérios C7, C10 e C11, que estão relacionados ao perfil negociador, vida pessoal e desinibição. Já os concluintes possuem menores expectativas em relação aos critérios C4, C6 e C7, referentes ao perfil empreendedor, perfil pesquisador e perfil negociador.

Figura 1 – Expectativas quanto ao impacto do curso no desempenho profissional

Apesar de haver concordância no critério C7 (perfil negociador), de menores expectativas, para ambos os grupos é importante ressaltar que houve uma diferença marcante nos valores médios obtidos neste critério. Enquanto os ingressantes apresentam um valor médio de 1,08, considerado bom na escala de valores, os concluintes apresentaram neste critério o menor valor dentre todos, de 0,33, considerado entre regular e ruim. Houve, portanto, uma queda pronunciada na expectativa para a aquisição de um perfil negociador. Luiz et al. (2009), ao analisar o curso de graduação em engenharia de

0,00

0,20

0,40

0,60

0,80

1,00

1,20

1,40

1,60

1,80

2,00

Esc

ala

de v

alor

es

Critérios

Ingressantes

Concluintes

Page 153: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

153

produção, também observaram menores expectativas dos concluintes para os critérios C6 e C7. Cabe ressaltar, no entanto, que por ser outra especialidade o grau de importância de cada critério pode ser relativamente diferente. A avaliação da importância dos critérios será verificada em trabalhos futuros.

As maiores discordâncias entre os valores médios apresentados pelos dois grupos, com diferenças superiores a 1,0, estão relacionadas aos critérios C4 (perfil empreendedor) e C6 (perfil pesquisador). De certa forma, esses resultados sugerem que se dê maior atenção ao desenvolvimento dessas habilidades, pois o inicialmente esperado não foi atendido.

As Figuras 2 e 3 apresentam as distribuições de valores atribuídos aos critérios C1 (Empregabilidade) e C2 (Impacto de respostas às expectativas do mercado). Observa-se que no critério C1 ocorre uma modificação nas percepções de empregabilidade, enquanto o grupo 1 apresenta uma expectativa muito boa com 70,7% das respostas, o grupo 2 apresenta uma distribuição diferenciada com um aumento considerável de expectativa regular de 33,3%. Quanto ao critério C2, também se observa uma variação distinta, com deslocamento do máximo de expectativa muito boa (grupo 1) para boa (grupo 2).

Figura 2. Distribuição de valores atribuídos ao critério C1

Figura 3. Distribuição de valores atribuídos ao critério C2

0,0%

20,0%

40,0%

60,0%

80,0%

Re

spo

sta

(%

)

Escala de valores

C1. Empregabilidade

Ingressantes

Concluintes

0,0%

20,0%

40,0%

60,0%

80,0%

Re

spo

sta

(%

)

Escala de valores

C2. Nível de resposta às expectativas do mercado

Ingressantes

Concluintes

Page 154: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

154

5. CONCLUSÃO

A partir dos resultados obtidos, pôde-se verificar que em geral a expectativa dos ingressantes é bem maior do que a dos concluintes em relação ao impacto do curso de engenharia química no perfil profissional.

O grupo dos ingressantes apresenta boas expectativas em relação à empregabilidade e uma expectativa ainda maior no que tange a sua participação em programas e projetos acadêmicos oferecidos pela universidade de forma a impactar positivamente a sua formação profissional.

O grupo dos concluintes teve uma percepção maior no critério relacionado à capacidade de busca de aprendizagem contínua, como um ponto importante a ser considerado no desempenho profissional, seguido do critério que avaliou a capacidade de relacionamento interpessoal do aluno como, por exemplo, capacidade para trabalhar em equipe.

Os critérios considerados mais críticos pelos concluintes foram os C4, C6 e C7, referentes ao perfil empreendedor, pesquisador e negociador, respectivamente, sendo que os critérios C4 e C6 foram os que provocaram maiores discordâncias entre os ingressantes e os concluintes.

6. REFERÊNCIAS

APARICIO, A. C. e RUIZ-TERAN, A. M. (2007). Tradition and Innovation in Teaching Structural Design in Civil Engineering. Journal of Professional issues in Engineering Education and Practice © ASCE, 340-349.

FILHO, M. B. C.; SILVA, A. M. L.; SCHILLING, M. T. (1991). Power engineering education in Brazil: Prospects and related issues. IEEE Transactions on Power Systems, 6 (3), 1286-1292.

LONGO, W. P. (2001). Reengenharia do ensino de engenharia: uma necessidade. Disponível em: http://www.engenharia2001.org.br/programas/971207ªdoc. Acesso: 10/09/2010.

LOUSADA, A. C. Z. e MARTINS, G. A. (2003). Egressos como fonte de informação à gestão dos cursos de Ciências Contábeis. 3o Congresso USP de Controladoria e Contabilidade, São Paulo.

LUIZ, N. M.; COSTA, A. F.; COSTA, H. G. (2009). Influência da graduação em engenharia de produção no perfil dos seus egressos: percepções discentes. Revista da Avaliação da Educação Superior (Campinas), vol.15 (1) Sorocaba.

OLIVEIRA, L. D.; COSTA, H. G.; GUTIERREZ, H. R. (2008). Impacto do mestrado profissional no desempenho dos seus egressos: modelo para mapeamento de percepções da empresa. XXVIII Encontro Nacional de Engenharia de Produção, Enegep.

SAMPAIO, B. e GUIMARÃES, J. (2009). Diferenças de eficiência entre ensino público e privado no Brasil. Economia Aplicada, vol.13 (1), Ribeirão.

SILVA, L. P. e CECÍLIO, S. (2007). The change in the model of formation of teaching engineering. Educação em Revista, (45), Belo Horizonte.

Page 155: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

155

Estado da arte de redes ópticas passivas 1Leandro Codeço de Alvarenga Prazeres, 1Paula Brandão Harboe, 2José Rodolfo Souza.

1Departamento de Engenharia de Telecomunicações - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

2Departamento de Eletrônica e Telecomunicações - Universidade do Estado do Rio de Janeiro

(UERJ) Rio de Janeiro, RJ, Brasil

[email protected], [email protected], [email protected]

RESUMO

Este trabalho apresenta uma revisão bibliográfica de redes ópticas passivas e discute o cenário atual de forma realista, incluindo tendências e previsões de mercado. As principais características de uma rede PON são destacadas e os padrões BPON, EPON e GPON são comparados. No final de 2009, estas soluções representavam, respectivamente, 5%, 55% e 21% do mercado mundial, e os especialistas acreditam que o padrão GPON será a principal tecnologia em 2013. O estudo mostra, também, que a instalação de redes PON cresce rapidamente, em particular na Ásia e nos Estados Unidos, com 74% e 15% das conexões, respectivamente. O mercado latino-americano possui apenas 0,02% de assinantes. A chamada era GigaPON (operação em taxa de 10 Gb/s e uso da tecnologia WDM) tem instalações previstas para 2012.

Palavras-Chave: Redes ópticas passivas (PON). Acesso banda larga. Última milha.

1. INTRODUÇÃO

Nos anos 90, o explosivo crescimento da Internet mudou as características das então estabelecidas redes de comunicação. A demanda por aplicações em banda larga − tais como: TV de alta definição (HDTV), vídeo sob demanda (VoD), videoconferência, transferência de imagens de alta resolução e entretenimento em tempo real − mostra que já vivemos a era da comunicação sem limites, sem fronteiras geográficas, atemporal, mas ainda com limitações de capacidade, em particular nas redes de acesso, que estabelecem conectividade entre uma central (provedores de serviço) e as dependências do assinante (usuário residencial ou corporativo).

Nos dias de hoje, as redes de acesso em banda larga instaladas são predominantemente baseadas na tecnologia DSL (Digital Subscriber Line) e na solução híbrida fibra-cabo coaxial (HFC – Hybrid Fiber-Coax), esta última usada pelas operadoras de TV a cabo. Entretanto, ambas as tecnologias apresentam limitações, pois utilizam infraestruturas originalmente desenvolvidas para transportar sinais de voz e vídeo analógico, respectivamente. Por exemplo, da central para o usuário (direção denominada descendente ou downstream), a tecnologia ADSL (Asymmetric DSL) é capaz de prover taxas de transmissão que variam de 1,5 a 8 Mb/s e, na direção contrária (ascendente ou upstream), entre 16 e 640 kb/s. A distância entre a central e o assinante DSL está limitada a poucos quilômetros, devido às elevadas perdas nos ruidosos cabos metálicos. A tecnologia ADSL2+ suporta taxa de transmissão de 20 Mb/s e o recente padrão VDSL (Very-high-bit-rate DSL), taxa de 50 Mb/s, descendente, mas com limitações de distância bem mais severas, de até 500 m. Por sua vez, redes CATV oferecem serviços de Internet através de canais RF dedicados, utilizando cabos coaxiais, também com perdas elevadas, e inadequados para o modelo bidirecional das redes de dados. Em um futuro próximo, as redes de acesso deverão ser capazes de garantir larguras de banda da ordem de 100 Mb/s, simétricas, para alcançar requisitos de qualidade de serviço (QoS). Especialistas estimam, ainda, que 50% do

Page 156: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

156

faturamento das grandes companhias telefônicas serão baseados em serviços de vídeo, em face da difusão das tecnologias IPTV e HDTV (KEISER, 2006).

Neste cenário, outras tecnologias de acesso em banda larga, com ou sem fio, vêm sendo propostas e investigadas e incluem: sistemas WiMax (ANDREWS et al., 2007), idealmente capazes de prover conectividade de até 70 Mb/s por distâncias em torno de 50 km; enlaces ópticos no espaço livre (FSO – Free Space Optics) (HARBOE E SOUZA, 2004), de fácil instalação e baixo custo e, mais recentemente, redes ópticas passivas (PON – Passive Optical Network). Em particular, as redes ópticas de acesso em banda larga têm despertado grande atenção da indústria e comunidade científica, por seu enorme potencial em reduzir o estrangulamento (ou gargalo) de banda na última milha, aliado ao baixo custo. Um outro fator importante é que, nas tecnologias competidoras, a largura de banda oferecida decresce com o aumento da distância, limitação que não ocorre em PONs. Em uma PON, não há dispositivos ativos entre a central e o assinante, apenas componentes passivos são utilizados para a transmissão do sinal. Dessa forma, não há necessidade do uso de esquemas de alimentação elétrica e gerenciamento nos cabos, o que acelera a introdução de novos serviços e reduz custos de um modo geral. De fato, esta foi a grande motivação para o desenvolvimento da primeira geração de redes ópticas passivas (fgPON – first generation PON), então denominada TDM-PON.

Este trabalho apresenta uma revisão bibliográfica de redes ópticas passivas, e discute o cenário atual de forma realista, incluindo tendências e previsões de mercado. A Seção 2 apresenta as principais características de uma rede PON e ilustra a arquitetura básica e os componentes da rede. A Seção 3 descreve e compara os padrões BPON, EPON e GPON. A Seção 4 enfoca o estado da arte de instalações de redes TDM-PON em diversas partes do mundo e apresenta estimativas de médio prazo. A Seção 5 apresenta as conclusões do trabalho e indica a evolução e o futuro de redes PON. A Seção 6 lista as principais referências bibliográficas.

2. REDE PON: CARACTERÍSTICAS E ARQUITETURA

Uma rede PON estabelece a conexão entre uma central e um conjunto de assinantes, utilizando uma arquitetura ponto-multiponto (P2MP). A central pode estar localizada, por exemplo, em um anel metropolitano. Para distinguir as direções de fluxo de tráfego, o termo descendente (downstream) se refere às transmissões da central para os assinantes e o termo ascendente (upstream), ao fluxo na direção contrária.

Na direção descendente, voz e dados são combinados e enviados no comprimento de onda de 1490 nm; na direção ascendente, o tráfego é feito em 1310 nm. Serviços de vídeo são disponibilizados apenas na descendente, no comprimento de onda de 1550 nm. Usualmente, para reduzir custos, uma única fibra óptica monomodo é usada para a transmissão bidirecional e os canais são multiplexados utilizando a tecnologia WDM. A divisão da potência incidente é feita por um divisor óptico 1:N, localizado a cerca de 10 km da central ou de 1 km dos assinantes. A extensão máxima de uma rede óptica passiva tradicional (distância entre a central e o assinante) é de 20 km (LIN, 2006). A rede inclui alguns módulos ativos, que consistem em um terminal de linha óptico (OLT – Optical Line Terminal) e em terminais de rede ópticos (ONT – Optical Network Terminal), localizados, respectivamente, na central e nas dependências do usuário. Estes módulos possuem um par transmissor/ receptor, onde são realizadas as conversões eletroópticas. O termo unidade de rede óptica (ONU – Optical Network Unit) é comumente usado para designar que a fibra termina nas proximidades das residências ou empresas e que é necessário algum outro meio de transmissão, por exemplo, cabo coaxial ou par trançado, para estabelecer a conexão com o assinante. A arquitetura básica e simplificada de uma rede PON típica é ilustrada na Figura 1.

Page 157: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

157

Figura 5. Arquitetura básica de uma rede PON.

Existem diversas maneiras de realizar uma rede PON. A aplicação da tecnologia PON para prover conectividade em banda larga na rede de acesso é comumente chamada FTTx (fiber-to-the-x). A letra x indica quão próxima a fibra óptica está do assinante. O termo geral, mais popular, e por isso utilizado neste trabalho, é FTTP (fiber-to-the-premises). Redes FTTP permitem, também, que provedores de serviço diversifiquem suas atividades, que se estendem da comunicação ao entretenimento e informação, e aumentem seu faturamento. Em uma rede PON, a topologia em árvore mostrada na Figura 1 é a precursora e a mais típica, embora as topologias em barramento e em anel também sejam possíveis. Usualmente, um OLT é projetado para controlar várias redes PON.

3. CONSÓRCIO FSAN E OS PADRÕES PON

O consórcio FSAN (Full-Service Access Network), formado em 1995 e hoje composto pelos maiores provedores de serviço de todo o mundo, tem como principal objetivo estabelecer padrões para redes de acesso óptico em banda larga, levando em conta a diversidade geográfica, infraestrutura de redes já instaladas, aspectos de regulamentação das telecomunicações em diferentes países, e visando acelerar a instalação comercial de PONs. Na época da formação do grupo, o protocolo ATM era a mais conhecida e promissora tecnologia de transporte e sinalização. Um conjunto de especificações técnicas foi produzido e submetido ao ITU-T, que aprovou em 1998 a recomendação ITU-T G.983.1, resultando nas primeiras redes PON baseadas em ATM (APON), com taxa simétrica (direções descendente e ascendente) de 155 Mb/s. O entusiasmo inicial, no entanto, foi dominado por um mercado potencialmente limitado. Para se tornar competitiva do ponto de vista econômico, uma rede PON deve possuir um número suficiente de assinantes para compartilhar os elevados custos associados à óptica.

Seguidos esforços do comitê FSAN e sua interação com outros órgãos normativos – ITU-T, ETSI, ANSI – permitiram o desenvolvimento de novos esquemas de redes TDM-PON: BPON (Broadband PON), EPON (Ethernet PON) e GPON (Gigabit PON) (KEISER, 2006), (WADA et al., 2009). A diferença fundamental entre os padrões está nos protocolos de transmissão empregados, o que determina, em parte, o desempenho da rede.

O padrão BPON recebeu sua última revisão em 2005 e está descrito na série de recomendações ITU-T G.983.1-8. O padrão APON é hoje um subconjunto desta categoria, que também utiliza a tecnologia ATM, em taxas máximas de 1,2 Gb/s (descendente) e 622 Mb/s (ascendente). Redes BPON foram instaladas no Japão e nos Estados Unidos, no início de 2001.

O padrão EPON , aprovado em 2004 e descrito nas recomendações IEEE 802.3ah EFM, encapsula e transporta dados utilizando o formato Ethernet, simplificando o transporte de pacotes IP e a interoperabilidade com redes LAN e MAN instaladas. Redes EPON −

Page 158: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

158

também denominadas GEPON (padrão IEEE 802.3z) − têm taxa de transmissão simétrica máxima de 1,2 Gb/s e foram instaladas, principalmente, na Ásia. Uma alternativa ao uso do padrão EPON são as redes Ethernet ponto-a-ponto (EP2P – Ethernet point to point), com fibras ópticas dedicadas e operando em taxas de até 100 Mb/s. Embora possuam arquitetura simples, redes P2P têm custo elevado, pois requerem maior número de transceptores. Redes EP2P estão descritas na recomendação ITU-T G.985 (2003).

O padrão GPON (Gigabit PON), descrito na família de recomendações ITU-T G.984.1-4 (2003), utiliza um método de encapsulamento genérico (GEM) de pacotes e, portanto, tem arquitetura mais versátil, capaz de suportar tráfegos ATM e Ethernet. GPON provê serviço triple-play, e opera com taxas de transmissão mais elevadas – 2,5 Gb/s (descendente) e 1,25 Gb/s (ascendente). O padrão GPON é a principal escolha na América do Norte, Europa e Oriente Médio.

Em 2008, as tecnologias BPON, EPON, EP2P e GPON representavam, respectivamente, 9%, 60%, 14% e 17% do mercado mundial. No final de 2009, estes números passaram a 5%, 55%, 19% e 21% (The FTTH Prism, 2010). A adoção quase que exclusiva do padrão EPON em países asiáticos justifica sua maior popularidade, embora já se observe um crescimento da tecnologia GPON, motivado pelo anúncio de diversos testes-piloto e pela falta de interoperabilidade entre equipamentos EPON de diferentes fabricantes. Na América do Norte e Europa, há uma migração do padrão BPON para o padrão GPON. No Brasil, os investimentos estão concentrados no padrão GPON. Os especialistas acreditam que o padrão GPON será a principal tecnologia em 2013. O crescimento do padrão EP2P é marginal, devido ao seu alto custo. A maior parte dos adeptos está nos Estados Unidos, e também na França, Itália e Suécia (IDATE, 2011), (Sterlite Optical Technologies Ltd., 2007).

4. INSTALAÇÕES FTTP NO MUNDO

Muitos acreditaram que redes FTTP seriam instaladas em larga escala e em diversas partes do mundo, simplesmente porque a fibra óptica oferece banda quase “ilimitada” quando comparada com tecnologias competidoras e, portanto, maiores oportunidades de serviço. Entretanto, especialistas concordam que custos atuais, assim como retorno de investimentos e projeções de faturamento em médio prazo efetivamente determinam o ritmo das instalações. Um estudo recente mostrou que o custo de equipamentos está em queda, atualmente em torno de 800 dólares por residência, mas os custos de construção permanecem elevados, podendo variar entre 300 − 7000 dólares/residência, considerando o melhor e o pior cenários, respectivamente (Sterlite Optical Technologies Ltd., 2007).

Após mais de uma década de testes e experimentos, a fibra na rede de acesso está se tornando uma realidade, com significativo amadurecimento da tecnologia e crescimento das instalações. Em meados de 2010, havia cerca de 44 milhões de assinantes FTTP em todo o mundo, de um total de 120 milhões de domicílios com cabeamento óptico (home passed). Estima-se que o número total de conexões supere os 150 milhões em 2014.

Naturalmente, a taxa de crescimento depende de cada mercado nacional – suas características intrínsecas e de seus investidores e políticas de regulamentação – e cria um cenário de desequilíbrio entre regiões e países. Nos dias de hoje, os mercados asiático e norte-americano representam, respectivamente, 74% e 15% das conexões, enquanto o mercado latino-americano possui apenas 0,02% de assinantes. As seis primeiras economias globalmente classificadas são: Japão, Coréia do Sul, Estados Unidos, Taiwan, Rússia e China (IDATE, 2011).

A Ásia é líder em instalações, com previsão de 85 milhões de domicílios conectados no final de 2013. Nas Américas, estima-se que este número alcance 23 milhões, a maioria nos Estados Unidos, enquanto Europa, Oriente Médio e África (EMEA – Europe, Middle East, Africa), juntos, deverão ter em torno de 24 milhões de assinantes residenciais, com

Page 159: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

159

significativas variações neste território. Acredita-se que, nas próximas duas décadas, a transição do cobre para a fibra na rede de acesso estará completa. A aceleração das instalações se deve, em grande parte, à elevada densidade demográfica, mas também aos investimentos realizados por companhias locais. De acordo com estudo efetuado por IDATE Consulting & Research, em junho de 2010, a NTT possuía em torno de 14 milhões de assinantes FTTP, e China Telecom e China Unicom, em torno de doze e seis milhões, respectivamente. O mesmo estudo mostrou que, na Coréia do Sul, Japão e Hong Kong, o acesso com fibra óptica já supera as tecnologias DSL e modem a cabo. Os correspondentes percentuais são de 63%, 56% e 38% (IDATE, 2011).

Na América do Norte, os Estados Unidos lideram as instalações FTTH, com investimentos maciços das companhias Verizon e AT&T. Em 2010, o país ocupava a terceira posição mundial, com 6,7 milhões de assinantes, atrás apenas do Japão e da Coréia do Sul. No Canadá, a companhia Bell Alliants planeja ter 600 mil assinantes FTTP em 2012. Por sua vez, o acesso óptico no mercado sul-americano é praticamente inexistente, necessitando ainda de amadurecimento da tecnologia. México iniciou investimentos básicos neste ano de 2011 e, Brasil e Chile deverão fazê-los em médio prazo.

Na Europa, as conexões em banda larga ainda são, em sua maioria, do tipo DSL. Os indicadores mostram, por um lado pessimista que, as aplicações ainda não requerem conexão à fibra e, por um lado otimista que, o número de domicílios com cabeamento óptico (home passed) cresce. Em 2010, o acesso óptico na Europa era inferior a 10%, com destaques para França, Holanda, Alemanha e Suíça.

Um marcador importante é a taxa de penetração da tecnologia FTTP, que se refere à porcentagem dos domicílios com cabeamento óptico que efetivamente assinam o serviço. O termo “fiber maturity“ (amadurecimento da utilização da fibra na rede de acesso) corresponde a uma taxa de penetração de 20% (EFFENBERGER, 2007). Em 2010, esta taxa era de 39%, 33% e 17%, para Japão, Estados Unidos e Europa, respectivamente. As projeções indicam que, até o final de 2015, Suécia, Dinamarca, Franca e Portugal, por exemplo, alcançarão “fiber maturity” (penetração de 20%), enquanto Itália, Espanha e Alemanha, dentre outros países, permanecerão com taxa de penetração inferior a 10%. De acordo com (The FTTH Prism, 2010), a taxa de penetração no mercado latino-americano (LATAM), considerando seis economias, era de 13% e, especificamente no Brasil, de 11,6%.

5. CONCLUSÕES

Este trabalho discutiu a evolução de redes ópticas passivas, suas características fundamentais, padrões e órgãos normativos. No final de 2009, as soluções propostas – BPON, EPON e GPON – representavam, respectivamente, 5%, 55% e 21% do mercado mundial e os especialistas acreditam que o padrão GPON será a principal tecnologia em 2013. O cenário investigado mostrou significativo amadurecimento da tecnologia e crescimento das instalações, em particular na Ásia e nos Estados Unidos, com 74% e 15% das conexões, respectivamente. O mercado latino-americano possui apenas 0,02% de assinantes.

Embora redes PON comerciais ainda estejam em pleno desenvolvimento, já se investigam, na indústria e em universidades, melhorias no desempenho destas redes, que envolvem aumentos na taxa de transmissão, comprimento do enlace e número de derivações (razão de divisão 1:N). Em médio prazo, projetos flexíveis e compatíveis com as redes TDM-PON já instaladas tornam-se necessários. Em 2008, dois grupos de trabalho – IEEE e FSAN/ITU-T – iniciaram estudos de redes PON em taxas de 10 Gb/s, então denominadas ngPON (next-generation PON). Em 2009, o IEEE concluiu e aprovou a recomendação IEEE 802.3av, para operação em 10 Gb/s, como uma simples extensão da tecnologia EPON. Por sua vez, FSAN/ITU-T aprovou, em 2010, uma série de padrões baseados na tecnologia GPON. A combinação de fatores tais como aumento da largura de

Page 160: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

160

banda, competição de mercado, maturidade da indústria e redução de custos deu início à era GigaPON, com instalações previstas para 2012. Uma outra fase do trabalho, referida como ng2PON (ou simplesmente WDM-PON), prevê o uso das tecnologias WDM e OCDMA. A padronização deve começar em 2013 e as correspondentes instalações estão previstas para 2017, portanto uma atividade de longo prazo. A implementação dos novos sistemas e redes deverá ser acompanhada, é claro, por uma evolução na tecnologia de dispositivos (LI, 2010).

6. REFERÊNCIAS

ANDREWS, J. G.; GHOSH A.; MUHAMED R. (2007). Fundamentals of WiMAX: Understanding Broadband Wireless Networking. Prentice Hall Commun. Engineering and Emerging Tech. Series.

EFFENBERGER F. J. (2007). PON as a driver for optical components. in 8th Int’l Workshop on Optical Networking Technologies, Globecom’07.

HARBOE, P. B.; SOUZA, J. R. (2004). Free Space Optical Communication: a Feasibility Study for Deployment in Brazil. Journal of Microwaves and Optoelectronics, vol. 3 (4), 58-66.

IDATE Consulting & Research. FTTX 2011: Markets & Trends Facts & Figures. www.idate-research.com, visitado em 01/08/2011.

KEISER, G. (2006). FTTX Concepts and Applications. Wiley-Interscience Publication, John Wiley & Sons Inc., New Jersey 293p.

LI, A. (2010). 10G PON: steady steps towards commercial use. In www.huawei.com/en/static/hw-076445.pdf, visitado em 01/08/2011.

LIN, C. (2006). Broadband Optical Access Networks and Fiber-to-the-Home. John Wiley & Sons Inc.

Sterlite Optical Technologies Ltd. (2007). FTTH Market Forecast & Technology Trends. Fiber. In www.sterlitetechnologies.com, visitado em 01/08/2011.

The FTTH Prism (2010). vol. 7 (2).

WADA, K. S.; PARK; YSHIKAWA, Y. (2009). Si Photonics and Fiber to the Home. Proceedings of the IEEE, vol. 97 (7), 1329-1336.

Page 161: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

161

Estado da arte dos sistemas de controle de tráfego aéreo por radiodifusão

Leonardo da Silva Paiva

Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil.

[email protected]

RESUMO

Este artigo descreve o Sistema de Vigilância Dependente Automática por Radiodifusão (Automatic Dependent Surveillance Broadcast - ADS-B), que é uma nova tecnologia para controle de tráfego aéreo, atualmente implantada em alguns países e futuramente no Brasil, e que tem como meta o aperfeiçoamento do tráfego aéreo, evitando conflitos e permitindo o gerenciamento eficaz do espaço aéreo.

Palavras-Chave: Sistemas ADS-B. Vigilância Automática. Controle de Tráfego Aéreo.

1. INTRODUÇÃO

O ADS-B é uma tecnologia de controle de tráfego aéreo em que a aeronave fornece, automaticamente, através de um enlace de dados, informações provenientes dos sistemas de navegação e de posicionamento que estão a bordo da aeronave, incluindo a sua identificação e outros dados adicionais de relevância. A maior parte das aeronaves já está equipada com um sistema de gerenciamento de vôo capaz de guiá-las ao longo dos pontos de referência da rota pré-programada pelo piloto, assim o princípio do ADS-B é tornar estas informações automaticamente disponíveis por radiodifusão (THALES ATM GmbH 2010), podendo ser recebidas e processadas por outra aeronave e/ou sistemas em solo. É, portanto, uma tecnologia que utiliza a radiodifusão do posicionamento da aeronave como base para a vigilância. As aeronaves (ou veículos) equipadas com transponders ADS-B difundem mensagens ADS continuamente a partir do sistema de gerenciamento de vôo a bordo, utilizando-se de um canal rádio. A partir destas mensagens, é possível extrair, com precisão, diversas informações, como por exemplo, a posição, a altitude, a velocidade e a identificação da aeronave, de maneira semelhante ao radar secundário, utilizado nos sistemas atuais, porém de forma mais detalhada e a um custo muito menor. Tal tecnologia oferece, ainda, outras vantagens como maiores taxas de renovação das mensagens e o potencial de transmitir outros dados a partir dos sistemas a bordo da aeronave, como a atualização das condições de tempo local (condições climáticas) e a intenção de curso da aeronave, além de dados referentes à aviônica a bordo.

A estação ADS-B em solo, por sua vez, recebe as mensagens ADS transmitidas, por radiodifusão, pelas aeronaves e as encaminham ao Centro de Controle de Tráfego Aéreo. Tais estações, também possuem a capacidade de difundir, no sentido inverso, mensagens ADS que serão recebidas pelas aeronaves devidamente equipadas. Estas poderão visualizar não somente as aeronaves com aviônica ADS-B, como também as demais aeronaves, desprovidas de tal tecnologia, e que foram detectadas pelo radar. Informações meteorológicas e situacionais sobre o espaço aéreo sobrevoado também poderão ser difundidas, completando assim o cenário de informações a serem visualizadas pelo piloto no CDTI, mostrado adiante. A Figura 1 exemplifica o Sistema ADS-B.

Page 162: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

162

Figura 1. Vigilância Dependente Automática por Radiodifusão.

Um sistema ADS (SUDARSHAN, 2003) é formado por seis grandes elementos, que estão intimamente ligados: a interface com o piloto; a aviônica; o enlace de dados; a automação do controle de tráfego aéreo e a interface com o controlador.

Para trafegar as mensagens ADS-B, as três tecnologias de enlaces de dados, que servirão como meio de comunicação, são: Universal Access Transceiver (UAT); Very High Frequency Data Link (VDL) mode 4 e 1090 MHz Extended Squitter (Mode S Data Link). A Organização de Aviação Civil Internacional (OACI) recomenda o uso desta última como a tecnologia de enlace de dados a ser adotada internacionalmente. As outras duas tecnologias poderão ter aplicações apenas regionais.

Quanto às mensagens ADS, estas podem ser definidas como blocos de dados, modulados através da técnica PPM (Pulse Position Modulation), contendo as seguintes informações:

• Mensagem ADS básica (latitude, longitude, altitude, horário e figura de mérito);

• Vetor em solo (velocidade em solo e taxa de subida e descida);

• Vetor aéreo (velocidade e taxa de subida e descida);

• Perfil projetado (próximo ponto de referência, altitude e hora estimadas até o próximo ponto de referência, etc.);

• Informação meteorológica (velocidade e direção do vento, temperatura e turbulência).

Sob o ponto de vista do meio, as aplicações ADS-B podem ser feitas de três maneiras: ar-ar, ar-terra e terra-terra.

Sob o ponto de vista do sentido do tráfego das informações, as aplicações ADS-B podem ser definidas como: ADS-B Out, onde as mensagens ADS são difundidas da aeronave para outros usuários e ADS-B In, onde as mensagens ADS são recebidas pela aeronave, provenientes de outros usuários.

Rede de dados

SSR

Radar

Meteorológico

ADS-B Sem ADS-B

GNSS: GPS, GLONAS e GALILEO

Page 163: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

163

O ADS-B possui aplicações no gerenciamento do controle de tráfego aéreo em rota, com alcance típico de 250 MN (Milhas Náuticas), em área terminal e em superfícies de aeroportos, não só para aeronaves, como também para veículos automotivos de apoio em solo.

2. BENEFÍCIOS DA TECNOLOGIA ADS-B

Os principais benefícios do ADS-B estão relacionados com as aplicações de vigilância. Assim, no cockpit da aeronave os pilotos poderão visualizar a situação aérea ao seu redor, através do CDTI4, como mostra a Figura 2. Esta facilidade de visualização permite ao piloto realizar, com maior segurança, procedimentos tais como (THALES, 2009): manobras em fila, procedimentos de decolagem em fila, manutenção da posição relativa à outra aeronave, e a utilização aprimorada da tecnologia anti-colisão (ACAS5) em aeronaves, devidamente equipadas. Além disso, as estações em solo permitirão: separação em áreas sem cobertura radar; melhoramento das operações na superfície aeroportuária (inclusive sob condições de baixa visibilidade); redução e maior flexibilidade nos requisitos de separação entre aeronaves e detecção; e resolução de conflitos de maneira aprimorada.

Figura 2 - Cockpit Display of Traffic Information – CDTI.

Adicionalmente, podem ser citados outros benefícios, tais como: redução no custo de infraestrutura para a implantação como, também, para a manutenção de um sistema ADS-B, quando em comparação a uma estação radar; maior precisão, aproximadamente, de 3 m; maior taxa de renovação das informações, no caso do posicionamento do alvo, tipicamente, são enviadas 2 mensagens por segundo, enquanto que as estações radar possuem taxas de renovação que variam de 4 a 12 s; cobertura de todo o espaço aéreo e redução do tempo de vôo, proporcionando economia de combustível e consequente diminuição do impacto ambiental.

3. ENLACE DE DADOS ADS-B

3.1 UNIVERSAL ACCESS TRANSCEIVER – UAT (978 MHZ)

O Transceptor de Acesso Universal (UAT) é especificamente designado para atender ao ADS-B. Possui menor custo e maior capacidade de uplink do que o 1090ES. Para evitar o congestionamento de frequência, que está presente na banda VHF, o UAT opera na faixa de 960 – 1215 MHz.

3.2 VERY HIGH FREQUENCY DATA LINK – VDL MODE 4

É um enlace de dados que utiliza uma ou mais freqüências de VHF para a transmissão. Utiliza o protocolo STDMA6, que permite ser auto-organizável, ou seja, não há 4 CDTI – Cockpit Display of Traffic Information: É um visor genérico que fornece informações de vigilância ao piloto, incluindo a própria posição da aeronave. Adicionalmente, é possível visualizar as condições climáticas, o terreno, a estrutura do espaço aéreo, obstruções, mapas detalhados dos aeroportos e outras informações relevantes a quaisquer fases do vôo. 5 ACAS – Anti Collision Avoidance System: Sistema de prevenção contra colisões não intencionais com outras aeronaves, obstáculos ou o solo. 6 STDMA – Self-Organized Time Division Multiple Access

Page 164: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

164

a necessidade de uma estação principal e é melhor utilizável para transmissões de mensagens curtas entre um grande número de usuários.

3.3 1090 MHZ EXTENDED SQUITTER (MODE S DATA LINK)

O SSR (Radar Secundário de Vigilância) Modo S é a última geração de sistema desenvolvido para vigilância, a partir de radares secundários. As frequências de operação são 1030 MHz para o enlace terra-ar e 1090 MHz, para o enlace ar-terra.

Assim, o Extended Squitter é uma aplicação adicional ao sistema Modo S, designado para suportar o ADS-B, que também permitirá um melhoramento do sistema contra colisões (ACAS). Consiste em um conjunto de mensagens, que fornece informações a respeito da posição da aeronave, velocidade e identificação, entre outras.

4. APLICAÇÕES ADS-B

4.1 APLICAÇÕES AR-AR

Ao receber a mensagem ADS-B, o piloto da aeronave de fato visualiza outras aeronaves em sua vizinhança. Através do CDTI esta facilidade é eletronicamente apresentada, permitindo operações mais seguras e mais eficientes.

4.2 APLICAÇÕES AR-TERRA

O ADS-B fornece dados de vigilância aos Centros de Controle de Tráfego Aéreo em solo. Estas informações são utilizadas para o estabelecimento do gerenciamento do tráfego aéreo. No sentido inverso, terra-ar, as estações em solo fornecem às aeronaves, devidamente equipadas, informações a respeito da situação aérea local, por radiodifusão. Estas informações são classificadas em dois tipos de serviços, sendo eles:

TRAFFIC INFORMATION SERVICES – TIS-B

Os serviços de informação de tráfego por radiodifusão fornecem às aeronaves, devidamente equipadas, o cenário situacional de todo o tráfego aéreo conhecido pelo Centro de Controle. Este serviço é de suma importância para um enlace ADS-B em um espaço aéreo, em que nem todas as aeronaves estão transmitindo informações ADS. Através deste serviço é possível visualizar no cockpit da aeronave, através do CDTI, tanto as aeronaves que não transmitem informações ADS-B e que foram detectadas pelo radar, como também, as aeronaves que transmitem tais informações, porém utilizam outro tipo de enlace de dados. As informações de tráfego aéreo dos enlaces de subida TIS-B são resultantes de diversas fontes de vigilância, tais como: estações radar, (primárias ou secundárias), sistemas de multilateração e diferentes enlaces ADS-B (UAT, VDL Mode 4 ou Extended Squitter Mode S).

FLIGHT INFORMATION SERVICES – FIS-B

Os serviços de informações de vôo fornecem dados climáticos em texto e gráficos, como por exemplo, NOTAMs7, ATIS8, e informações semelhantes. O FIS-B é inerentemente diferente do ADS-B, uma vez que a fonte de dados é externa, ou seja, as informações fornecidas não são provenientes das aeronaves e, além disso, possui requisitos de desempenho diferenciados, como a periodicidade da radiodifusão. Os enlaces Extended Squitter Mode S não possuem suporte a este serviço.

7 NOTAM - Notice to Airmen / Notice to All Members: O NOTAM serve para alertar os pilotos de aeronaves sobre qualquer perigo de rota ou local específico. 8 ATIS - Automatic Terminal Information Service: É um serviço de informações automático, que é transmitido por cada terminal, a partir de uma gravação reproduzida continuamente, cujo conteúdo é de interesse dos pilotos que ali desejam pousar.

Page 165: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

165

Nas aplicações ar-ar e ar-terra, identificam-se duas tecnologias complementares, relacionadas com o sentido de tráfego das informações: ADS-B Out e ADS-B In. Em uma transmissão ADS-B Out, uma aeronave transmite, periodicamente, mensagens ADS, sem o conhecimento de quais Centros ou outros veículos poderão recebê-las, conforme é mostrado na Figura 3(a).

No caso do ADS-B In, como mostra a Figura 3(b), a mensagem ADS-B é recebida pela aeronave, processada e apresentada no cockpit. É importante ressaltar que, as aeronaves podem ser equipadas com o ADS-B Out sem a obrigatoriedade de serem equipadas com o ADS-B In.

Figura 3 - (a) ADS-B OUT, (b) ADS-B IN (ITT, 2009).

4.1 APLICAÇÕES TERRA-TERRA

A vigilância ADS-B pode ser empregada tanto em aeronaves em solo como, também, em veículos automotivos, desde que equipados. Assim, aeronaves e veículos, por radiodifusão, enviam mensagens contendo posição, velocidade e sua identificação, entre outras informações, às estações em solo, localizadas no entorno do aeroporto. Estas informações são transmitidas aos Centros de Controle e ao Centro de Facilidades do aeroporto. Assim, a vigilância da superfície aeroportuária é aprimorada com a implantação dos enlaces ADS-B e, consequentemente, é possível experimentar uma maior segurança e eficiência nas operações de superfície, sejam quais forem as condições climáticas.

5. CONCLUSÕES

Em função dos diversos benefícios que podem ser alcançados com a implantação de um Sistema ADS-B, os órgãos e administrações de aviação em todo o mundo estão desenvolvendo projetos pioneiros ou em conjunto com empresas e universidades, de modo a atender a crescente demanda do mercado de aviação civil, com eficiência. Tal tecnologia é uma mudança de paradigma e requer esforços de todos os envolvidos, ou seja, dos órgãos e administrações de aviação e das empresas aéreas, que serão responsáveis pela modernização da aviônica a bordo de suas aeronaves. Os principais beneficiários, além dos citados anteriormente, serão os passageiros, que poderão contar com serviços mais seguros, rápidos, pontuais e de qualidade.

6. REFERÊNCIAS

ERA. Multilateration Executive Reference Guide, www.multilateration.com, p. 6-7.

ITT (2009). ITT CNS / ATM Seminar 2009 – Brazil, Rio de Janeiro.

RTCA/DO-260 (2000).

RTCA/DO-260A, Change 1 (2006).

RTCA/DO-260A, Change 2 (2006).

SUDARSHAN, H.V. (2003). Seamless Sky. Ashgate Publishing Limited, England, p. 01-12 e 8-178.

Page 166: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

166

THALES ATM GmbH (2010). ADS-B - Automatic Dependent Surveillance Broadcast. AS68x Family and LCMS/RCMS. Technical Manual: Description, Operation and Maintenance, Germany, p. 1-2.

THALES (2009). ADS-B (Automatic Dependent Surveillance Broadcast), Rio de Janeiro.

Page 167: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

167

Estimação de parâmetros elétricos de um motor de indução trifásico utilizando algoritmos genéticos

Alex Palma Francisco Coelho, Vitor Hugo Ferreira e Márcio Zamboti Fortes

Engenharia Elétrica Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected], [email protected] e [email protected]

RESUMO

Este artigo apresenta um método de estimação dos parâmetros elétricos do circuito equivalente de um motor de indução trifásico, utilizando algoritmos genéticos. O método foi aplicado em um modelo de motor de indução trifásico simulado no ambiente “Simulink” do “software” MatLab®. A metodologia consiste na minimização de uma função objetivo representando o erro de estimação de corrente utilizando como método de minimização os algoritmos genéticos. A curva de corrente estatórica em função do escorregamento, obtida durante a simulação, será utilizada para estimação dos parâmetros elétricos do circuito equivalente do motor simulado. Serão utilizados dois modelos teóricos de circuito equivalente monofásico (CHAPMAN, 2005) e (WILDI, 2002). Objetiva-se encontrar a melhor estimativa da curva de corrente em função do escorregamento para cada um dos modelos utilizados e determinar qual destes modelos melhor representa o motor simulado.

Palavras-Chave: Algoritmos genéticos. Estimação de parâmetros. Motor de indução trifásico. Inteligência Computacional. Máquinas elétricas.

1. INTRODUÇÃO

O motor de indução trifásico (MIT) é um dos tipos de motores mais utilizados na indústria, devido ao seu baixo custo de fabricação e manutenção, baixo peso e robustez. Por longo período de tempo, o motor de indução foi utilizado somente em acionamentos de cargas cujas variações de velocidade não causariam impactos significativos no processo de fabricação ou atividade em que eram empregados. Isto se deve, em especial, a característica conjugado eletromecânico em função do escorregamento dos MIT´s. Para tensão e freqüência constantes, variações nas cargas acionadas pelo eixo do motor provocam variações da velocidade de rotação do deste mesmo eixo. Com os avanços nas áreas de eletrônica de potência e de controle superou-se este contratempo através da utilização de dispositivos eletrônicos que permitem que os MIT´s operem com controle de velocidade preciso. Tais dispositivos, como os conversores “AC-AC” fizeram com que os MIT´s substituíssem os motores de corrente contínua, cujos custos de manutenção, de fabricação e peso são mais elevados que os do MIT. Para a estabilidade e precisão do sistema de controle do MIT é necessário o conhecimento do modelo do motor controlado e, conseqüentemente, os valores dos parâmetros elétricos e mecânicos envolvidos.

Os parâmetros elétricos e mecânicos de um motor podem variar com a temperatura ambiente, lubrificação dos mancais, transitórios eletromagnéticos, transitórios mecânicos entre outros (BISHOP, 1990). Ou seja, necessita-se de uma forma para atualizar de maneira contínua os parâmetros eletromecânicos do motor para a estabilidade e precisão do sistema de controle. Este artigo propõe um método para estimação destes parâmetros através da utilização de um algoritmo genético (AG). Neste aborda-se somente os parâmetros elétricos, como as resistências e impedâncias dos enrolamentos deixando de lado, portanto, os parâmetros mecânicos.

Os AG´s são métodos matemáticos que se baseiam na teoria da evolução das espécies e em mimetismos biológicos, como cruzamento, elitismo e mutações. Os AG´s fazem parte de um conjunto maior de algoritmos chamados algoritmos evolutivos.

Page 168: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

168

2. ALGORITMO PROPOSTO

O algoritmo proposto para a solução do problema esta ilustrado na figura 1. Após a simulação do MIT, os dados são ordenados e apresentados aos modelos de circuito equivalente monofásico cujos parâmetros são gerados através do bloco AG. O bloco Modelo do MIT sintetiza uma curva de corrente estimada 89:;< em função do escorregamento ; para cada indivíduo gerado no bloco AG. Estas curvas são comparadas com a curva (89=:> × ; ) através de uma função objetivo, implementada através dos blocos aritméticos. A função objetivo é definida como

@ = A BCD:E89:;< − 89=:>FGH + C8=E89:;< − 89=:>FGHI. (1)

Figura 7. Algoritmo de estimação de parâmetros

2. RESULTADOS OBTIDOS

2.1 MOTOR SIMULADO

As características do MIT simulado estão representadas na Tabela 1.

Tabela 1. Características do motor simulado

Característica Valor

Tensão de linha (JKK) 460 V

Potência nominal 5 HP

Freqüência nominal 60 Hz

Número de pólos 4

Velocidade nominal 1780 rpm

I 1med

Page 169: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

169

2.2. ESTIMAÇÃO DAS CURVAS DE CORRENTE NO ESTATOR

As curvas de corrente estatórica 89:;<; geradas pelo algoritmo de estimação podem ser vistas e comparadas com a curva de corrente estatórica simulada 89; na Figura 2 e Figura 3, onde, na Figura 2 são apresentados os resultados obtidos com o modelo (CHAPMAN, 2005) e na Figura 3 são apresentados os valores obtidos com o modelo (WILDI, 2002), respectivamente.

Figura 8. Curva de corrente estatórica com modelo (CHAPMAN, 2005).

2.3. ESTIMAÇÃO DAS CURVAS DE CONJUGADO ELETROMECÂNICO

As curvas de conjugado eletromecânico L9:;<; geradas pelo algoritmo de estimação podem ser vistas e comparadas com a curva de conjugado eletromecânico simulada L9; na Figura 4 e Figura 5, onde, na Figura 4 são apresentados os resultados obtidos com o modelo (CHAPMAN, 2005) e na Figura 5 são apresentados os valores obtidos com o modelo (WILDI, 2002), respectivamente.

Figura 9. Curva de corrente estatórica com modelo (WILDI, 2002).

0

10

20

30

40

50

60

70

00,20,40,60,81

Co

rre

nte

(A

)

Escorregamento s

Motor 3~ 460V 60Hz 5 HP usando modelo Chapman (Corrente x escorregamento)

I1 (A) I1 est.(A)

0

10

20

30

40

50

60

70

00,20,40,60,81

Co

rre

nte

(A

)

Escorregamento s

Motor 3~ 460V 60Hz 5 HP usando modeloWildi (Corrente x escorregamento)

I1 (A) I1 est.(A)

Page 170: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

170

Figura 10. Curva de conjugado eletromecânico com modelo (CHAPMAN, 2005).

Figura 11. Curva de conjugado eletromecânico com modelo (WILDI, 2002).

2.3. PARÂMETROS ESTIMADOS E COMPARAÇÃO COM OS PARÂMETROS TEÓRICOS

Os principais resultados obtidos da execução do algoritmo de estimação são os parâmetros elétricos estimados utilizando dois modelos distintos. As Tabelas 2 e 3 apresentam os valores obtidos através de cada um destes modelos e os compara com os parâmetros teóricos utilizados na simulação do MIT.

Tabela 2. Resultados obtidos utilizando-se o modelo (CHAPMAN, 2005).

MΩ MΩ NH NH NPH MQΩ Fitness

Melhor indivíduo 1,12496 1,07754 0,00611 0,00585 0,20416 6472,986

Valores médios 1,12496 1,09128 0,00483 0,00724 0,20544 - 6472,986

Desvio padrão 0 0,023035 0,002171 0,002321 0,002171 - 0

Valores 1,11500 1,08300 0,00597 0,00597 0,20370 - -

0

20

40

60

80

100

120

140

00,20,40,60,81

To

rqu

e (

N.m

)

Escorregamento s

Motor 3~ 460V 60Hz 5 HP usando modelo Chapman (Torque x escorregamento)

Te est. (N.m) Te (N.m)

0

20

40

60

80

100

120

140

00,20,40,60,81

To

rqu

e (

N.m

)

Escorregamento s

Motor 3~ 460V 60Hz 5 HP usando modeloWildi (Torque x escorregamento)

Te est. (N.m) Te (N.m)

Page 171: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

171

de referência

Erro absoluto 0,00996 0,00828 0,00114 0,00724 0,0046 - -

Tabela 3. Resultados obtidos utilizando-se o modelo (WILDI, 2002).

MΩ MΩ NH NH NPH MQΩ Fitness

Melhor indivíduo 1,24636 1,12565 0,00677 0,00554 0,23800 - 6552,343

Valores médios 1,24636 1,12565 0,00639 0,00586 0,23800 - 6552,343

Desvio padrão 0 0 0,001919 0,001919 0 0

Valores de

referência 1,11500 1,08300 0,00597 0,00597 0,20370 - -

Erro absoluto

0,13136 0,04265 0,00042 0,00011 0,0343 - -

3. CONCLUSÃO

Neste artigo demonstrou-se um método para determinação de parâmetros elétricos de um motor de indução trifásico utilizando-se algoritmos genéticos. Uma simulação de um motor de indução trifásico de 5 HP foi utilizada para geração dos dados para teste do algoritmo de estimação. Os resultados deste teste demonstraram que o algoritmo obteve êxito na estimação das curvas de corrente estatórica 89 e conjugado eletromecânico L. Os erros obtidos na estimação dos parâmetros podem ser verificados nas Tabelas 2 e 3 do item 2.3. Para o caso particular deste motor simulado, o modelo que obteve melhor ajuste foi o modelo (CHAPMAN, 2005). Este resultado pode ser verificado comparando-se os valores da coluna “Fitness” das Tabelas 2 e 3.

4. REFERÊNCIAS

ALONGE, F., et al. (1998). Parameter Identification of Induction Motor Model Using Genetic Algorithms. IEE Proc. Control Theory Appl. 6, 1998, Vol. 145, University of Palermo, Viale delle Scienze, Palermo, Italy: IEEE, 1997.

BISHOP, Richard R.; RICHARDS, Gill G. (1990). Identifying Induction Machine Pameters Using A Genetic Optimization Algorithm.. New Orleans, Luisiana: University of New Orleans, IEEE.

Page 172: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

172

CHAPMAN, Stephen J. (2005). Electric machinery fundamentals / Stephen Chapman. 4th Ed. New York: McGrawHill.

FERREIRA, Vitor Hugo. (2010). Notas de aula: Inteligência computacional, UFF, Niterói, RJ, Brasil.

FUCHS, Eward F. Power quality in power systems and electrical Machinery/ Eward F. Fuchs. Burlington: Elsevier, 2008.

IEEE. (1991). STD 112: Standard Test Procedure for Polyphase Induction Motors and Generators. New York: IEEE.

KAMPISIOS, Konstantinos, et al. (2008). Identification of Induction Machine Electrical Parameters using Genetic Algorithms Optimization. University Of Nottingham Nottingham: NG7 2RD, UK, IEEE.

RUSSELL, Stuart J, NORVIG, Peter. (2003). Artificial Intelligence A modern approach. UpperSaddle River, New Jersey: Prentice Hall.

TRENTIN, Andrew, et al. (2006). A New Method for Induction Motors Parameters Estimation Using Genetic Algorithms and Transient Speed measurements. University of Nottingham, Nottingham, NG7 2RD, UK, IEEE.

WILDI, Theodore. (2002). Electrical machines, drives and power systems / Theodore Wildi, 5th Ed. New Jersey: Prentice Hall.

Page 173: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

173

Fortaleza fora dos trilhos.

Juscelino Chaves Sales, Clint Walton Siebra .

Faculdade de Engenharia - Universidade Estadual Vale do Acaraú (UVA) Sobral, CE, Brasil.

[email protected] [email protected]

RESUMO

Sabemos que o transporte ferroviário é o modal de transporte mais barato e que todas as grandes cidades do mundo possuem seu Metrô. O presente trabalho mostra a situação em que se encontra a construção do Metrô de Fortaleza e dos trens urbanos. Uma situação em que a falácia do custo perdido pode ser vista na obra do Metrô que está sendo construído na cidade de Fortaleza, inclusive por falta de um cronograma financeiro na elaboração no projeto executivo, acarretando constantes paralisações da obra, evidentemente aliadas ao arrocho fiscal dos governos. Essas paralisações e o andamento em passos de tartaruga dessa obra preocupam a população por causa dos enormes prejuízos e a péssima mobilidade urbana da cidade. O custo dessa obra tem-se elevado exorbitantemente. Analisando particularmente o Metrô de Fortaleza, obra iniciada desde 1999 podemos concluir que é uma obra problemática. Para que se tenha idéia, aconteceram erros estruturantes no projeto.

Palavras-Chave: metrô, mobilidade urbana, estação.

1. INTRODUÇÃO

Qual o futuro da mobilidade urbana, num país que tem mais de 82% de seus habitantes morando em cidades?

As regiões metropolitanas precisam ganhar melhor mobilidade e, portanto, mais eficiência, por uma razão estratégica: constitui de uma extensa rede mundial de relações, importante para o desenvolvimento do País. O metrô aparece como uma das grandes soluções para melhorar o tráfego urbano nas grandes cidades como Fortaleza.

Em oito anos, o crescimento da frota de veículos foi de 60%, enquanto a frota do transporte coletivo aumentou 7,3%. E o tamanho das vias permaneceu o mesmo. É às 18 horas, que o trânsito para em algumas áreas da cidade de Fortaleza (GUIMARÃES, 2008).

2. HISTÓRIA DO METRÔ DE FORTALEZA

O Metrofor foi criado com o objetivo de assumir e modernizar a operação do transporte dos trens metropolitanos de Fortaleza até então realizada pela CBTU.

As obras foram iniciadas em janeiro de 1999 com a construção de uma linha de trens de carga independente da linha de passageiros para fazer a conexão da linha Tronco Norte com a Tronco Sul da Companhia Ferroviária do Nordeste das linhas do metrô. A implantação da Linha Sul pertencente a primeira fase do projeto depois de muitas paralizações, será concluida no final de 2011.

Em 2006 o Governo do Estado do Ceará contratou a empresa da Espanha Eptisa para fazer um estudo de viabilidade para construção de uma nova linha no Metrofor. A nova linha terá como extremos a estação da Parangaba e o bairro do Mucuripe.

3. METODOLOGIA

Para realização desse trabalho foram feitas visitas in loco, ao canteiro de obras central do metrô, as obras em algumas estações, como tambem foram feitas viagens no atual trem suburbano que trafega em Fortaleza. Realizou-se uma pesquisa bibliográfica, em

Page 174: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

174

artigos, em jornais, trabalho de conclusão de curso e sites. Realizaram-se visitas ao METROFOR (Metrô de Fortaleza) e a CBTU (Companhia Brasileira de Transportes Urbanos) em Fortaleza.

4. CARACTERÍSTICAS DO SISTEMA

O Metrô de Fortaleza contará com uma extensão total de 62,8 km em sua maioria na superfície contando também 16 km de linhas subterrâneas e 4,4 km de via elevada. Ele será implantado em três estágios, com a posterior implantação da Linha Leste, assim aproveitando ao máximo a malha ferroviária já existente. Seguindo sua concepção integradora, o novo sistema promoverá a modernização do transporte coletivo da Região Metropolitana de Fortaleza (CBTU, 2007).

O sistema atenderá aos municípios de Fortaleza, Caucaia, Maracanaú, Maranguape e Pacatuba, e com sua implantação total, o número de passageiros transportados diariamente chegará a 485 mil usuários/dia.

Os veículos deste sistema possuirão uma velocidade comercial de 50 km/h e uma velocidade máxima de 80 km/h. O calibre da trilha será de 1000 milímetros e a alimentação dos trens é feita por catenárias aéreas utilizando uma tensão de 3000 VCC (OLANDA, 2008).

5. TABELA DO SISTEMA

A Tabela 1 mostra a as linhas de terminais do metrô, comprimento, numero de estações, duração da viagem e previsão de inauguração (METROFOR, 2009).

Tabela 1: Linhas de terminais do metrô

Linha Terminais Previsão Comp.

(km) Estações

D. das viagens

(min) Func.

Sul João Felipe ↔ Vila das flores

2010 24,1 (20) 33 Em obras

Oeste Caucaia ↔ J. Felipe - 19,5 14 - estudo

Leste J. Felipe ↔ Unifor - 12 6 - estudo

Maranguape Jereissati ↔ Maranguape

- 7,2 2 - estudo

Mucuripe Parangaba ↔ Mucuripe 2014 16 6 - estudo

Aeroporto Aeroporto Velho ↔ Castelão

2014 7 2 - estudo

6. LINHAS DO SISTEMA

As Tabelas 2, 3, 4, 5, 6 e 7 abaixo mostram as linhas do metrô com seus respectivos trechos, mostrando como se encontra a execução da obra com as respsctivas estações a serem construidas.

Tabela 2: Linha Sul – João Felipe ↔ Vila das Flores

Estação Comentários

João Felipe Em obras, futura integração gratuita com as Linhas Oeste e Leste do Metrô.

Lagoinha Em obras

Page 175: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

175

São Benedito Em obras

Benfica Em obras

Padre Cícero Em obras

Parangabussu Em obras

Couto Fernandes Em obras

Montese Em obras

Parangaba Em obras, futura integração gratuita com a Linha Mucuripe do Metrô.

Vila Pery Em obras

Manuel Sátiro Em obras

Mondubim Em obras

Conjunto Esperança Em obras

Aracapé Em obras

Alto Alegre Em obras

Pajuçara Em obras

Novo Maracanaú Em obras

Maracanaú Em obras

Jereissati Em obras, futura integração gratuita com a Linha Maranguape do Metrô.

Vila das Flores Em obras

Tabela 3: Linha Oeste – Caucaia ↔ João Felipe

Estação Comentários

Caucaia Em estudo

Parque Soledade

Em estudo

Nova Metrópoli Em estudo

Araturi Em estudo

Jurema Em estudo

Conjunto Ceará Em estudo

Parque albano Em estudo

São Miguel Em estudo

Antonio Bezerra Em estudo

Parque Andrade Em estudo

Floresta Em estudo

Álvaro Weyne Em estudo

Francisco Sá Em estudo

Tirol Em estudo

João Felipe Em estudo, futura integração gratuita com as Linhas Sul e Leste do

Page 176: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

176

Metrô.

Tabela 4: Linha Leste – João Felipe ↔ Unifor

Estação Comentários

João Felipe Em estudo, futura integração gratuita com as Linhas Sul e Oeste do Metrô.

Sé Em estudo

Colégio Militar Em estudo

Ceart Em estudo

Des. Moreira Em estudo

Nunes Valente Em estudo

Dias da Rocha Em estudo

Papicu Em estudo, futura integração gratuita com a Linha Mucuripe do Metrô.

HGF Em estudo

Cidade 2000 Em estudo

Iguatemi Em estudo

Salinas Em estudo

Unifor Em estudo

Tabela 5: Linha Maranguape – Maranguape ↔ Jereissati

Estação Comentários

Maranguape Em estudo, futura integração gratuita com a Linha Sul do Metrô.

Jereissati Em estudo

Tabela 6: Linha Mucuripe – Parangaba ↔Mucuripe

Estação Comentários

Parangaba Em estudo, futura integração gratuita com a Linha Sul do Metrô.

Montese Em estudo

Aeroporto Velho

Em estudo

Rodoviária Em estudo

Assembléia Em estudo

Antonio Sales Em estudo

Papicu Em estudo, futura integração gratuita com a Linha Oeste do Metrô.

Mucuripe Em estudo

Tabela 7: Linha Aeroporto – Aeroporto Velho↔ Castelão

Estação Comentários

Aeroporto Velho

Em estudo, futura integração gratuita com a Linha Mucuripe do Metrô.

Aeroporto Novo Em estudo

Castelão Em estudo

Page 177: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

177

7. METROFOR E O PROGRAMA DE ACELERAÇÃO DO CRESCIMEN TO

O Programa de Aceleração do Crescimento – PAC contempla, dentre outros, o sistema de transporte de passageiros sobre trilhos de Fortaleza, operado pelo Metrofor.

O investimento até o ano 2011 trará benefícios que envolvem economias do tempo de viagem, do consumo de derivados de petróleo e dos índices de poluição do ar, além da melhoria dos níveis de acessibilidade, conforto e segurança nos deslocamentos da população dos municípios atendidos pelo Metrofor no estado do Ceará, especialmente, Fortaleza e vizinhança.

O projeto do sistema de transporte de passageiros sobre trilhos em Fortaleza está sendo executado, lembrando que o PAC, de início, só contemplou as obras até o ano 2010, que compreende:

• Implantação completa da Linha Sul, trecho Vila das Flores a João Felipe, com duplicação e eletrificação da via em uma extensão de 24,1km, sendo 2,2 km em elevado e 3,9 km em subterrâneo, e aquisição de 10 trens elétricos com 4 carros cada.

• Modernização do sistema de trens metropolitanos da Linha Oeste, trecho João Felipe a Caucaia, com recuperação da via permanente em uma expansão de 19,6 km e das 10 estações existentes, e aquisição de 6 VLTs, veículos leves sobre trilhos, a diesel, com 4 carros cada. (OLANDA, 2008)

7.1. INVESTIMENTOS DO PAC NO METROFOR

Os investimentos da União aprovados no PAC, para as obras no Metrô Fortaleza, são de R$ 602,8 milhões distribuídos ao longo dos anos de 2007 a 2010. Com valores investidos até 2006, o custo total do sistema é de R$ 1.526,1 milhões.

7.2. TABELA DE INVESTIMENTOS

A Tabela 8 abaixo mostra os investimentos já realizados e os futuros da Linha Sul, inclusive já houve alterações, dados de 2005.

Tabela 8: Investimentos da Linha Sul

Períodos

Até 2006 2007 a 2010 Total (R$ MIL)

Recursos da União 607.870,9 572.774,8 1.180.645,7

Recursos do Estado do Ceará 163.949,0 101.494,3 265.443,3

Total 771.819,9 674.269,1 1.446.089,0

8. DESAPROPRIAÇÃO DE IMÓVEIS

Segundo dados da Companhia Cearense de Trens Metropolitanos – CCTM, pelo menos 1.200 imóveis serão desapropriados completa ou parcialmente, para a efetivação de obras correspondentes ao metrô em sua parte subterrânea e de superfície.

As construções de estações de embarque e desembarque, túnel, viadutos e modificações nos itinerários ocupados por tubulações de água, esgoto, gás, fibras óticas e energia, requerem as desapropriações, que implicam em indenizações. Já foi estipulado o montante de, aproximadamente, R$ 10 milhões para os pagamentos, mas muitas questões ainda tramitam na Justiça.

Analisando particularmente do Metrô de Fortaleza, obra iniciada desde 1999 podemos dizer que é uma obra problemática. Para que se tenha idéia, dos erros estruturantes de projeto, por falta de planejamento, inclusive por falta de um cronograma financeiro na elaboração no projeto executivo, houve constantes paralisações,

Page 178: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

178

evidentemente aliadas ao arrocho fiscal dos governos até chegar ao governo Lula. Essas paralisações e o andamento em passos de tartaruga dessa obra preocupam a população por causa dos enormes prejuízos aos comerciantes e à população. E mais: o custo dessa obra tem-se elevado exorbitantemente.

O Metrô de Fortaleza, cuja conclusão da Linha Sul estava prevista a um custo de R$500 milhões, está programado para ser concluído em 2011, ao elevadíssimo custo de R$1,1 bilhão que incidirá na tarifa e causará grave problema. A tarifa terá de ser subsidiada para a obra não ficar inacessível ao usuário em razão de seu elevado custo.

Temos, portanto um exemplo de falácia do custo perdido, pois todos os governadores tomaram a decisão de continuar a obra sem levar em conta os gastos passados levando em conta somente os gastos futuros. Em outras palavras, eles só consideraram somente os custos futuros e necessários para concluir a obra para tomar a decisão. A decisão de construir ou não a obra do metrô aparece somente na gestão do governador Tasso Jereissati no ano de 1999, porém vale ressaltar ainda que o primeiro projeto do Metrô de Fortaleza foi feito em 1984 com a fundação do Metrofor, ou seja, os gastos com o Metrô vêm desde o governo do governador Adauto Bezerra.

O governador Cid Gomes recebeu apoio financeiro para o metrô de Fortaleza, de R$ 142,3 milhões, que será destinado à construção do primeiro estágio do Metrofor, o da linha Sul, trecho entre as estações de Vila das Flores e João Felipe. O projeto faz parte do Plano de Aceleração do Crescimento (PAC) e está orçado em R$ 804,3 milhões, dos quais o BNDES participará com 17,7%. Caso o governador Cid Gomes não consiga concluir a obra este valor será o próximo custo a ser afundado ou perdido pelo seu sucessor.

9. ENTRAVES AO ANDAMENTO DO METROFOR As Figuras 1 e 2 mostra manchete em jornais sobre o entrave na obra do Metrofor.

Figura 1. Machete do jornal Diario do

Nordeste. Figura 2. Manchete da seção de negocios do jornal

Diario do Nordeste.

Obra parada custa caro. No caso do Metrofor, que já se estende por mais de 10 anos, os trabalhos paralisados representaram um dispêndio de US$ 6 milhões por ano (Souza, 2008).

Os Trens urbanos que trafegam em Fortaleza estão totalmente obsoletos e mostram que população da Região Metropolitana da Capital Cearense,está optando cada vez menos por este meio de transporte nas condições existentes hoje, a Figura 3 mostra situação dos trens urbanos até pouco tempo e a Figura 4 mostra o projeto do metrô de Fortaleza.

Page 179: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

179

Figura 3. Situação dos trens urbanos até

pouco tempo. Figura 4. O projeto do Metrô de Fortaleza.

Primeiro foi a falta de dinheiro. Agora, são questões burocráticas que ameaçam a celeridade das obras do Metrô de Superfície de Fortaleza — o Metrofor. Depois de ter parado por cinco anos, o projeto, com 55% de execução da Linha Sul, passou por entraves como a necessidade de atualização tecnológica dos trens e empecilhos de toda ordem, principalmente, na área do Centro de Fortaleza. Até o fornecimento de aço no mercado internacional pode trazer impacto negativo no prazo de conclusão do metrô cearense.

O problema principal eram os recursos, e isso não existe mais. Agora, uma série de variáveis precisam ser equacionadas para fazer com que o projeto avance nos 45% restantes para construir a Linha Sul. A Companhia Cearense de Transportes Metropolitanos (Metrofor) negociou com o fornecedor dos trens, a multinacional francesa Alston do Brasil, questões referentes à remodelação e à remontagem da linha de produção dos equipamentos.

O elevado de Parangaba é necessário porque a estação Parangaba está próxima a Lagoa com o mesmo nome. Se fosse subterrânea seria necessário fazer bombeamento constante de água, daí ser melhor fazer a estação elevada mesmo tendo que rebaixar a velha estação que foi tombada patrimônio histórico. Para fazer subterrâneo o trecho era necessário fazer um desvio, ou seja, o metrô teria que passar longe da atual estação de Parangaba, para evitar o bombeamento de água. A nova estação Parangaba do metrô será elevada e está sendo feito vizinho ao já existente terminal ônibus urbano de Parangaba como mostra as Figura 5, de, onde após a conclusão do metrô haverá uma interligação dos modais, ferroviário e rodoviário. Os passageiros descerão do metrô e apanharão o ônibus no terminal de integração de Parangaba sem pagar nova passagem.

Page 180: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

180

Figura 5. Terminal de ônibus de Parangaba, com estação de metrô logo atrás. Fonte própria, 2010.

Com a execução da parte do metrô na superfície, Fortaleza e Maracanaú ficaram como uma grande dificuldade de fluxo de veículos, pois é como se tivesse uma parede nas cidades, com as passagens de nível que já existem do trem suburbano.

Na realidade no trecho na superfície estamos substituindo o trem suburbano (CBTU) a diesel por um trem elétrico moderno, mais rápido, seguro, não poluente e mais confortável, pois o trajeto será o mesmo dos trens da CBTU, ou seja, as estações estão sendo substituídas por outras mais modernas. Também a via permanente está sendo substituída.

Recentemente o Metrô sofreu nova paralisação imposta pelo TCU (Tribunal de Contas da União), onde foi constatado superfaturamento na obra (VASCONCELOS, 2009).O metrô poderá passar por nova licitação atrasando ainda mais a obra, com o objetivo de melhorar o trânsito e o transporte de passageiros. A obra do metrô de Fortaleza é uma das mais polêmicas do Brasil, valendo ressaltar que a cidade de Natal terá seu metrô funcionando antes de Fortaleza.

9.1. ADEQUAÇÕES

O primeiro projeto do Metrofor para a Linha Sul, não existia os 3,9 km em subterrâneo, que é justamente o trecho do centro da cidade.A alegação dos engenheiros era que o trecho sendo subterrâneo aumenta em 25 vezes o valor da obra. Porém depois o governo resolveu fazer a modificação. O segundo projeto do Metrofor é de 1997/98 e começou a ser executado em 1999. Mas, as obras pararam em 2002 e só foram retomadas praticamente em 2008. Desde então, a empresa fornecedora dos trens parou de fabricá-los. Com o avanço da tecnologia, é necessario fazer adequações ao projeto. Não existem trem em pronta entrega. Tem-se de garantir um adequado ao perfil de Metrofor.

No Metrofor, existe um trem com a caixa toda pronta, com motor de tração e outras peças que já saíram da garantia. A Alston do Brasil, com filial em São Paulo, quer inclusive receber da Companhia remuneração pelo custo de armazenagem do equipamento. Os fornecedores cobram a remodelagem, a remontagem e o pátio, que é alugado.

9.2. MATÉRIA-PRIMA

Outro problema com a Alston é a falta de aço inox no mercado internacional. A multinacional parou de produzir as peças das caixas dos trens de Nova York por falta da matéria-prima. A China está comprando toda a produção de aço inox do mundo. Até isso pode afetar a execução dos trens do Metrofor.

Page 181: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

181

No projeto do metrô local, também devem passar por atualização as partes de interface de fibra ótica, transmissão de dados, sinalização, telecomunicações e softwares.

O governo do Estado está buscando alternativas para absorver a tecnologia moderna. O PAC (Programa de Aceleração do Crescimento) tem um dinheiro que teoricamente custeia a atualização tecnológica. O PAC prevê 11% a mais do saldo contratual para essa finalidade.

9.3. ESTAÇÃO DE PARANGABA

Tombada em 2006 pela Prefeitura de Fortaleza, a Estação de trem da Parangaba foi rebaixada em 3,5 metros, para que os trilhos da linha leste do Metrofor, que liga a Estação João Felipe, o Centro, à Estação Vila das Flores, em Maracanaú, passe por cima, preservando o prédio histórico. O prédio tombado é de 1873 (BRAGA, 2009).

Depois de muita polêmica, finalmente a obra de rebaixamento e restauro da antiga Estação da Parangaba foi feita. O trabalho foi executado pela Secretaria de Infra-Estrutura do Ceará (Seinfra), com a parceria da Secretaria de Cultura de Fortaleza (Secultfor). O trabalho foi concluido concluído em 90 dias, com um custo de cerca de R$ 800 mil. A Figuras 6 e 7 mostram a antiga estação de Parangaba. Na figura 8 podemos ver passageiros desembarcando na estação do trem suburbano (CBTU) da Parangada, onde podemos ver tambem a obra do elevado (viaduto) do Metrofor, vendo no fundo da foto a antiga estação que foi rebaixada.

Figura 6. A estação da Parangaba quando esta foi tombada.

Figura 7. Desembarque na estação da Parangaba (CBTU).

Engenheiros constataram que a melhor solução, ou seja a mais barata foi rebaixar a estação para que o viaduto do metrô fosse concluido.A Figura 8 mostra a estação antiga de Parangada rebaixada, onde se percebe um pilar logo a frente da antiga estação de Parangaba que foi tambem toda recuperada.

Page 182: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

182

Figura 8. Estação antiga de Parangaba rebaixada. Fonte própria, 2010

10. CONCLUSÃO

Os problemas porque passam o sistema de trens urbanos da Região Metropolitana de Fortaleza (RMF) vão além da burocracia e dos entraves tecnológicos apontados pela direção do Metrofor.

A cidade de Fortaleza possui um problema serio de tansporte urbano, hoje sua população chega a mais de 2,4 milhões de pessoas e é inadimessivel não possuir um Metrô. Dai a relevância, ou seja, a importância deste trabalho frente ao atual cenário do setor metro-ferroviário no Brasil.

O projeto do metrô contém erros, como não fazer subterrâneo o restante da Linha Sul, com uma ressalva para o elevado de 2,2km no Bairro de Parangaba. Na realidade estamos substituindo o trem suburbano (CBTU) a diesel por um trem elétrico moderno, mais rápido, seguro, não poluente e mais confortável, pois o trajeto será o mesmo dos trens da CBTU, ou seja, estação substituindo as estações por outras mais modernas. Foi modificado apenas 3 km do percurso antigo, o qual está subterrâneo. A obra do Metrofor está sempre envolta em polêmicas como contingenciamento de verbas, supostas irregularidades e problemas técnicos no projeto.

Passados mais de 10 anos, a obra, que é um símbolo da chegada do desenvolvimento para a capital do Ceará e passou a ser um dos pilares de sustentação da escolha de Fortaleza como sede da Copa de 2014, continua emperrada deixando Fortaleza fora dos Trilhos.

11. REFEFÊNCIAS BILBIOGRÁFICAS

BRAGA, T.(2009). Estação será rebaixada, Jornal O Povo, 12/07/2009

CBTU (2009). Companhia Brasileira de Trens Urbanos. http://www.cbtu.gov.br

GUMARÃES, Y (2008). Quando o transito para a cidade, Jornal O Povo, 24/11/2008, http://www.opovo.com.br

METROFOR (2009). Metrofor. http://www.metrofor.ce.gov.br

OLANDA, E. P (2008). Metrofor, Trabalho de conclusão de curso, Universidade Estadual do Vale do Acaraú - UVA.

SOUZA, S.(2008). Obra parada custa R$ 6 milhões, 30/06/2008, Jornal Diario do Nordeste. 30/06/2008

VASCONCELOS, P (2009). TCU manda reter verbas do Metrofor e obras param. Jornal Diário do Nordeste, 02/07/2009, http:// diariodonordeste.globo.com

Page 183: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

183

Fotobiorreatores para processamento de microalgas

Alexsandro Bona, Daniel Machado Thomaz, Felipe Cardoso Chicralla, Fernando Maia de Magalhães Senna, Fabio Barboza Passos.

Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

E-mail: [email protected], [email protected], [email protected], [email protected], [email protected]

RESUMO

O presente trabalho estuda o cultivo de microalgas marinhas em fotobiorreatores como fonte de óleo para produção de biodiesel, pois algumas espécies apresentam grande quantidade de óleo, são de fácil cultivo e rápido crescimento. Avalia-se o crescimento comparativo simulando lagoas em repouso e também a adição de CO2 industrial misturado com ar nas concentrações de 2% e 4%, como fonte de carbono e estímulo de crescimento no fotobiorreator. O fotobiorreator é um reator onde se processa a reação de fotossíntese, na qual a microalga, utilizando-se de luz, sintetiza o CO2 com água, para produção de glicose. A vantagem de se utilizar o fotobiorreator é, sobretudo, a possibilidade de se poderem controlar parâmetros de processo, como: luz, pH, temperatura, nutrientes, velocidade de escoamento, mistura gasosa, espécies, dentre outros. Estes parâmetros são variados com o intuito de se obter maior crescimento de microalgas e/ou produtividade de óleo, em menor tempo. Com 4% de mistura CO2/Ar, obteve-se o dobro de crescimento de microalgas quando comparado ao ensaio sem a adição de CO2. Quanto às concentrações da mistura, de 2% e 4%, obteve-se maior crescimento a 2%. Além do óleo, as microalgas podem ainda gerar outros produtos de interesses comerciais.

Palavras-Chave: Biodiesel. Microalgas. Fotobiorreatores.

INTRODUÇÃO

O estudo de microrganismos como microalgas deve-se à essencial importância destes nas diversas cadeias tróficas e na possibilidade da aplicação comercial em distintas áreas como na nutrição, na saúde humana e animal, no tratamento de águas residuais, na produção de energia e na obtenção de compostos de interesse das indústrias de alimentos, química e farmacêutica, dentre outras. Atualmente, as pesquisas em biotecnologia empregando microalgas vêm ganhando especial atenção. Mas a coleta e o cultivo para utilização na alimentação humana já são realizados há séculos.

Diferentes estudos realizados mostram que as microalgas possuem o mais elevado rendimento para extração de óleo vegetal, tornando-se uma excelente alternativa para a extração de óleo para biocombustíveis – devido à sua elevada densidade de lipídios, comparado com as oleaginosas, tais como canola, soja, palma, girassol, etc. Dessa forma, as microalgas poderiam teoricamente produzir mais óleo por hectare e reduzir o custo dos biocombustíveis.

Microalgas vêm sendo consideradas como fonte potencialmente útil para a produção de biodiesel no futuro. Além disso, diversas espécies apresentam elevadas concentrações de lipídeos encerrando altas concentrações de energia, característica interessante como matriz para produção de combustíveis (LOURENÇO, 2006)

O presente trabalho estuda o cultivo de microalgas marinhas em fotobiorreatores como fonte de óleo para produção de biodiesel.

MATERIAIS E MÉTODOS

Para os experimentos foi utilizada uma unidade de fotobiorreator tubular semi-piloto. Pode-se desmembrar a construção da unidade em três partes estruturalmente independentes. São elas: 1) estrutura mecânica de suporte; 2) parte elétrica; 3) reator.

Page 184: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

A estrutura mecânica de suporte, assim como estruturas padrão de laboratóriounidades de diferentes finalidades de pesquisa, é composta por barras em "L"chapa pré-galvanizada, porcas e parafusos que mantêm a estruturaestrutura metálica foram estipuladas parabancada do laboratório, essa estrutura foi ainda revestida com isopor forrado com papel alumínio, a fim de isolar o fotobiorreator da iluminação do laboratório e concentrar a luminosidade.

Foram utilizadas 14 (catorze) barras ao todo, sendo 4 (quatbase, juntamente com uma chapa de metal galvanizado, outras 4 (quatro) paravertical, 2 (duas) para o suporte das lâmpadas e outras 4 (quatro) para atopo da estrutura. As barras que percorrem a largura dacomprimento, as que conferem altura à estrutura têm 70 cm dedão uma profundidade de 64 cm para a estrutura, mostrada na Figura 1a.

a) Término da montagem.

Figura 6: Estrutura de aço

Observam-se ainda, na Figura 1a, as lâmpadas fluorescentes, parte integrante do sistema de iluminação, contido na estrutura mecânica. A distância da as lâmpadas é de aproximadamente 38sistema de iluminação, as lâmpadas foram conectadas a três interruptores, sendo todas as seis operadas ligadas em foto

Em conjunto com a estrutura metálica observada na Figura 1a. fazinstalação de um sistema de fornecimento de energia elétrica. A energia elétrica temfinalidade o provimento de iluminação ao fotobiorreator, bem como para o acionamento da bomba que compõe o fotobiorreator.

Por fim, o sistema do em scale-down, conforme sugerido por Roselo Sastrereferência básica parte do trabalho de Acién Fernández

O fotobiorreator (Figura 1b.) foi construído utilizandosilicato) para o coletor de luz, em uma única peça. As conexões utilizadas são de PVC, e o degaseificador também é de material plástico. A bomba utilizada, de pequena vazão, é típica para usos em aquários domésticos. TrataSarlobetter, modelo S300, com vazão máxima de 280 L/h, vazão esta utilizada em todosensaios.

Para a manutenção inicial das algas utilizadas nos experimentos, foi utilizada uma câmara de germinação com fotoperíodo e alternância de temperatura da marca CIENTEC, mantida em um fotoperíodo de 12 h: 12 h (claro:escuro) e temperatura de 19 °

Para cada um dos experimentos, são preparados 5,0 (cinco) litros de solução de meio de cultivo Gillard-"f/2" modificado, posteriormente transferidos para o interior do

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

A estrutura mecânica de suporte, assim como estruturas padrão de laboratóriounidades de diferentes finalidades de pesquisa, é composta por barras em "L"

galvanizada, porcas e parafusos que mantêm a estrutura unida. As dimensões da estrutura metálica foram estipuladas para que toda a unidade coubesse em bancada do laboratório, essa estrutura foi ainda revestida com isopor forrado com papel alumínio, a fim de isolar o fotobiorreator da iluminação do laboratório e concentrar a

Foram utilizadas 14 (catorze) barras ao todo, sendo 4 (quatro) para a composição dabase, juntamente com uma chapa de metal galvanizado, outras 4 (quatro) paravertical, 2 (duas) para o suporte das lâmpadas e outras 4 (quatro) para atopo da estrutura. As barras que percorrem a largura da estruturacomprimento, as que conferem altura à estrutura têm 70 cm de comprimento e as restantes dão uma profundidade de 64 cm para a estrutura, mostrada na Figura 1a.

b) Crescimento de microalgas no fot

: Estrutura de aço contendo o fotobiorreator e iluminação

se ainda, na Figura 1a, as lâmpadas fluorescentes, parte integrante do de iluminação, contido na estrutura mecânica. A distância da base da estrutura até

as lâmpadas é de aproximadamente 38 cm. Para a montagem e facilidade na operação do lâmpadas foram conectadas a três interruptores, sendo todas as

seis operadas ligadas em foto-período de 24h e todas com potência de 40 W cada.

Em conjunto com a estrutura metálica observada na Figura 1a. fazinstalação de um sistema de fornecimento de energia elétrica. A energia elétrica temfinalidade o provimento de iluminação ao fotobiorreator, bem como o provimento depara o acionamento da bomba que compõe o fotobiorreator.

Por fim, o sistema do fotobiorreator deve ser apresentado. Trataconforme sugerido por Roselo Sastre et al. (2007), tomando

ásica parte do trabalho de Acién Fernández et al. (2001), de reator tubular.

O fotobiorreator (Figura 1b.) foi construído utilizando-se tubulação de vidro (borosilicato) para o coletor de luz, em uma única peça. As conexões utilizadas são de PVC, e o degaseificador também é de material plástico. A bomba utilizada, de pequena vazão, é típica para usos em aquários domésticos. Trata-se de uma moto bomba submersa, da marca Sarlobetter, modelo S300, com vazão máxima de 280 L/h, vazão esta utilizada em todos

Para a manutenção inicial das algas utilizadas nos experimentos, foi utilizada uma câmara de germinação com fotoperíodo e alternância de temperatura da marca CIENTEC, mantida em um fotoperíodo de 12 h: 12 h (claro:escuro) e temperatura de 19 °

Para cada um dos experimentos, são preparados 5,0 (cinco) litros de solução de "f/2" modificado, posteriormente transferidos para o interior do

9 de outubro de 2011

184

A estrutura mecânica de suporte, assim como estruturas padrão de laboratório para unidades de diferentes finalidades de pesquisa, é composta por barras em "L" perfuradas,

unida. As dimensões da que toda a unidade coubesse em cima da

bancada do laboratório, essa estrutura foi ainda revestida com isopor forrado com papel alumínio, a fim de isolar o fotobiorreator da iluminação do laboratório e concentrar a

ro) para a composição da base, juntamente com uma chapa de metal galvanizado, outras 4 (quatro) para sustentação vertical, 2 (duas) para o suporte das lâmpadas e outras 4 (quatro) para a composição do

estrutura têm 100 cm de comprimento e as restantes

b) Crescimento de microalgas no fotobiorreator.

e iluminação.

se ainda, na Figura 1a, as lâmpadas fluorescentes, parte integrante do base da estrutura até

cm. Para a montagem e facilidade na operação do lâmpadas foram conectadas a três interruptores, sendo todas as

ncia de 40 W cada.

Em conjunto com a estrutura metálica observada na Figura 1a. faz-se necessária a instalação de um sistema de fornecimento de energia elétrica. A energia elétrica tem como

o provimento de energia

Trata-se de um modelo (2007), tomando-se como

(2001), de reator tubular.

se tubulação de vidro (boro-silicato) para o coletor de luz, em uma única peça. As conexões utilizadas são de PVC, e o degaseificador também é de material plástico. A bomba utilizada, de pequena vazão, é típica

se de uma moto bomba submersa, da marca Sarlobetter, modelo S300, com vazão máxima de 280 L/h, vazão esta utilizada em todos os

Para a manutenção inicial das algas utilizadas nos experimentos, foi utilizada uma câmara de germinação com fotoperíodo e alternância de temperatura da marca CIENTEC, mantida em um fotoperíodo de 12 h: 12 h (claro:escuro) e temperatura de 19 °C.

Para cada um dos experimentos, são preparados 5,0 (cinco) litros de solução de "f/2" modificado, posteriormente transferidos para o interior do

Page 185: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

185

fotobiorreator, após a desinfecção e esterilização do mesmo. A água do mar utilizada no preparo do meio é proveniente da Baía da Ilha Grande, após tratamento realizado pelo Instituto de Ecodesenvolvimento da Baía da Ilha Grande, situado em Angra dos Reis. A título de esclarecimento, o tratamento realizado ali compreende sistema de filtração e desinfecção por radiação UV. (SOARES, 2011)

São escolhidas cepas de Dunaliella tertiolecta para cada um dos experimentos, de acordo com as que se apresentaram mais promissoras, por uma análise de viabilidade celular em câmara de Neubauer. Após a inoculação da cepa, o fotobiorreator e o sistema de iluminação são ligados à fonte de energia elétrica. Ao longo da operação, a cada dia, são retiradas alíquotas de solução contendo algas, do interior do fotobiorreator, para contagem celular utilizando-se contagem celular em câmara de Neubauer Improved, Optik New, com profundidade de 0,100 mm e área de 0,0025 mm2, em um microscópio BIOVAL, modelo L2000C. As alíquotas são preparadas com 10,0 (dez) mL de solução oriunda do fotobiorreator e 1,0 (um) mL de solução de vinagre com tintura de iodo a 2%. São também feitas medidas de pH em um pHmetro Quimis.

Após atingir a fase estacionária e se evidenciar declínio na população de microalgas, o conteúdo do fotobiorreator é retirado, e se inicia um novo ensaio.

Os ensaios cujos resultados são apresentados na Figura 2, foram realizados alimentando-se o fotobiorreator com um inóculo de cerca de 104 microalgas/mL de meio, para tanto foram retiradas alíquotas do repique armazenado na câmara de germinação e adicionado ao fotobiorreator contendo meio f/2, até o volume de 4,5L, adicionou-se então a injeção da mistura de CO2/Ar a 4%, na saída da bomba de recirculação do sistema, como fonte de carbono para o metabolismo das microalgas, a exemplo de Tang et al (2010). Paralelamente foi realizado um ensaio com a mesma proporção de inóculo, 104

microalgas/mL, adicionado em um Béquer com 500 mL de meio “f/2”, a fim de simular o cultivo em lagoas sem agitação, sob a mesma intensidade luminosa, a qual foi medida utilizando-se um luxímetro.

Os ensaios cujos resultados são apresentados na Figura 3 foram realizados alimentando-se o fotobiorreator semelhantemente aos ensaios da Figura 2, porém com um inóculo de cerca de 105 microalgas/mL de meio, então injetou-se a mistura CO2/Ar a 4% e a 2%, a uma vazão de 60mL/min., na saída da bomba de recirculação do sistema. O objetivo foi de avaliar diferentes misturas de CO2/Ar adicionado e sua influência no crescimento das microalgas.

Cabe citar que, as contagens na câmara de Neubauer foram realizadas até atingir o número de 400 microalgas, para então conversão mediante tabela fornecida pelo método, o que resulta em um erro de até 10% no número de microalgas/mL, considerado aceitável para este estudo.

RESULTADOS E DISCUSSÕES

Os valores apresentados na Figura 2 referem-se às médias de dois ensaios para cada curva. As condições de luminosidade também foram mensuradas e se obteve valores de 4.880 Lux no fotobiorreator (média de 7 pontos) e 4.860 Lux na superfície do Béquer.

Uma vez adicionado CO2, o pH do meio tornou-se levemente ácido, cerca de 6,4 enquanto que no Béquer o pH apresentava valor de 8,6. Observa-se ainda que o crescimento inicial, após 24h, apresenta-se maior no caso do Béquer, onde o pH é mais elevado, já no fotobiorreator, este tempo de 24h parece ser necessário para adaptação das microalgas ao meio acidificado pela adição de CO2, ou seja, necessita-se de um período mais longo de adaptação das microalgas no fotobiorreator. Após esta adaptação, os valores encontrados em número de microalgas/mL foram superiores no fotobiorreator, não sendo este, alcançado pelo ensaio realizado no Béquer, o qual atingiu a fase estacionária com 5,70x105 microalgas/mL, quando no fotobiorreator havia 1,47x106 microalgas/mL, após 96h.

Page 186: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

Figura 2. Gráfico comparativo de

Para incrementar o crescimento com redução do tempo, foram adicionado ao meio um inóculo mais concentrado, contendo cerca de 10ensaios apresentados na Figura 3, com misturas contendo 2% e 4% de COAr.

Pode-se observar em ambas as curvas um decaimento após 24h, contudo, como já foi dito, este decaimento têm influência do erro de contagem inerente ao métodcontagem de 400 células na alíquota retirada. O resultado a 2% mostroumelhor que quando utilizados os 4% de mistura CO1,55x106 microalgas/mL, enquanto que com 4% de mistura, o valor foi 1,38x106microalgas/mL. Com o aumento da concentração do inóculo, houve um ganho referente ao tempo, pois se atingiu a fase estacionária em apenas 72h. Isso se demonstra interessante, pois se pretende produzir maior número de indivíduos em menor tempo.

Figura 3. Gráfico comparativo entre crescimento de microalgas com mistura CO

1,00E+04

2,00E+04

4,00E+04

8,00E+04

1,60E+05

3,20E+05

6,40E+05

1,28E+06

2,56E+06

0:00 24:00Núm

ero

de m

icro

alga

s (in

diví

duos

/mL)

FBR com CO2 a 4%

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

. Gráfico comparativo de crescimento de microalgas no fotobiorreator com 4% de COcrescimento no Béquer em repouso.

Para incrementar o crescimento com redução do tempo, foram adicionado ao meio um inóculo mais concentrado, contendo cerca de 105 microalgas/mL, para então ensaios apresentados na Figura 3, com misturas contendo 2% e 4% de CO

se observar em ambas as curvas um decaimento após 24h, contudo, como já foi dito, este decaimento têm influência do erro de contagem inerente ao métodcontagem de 400 células na alíquota retirada. O resultado a 2% mostroumelhor que quando utilizados os 4% de mistura CO2/Ar, pois atingiu a fase estacionária com

microalgas/mL, enquanto que com 4% de mistura, o valor foi microalgas/mL. Com o aumento da concentração do inóculo, houve um ganho

referente ao tempo, pois se atingiu a fase estacionária em apenas 72h. Isso se demonstra interessante, pois se pretende produzir maior número de indivíduos em menor tempo.

Figura 3. Gráfico comparativo entre crescimento de microalgas com mistura CO

24:00 48:00 72:00 96:00 120:00 144:00 168:00

Tempo (Horas)

Contagem de microalgas no FBR

FBR com CO2 a 4% FBR com CO2 a 2%

9 de outubro de 2011

186

crescimento de microalgas no fotobiorreator com 4% de CO2 versus

Para incrementar o crescimento com redução do tempo, foram adicionado ao meio microalgas/mL, para então realizar os

ensaios apresentados na Figura 3, com misturas contendo 2% e 4% de CO2 dissolvido em

se observar em ambas as curvas um decaimento após 24h, contudo, como já foi dito, este decaimento têm influência do erro de contagem inerente ao método, quando da contagem de 400 células na alíquota retirada. O resultado a 2% mostrou-se levemente

/Ar, pois atingiu a fase estacionária com microalgas/mL, enquanto que com 4% de mistura, o valor foi de

microalgas/mL. Com o aumento da concentração do inóculo, houve um ganho referente ao tempo, pois se atingiu a fase estacionária em apenas 72h. Isso se demonstra interessante, pois se pretende produzir maior número de indivíduos em menor tempo.

Figura 3. Gráfico comparativo entre crescimento de microalgas com mistura CO2 / Ar de 4% e 2%.

168:00 192:00

FBR com CO2 a 2%

Page 187: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

187

CONCLUSÕES

Pode-se concluir que o uso de fotobiorreatores com adição de mistura de CO2/Ar para cultivo de microalgas Dunaliella tertiolecta, tem grande benefícios comparado com sistemas de lagoas ou tanques sem agitação, pois atinge maior crescimento com valores superiores de indivíduos em fase estacionária e em menor tempo, além de que em sistemas fechados, como no caso do fotobiorreator utilizado, é possível controlar parâmetros de processo. A adição de diferentes concentrações de CO2 pode ser mais amplamente estendida, tomando-se como parâmetro também o valor de pH, pois o pH ácido ocasiona inativação da microalga.

REFERÊNCIAS

ACIÉN FERNANDÉZ, F. G.; FERNANDÉZ SEVILLA, J. M.; SÁNCHEZ PÉREZ, J. A.; MOLINA GRIMA, E.; CHISTI, Y. (2001). Airlift-driven external-loop tubular photobioreactors for outdoor production of microalgae: assessment of design and performance. Chemical Engineering Science, vol. 56 (8), 2721-2732.

BRASIL. Ministério de Minas e Energia. Agência Nacional de Petróleo, Gás Natural e Biocombustíveis.(2008). Resolução No Ol, de 19 de março de 2008. Diário Oficial da República Federativa do Brasil, Brasília, DF, 23 de março de 2008. Disponível em: http://nxt.anp.gov.br/NXT/gateway.dll/leg/resolucoes_anp/2008/mar%C3%A7o/ranp%207%20-%202008.xml?f=templates$fn=document-frame.htm$3.0$q=$x=$nc=893l. Acesso em: 5 de janeiro de 2011.

KNOTHE, G.; GERPEN, J. V.; KRAHL, J. (2005). The Biodiesel Handbook. Champaign, Illinois: AOCS Press. 303p.

LOURENÇO, S. O. (2006). Cultivo de Microalgas Marinhas: Princípios e Aplicações. RiMa Editora. São Carlos 588p.

ROSELO SASTRE, R.; CSÕGÕR, Z.; PERNER-NOCHTA, I.; FLECK-SCHNEIDER, P.; POSTEN, C. (2007). Scale-down of microalgae cultivations in tubular photo-bioreactors - A conceptual approach. Journal of Biotechnology, vol. 132 (2), 127-133.

SOARES, Von Held. A. (2011). Fotobiorreatores para processamento de microalgas. Dissertação de Mestrado (Curso de Pós-graduação em Engenharia Química), Universidade Federal Fluminense, Niterói 130p.

TANG, H.; ABUNASSER, N.; GARCIA, M.E.D.; CHEN, M.; SIMON NG, K.Y.; SALLEY, S.O. (2010). Potential of microalgae oil form Dunaliella tertiolecta as a feedstock for biodiesel. Applied Energy, vol 88 (10), Elsevier Ltd, 3324-3330.

Page 188: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

188

Interdisciplinaridade na Universidade Federal Flumi nense: possibilidades de desenho industrial e engenharia

João Carlos Lutz Barbosa, Regina Celia de Souza Pereira

Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

[email protected], [email protected]

RESUMO

Este trabalho apresenta o novo curso de graduação em Desenho Industrial oferecido pela Escola de Engenharia da UFF. O curso formará profissionais capazes de interagir com outras áreas envolvidas no desenvolvimento de produtos e serviços. Novos produtos e serviços têm gênese multidisciplinar e em seu desenvolvimento há campos interdisciplinares que devem ser explorados para atingir resultados que respondam a necessidades humanas reais. Consequentemente, o referido curso integra conhecimentos de áreas como: Matemática, Administração, História, Computação, Economia, Automação, Ecologia, Desenho e Ergonomia. O termo design se refere a um tipo de atividade projetual que lida com o desenvolvimento de soluções para disfunções percebidas na sociedade. O design é fundamental para agregar valor competitivo aos produtos, que incorporam tecnologia. Os contextos de uso se multiplicam e nesse ambiente tecnológico o papel da ergonomia para desenvolver interfaces e garantir usabilidade é crescente. O curso se volta para um mercado tecnológico ligado às atividades econômicas regionais - por exemplo, petróleo e indústria naval. Os egressos estarão capacitados a usar as ferramentas do design unidas às da engenharia numa visão estratégica empreendedora comprometida com valores éticos de sustentabilidade.

Palavras-chave: interação desenho industrial – engenharia; ergonomia; sustentabilidade.

1. INTRODUÇÃO

No Brasil os cerca de 400 cursos de graduação existentes em Desenho Industrial estão associados a escolas ou departamentos de arquitetura, artes, comunicação ou à própria área do Design. Nesse quadro, a criação de um curso de Design de Produtos inserido na Escola de Engenharia da UFF representa uma inovação importante, na medida em que resgata uma abordagem tecnológica para a atividade e se propõe a estabelecer relações mais sólidas com o setor secundário da economia nacional.

Historicamente, no Brasil, das duas habilitações tradicionais, Design Gráfico e Design de Produtos, a primeira teve desenvolvimento mais rápido e consistente, obtendo um peso maior como atividade econômica e também o devido reconhecimento nacional e internacional de profissionais que se destacaram pela qualidade e caráter inovador de seus projetos.

O Design de Produtos, por contingências históricas, desenvolveu-se vagarosamente em terras brasileiras e só a partir dos anos 1990, com o aprofundamento da globalização, começou a ser reconhecido como atividade agregadora de valores funcionais fundamentais para a competitividade da indústria nacional.

Entretanto, apesar desse reconhecimento tardio, a estrutura para o ensino do Design de Produtos continua defasada quando comparada à estrutura existente para o ensino de Design Gráfico.

Essa defasagem não diz tanto respeito à estrutura física de laboratórios e oficinas, mas sim e principalmente aos métodos projetuais ensinados, ao entendimento do papel da atividade de Design como ferramenta estratégica para empresas e para os próprios estados nacionais, à inserção de procedimentos sistemáticos de pesquisa na graduação e,

Page 189: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

189

finalmente, à utilização de “ferramentas tecnológicas” como Cálculo, Estatística, Engenharia de Materiais, Ergonomia e Computação.

Cabe ainda ressaltar um segundo grupo de conhecimentos que tem fundamental importância para a prática contemporânea do Design de Produtos e que pertence às Ciências Humanas. A compreensão do papel das diferentes culturas em seus aspectos históricos, sociológicos e antropológicos é (sempre foi, na verdade) determinante para o desenvolvimento de produtos e serviços adequados a uma realidade comercial cada vez mais globalizada e marcada pela busca da sustentabilidade ecológica.

O Projeto Pedagógico do curso de Design de Produtos da UFF considerou cuidadosamente sua inserção nesse panorama complexo e procurou apresentar respostas aos desafios conceituais e pedagógicos mencionados. É esse projeto que apresentamos com mais detalhes a seguir.

2. MULTIDISCIPLINARIDADE E DESIGN

Reconhecendo que as atividades projetuais em geral, e em especial o Design de Produtos, dependem de aportes de conhecimentos de diversas áreas, o curso da UFF reuniu esses conhecimentos em quatro linhas didáticas:

1 - Desenho, Raciocínio Espacial e Computação Gráfica.

2 - História, Economia e Planejamento.

3 - Tecnologia

4 - Projeto Integrado à Ergonomia.

A primeira dessas linhas - Desenho, Raciocínio Espacial e Computação Gráfica - agrupa 10 disciplinas obrigatórias e totaliza 606 horas. Tratamos do desenhar tradicional, a mão livre e com instrumentos (316 horas), procurando enfatizar não tanto o virtuosismo expressivo, mas sim as funções de comunicação dos desenhos e seu papel fundamental no desenvolvimento de novas ideias e conceitos. São abordadas também as normas para o Desenho Técnico e diversas técnicas consagradas no desenho de arquitetura e no design gráfico.

Ainda nessa linha destaca-se o ensino da Computação Gráfica, com 290 horas dedicadas ao domínio progressivo de programas como AutoCad e SolidWorks (a oferta desses tipos de programas varia no tempo rapidamente, e aqui estão nomeados apenas como exemplificação).

A segunda linha - História, Economia e Planejamento - reúne 11 disciplinas e totaliza 620 horas. Há disciplinas voltadas para a compreensão da relação entre desenvolvimento tecnológico e evolução do design (História do Design); para a contextualização do desenvolvimento do design industrial como parte integrante e fundamental do processo de industrialização brasileira (História do Design Brasileiro); e para a compreensão da importância do ecodesign em suas perspectivas ambiental e de negócios (Design Ecológico).

Page 190: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

190

1o. 2o. 3o. 4o. 5o. 6o. 7o. 8o.

TDT TDT TDT TDT TDT TDT TDT TDT68h 68h 68h 68h 68h 136h 136h 34h

projeto de design 1

projeto de design 2

projeto de design 3

projeto de design 4

projeto de design 5

projeto de design 6

projeto de design 7

TCC - trabalho de

conclusão de curso

TEP 04.017 TDT TEP 04044 TDT TDT TDT TDT TDT60h 68h 60h 68h 68h 68h 68h 68h

metodologia de desenvol-vimento de produtos

modelagem física e

criatividade

ergonomia 1 ergonomia 2 ergonomia 3 ergonomia 4 ergodesign 1 ergodesign 2

TDT68h

comunicação visual

1242

GFI0016130hfísica

experimental I

GMA 00.108 GFI 00.158 TEM 00.190 TEM TEP 04.027 TDT68h 68h 60h 60h 60h

cálculo I-A física I introdução à mecânica dos

sólidos - estática

materiais e processos de

fabricação

automação da produção

optativa 1 optativa 4

GET 00.11972h

estatística básica para

engenharia II418

TDT TDT TEP 04.074 TEC 00.209 TER 00.180 TDT68h 34h 60h 60h 60h 68h

história do design

história do design

brasileiro

ciência e tecnologia

propriedade industrial

engenharia e meio

ambiente

design ecológico

optativa 2 atividades comple-

mentares

TEP 00.109 TEP 00.108 TEP 00.190 TEP TER 00.03060h 60h 60h 60h 30h

economia aplicada à engenharia

administração aplicada à

engenharia

planejamento estratégico industrial

empreende-dorismo

exercício profissional e

cidadania620

TDT TDT 00.043 TDT TDT TDT60h 60h 34h 68h 68h

projeto assistido por computador I

projeto assistido por computador II

computação gráfica 1

computação gráfica 2

multimeios eletivas

TDT TDT 00.038 TDT 00.041 TDT TDT 03.02160h 68h 60h 68h 60h

desenho de observação

fundamentos do desenho

técnico I

desenho de projetos

mecânicos

rendering técnicas gráficas I

optativa 3

606

324 408 428 444 478 400 302 102 2886

CH L.Didática

CH período

PERÍODOLINHAS DIDÁTICAS

PROJETO INTEGRADO À ERGONOMIA

TECNOLOGIA

HISTÓRIA, ECONOMIA E PLANEJAMENTO

DESENHO, RACIOCÍNIO ESPACIAL, COMPUTAÇÃO GRÁFICA

Figura 1 – Grade do curso de Desenho Industrial da UFF.

Page 191: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

191

Há ainda disciplinas da Engenharia voltadas: para questões de ciência e tecnologia (Ciência e Tecnologia); para a interação com o meio ambiente (Engenharia e Meio Ambiente); para a compreensão do sistema econômico e da administração de empresas (Economia Aplicada à Engenharia, Administração Aplicada à Engenharia); para o desenvolvimento de estruturas organizacionais compatíveis com estratégias competitivas (Planejamento Estratégico Industrial). E ainda disciplinas voltadas para o conhecimento da cultura empreendedora (Empreendedorismo), para a compreensão do sistema de proteção intelectual (Propriedade Industrial), e para a discussão de responsabilidades ético-profissionais (Exercício Profissional e Cidadania).

Nessa linha há algumas (03) disciplinas específicas criadas para o curso de Design e outras (08) que são oferecidas para os diversos cursos de Engenharia da UFF. Essas últimas disciplinas dessa segunda linha didática reúnem conhecimentos de diversas áreas, já direcionados e preparados para os cursos de Engenharia. A decisão de oferecê-las para os estudantes de Design visa criar e manter uma base comum entre os cursos e reforçar a pertinência do Design de Produtos ao ambiente acadêmico dos cursos de Engenharia.

A terceira linha – Tecnologia – congrega sete disciplinas da Matemática, da Física e da Engenharia, e totaliza 418 horas (Cálculo 1-A, Física I, Física Experimental I, Estatística Básica para Engenharia II, Introdução à Mecânica dos Sólidos – Estática, Materiais e Processos de Fabricação, Automação da Produção).

Cabe aqui notar que essas disciplinas, ao longo dos últimos 20 anos, foram sendo gradativamente reduzidas ou eliminadas dos currículos dos cursos de design de produtos. Como consequência, a formação tecnológica dos estudantes distanciou-se da formação dos engenheiros e do setor industrial da economia. Ao resgatar essas disciplinas no curso de design da UFF, o objetivo é justamente de reaproximar os designers de produtos do ambiente fabril, estabelecendo através do dominio de ferramentas comuns a possibilidade de uma comunicação mais eficaz entre “criadores” e “fabricadores”.

A quarta linha - Projeto Integrado à Ergonomia – compreende as disciplinas de Projetos de Design (de 1 a 7, mais o TCC – Trabalho de Conclusão de Curso), Ergonomia (de 1 a 4) e ErgoDesign (1 e 2). Inclui ainda Modelagem Física e Criatividade, e totaliza 1242 horas. A importância dessa linha didática para a integração criativa dos diversos conhecimentos está apresentada em mais detalhes na seção que segue.

3. INTERDISCIPLINARIDADE E DESIGN

Nos quatro primeiros semestres os estudantes devem construir uma base de conhecimentos que permita, a partir do quinto período, direcionar seus projetos e interesses para atuação profissional após a graduação. Desde o primeiro período do curso os alunos têm disciplinas de Projeto de Design, onde desenvolvem temas de complexidade crescente. Como peça chave para agregar valor competitivo a produtos que incorporam tecnologia o design é fundamental. Os contextos de uso se multiplicam e nesse ambiente tecnológico o papel da ergonomia para desenvolver interfaces e garantir usabilidade é crescente. Assim, as disciplinas de projeto têm papel integrador, assegurado pelo trabalho da coordenação do curso.

Entre essas iniciativas integradoras destacam-se os esforços para que todos os docentes de um mesmo período do curso adotem como tema comum (e integrador) de suas respectivas disciplinas o tema de estudo proposto pela disciplina de projeto. Dessa forma fortalece-se a compreensão de que “o projetar” está sempre entre as diversas disciplinas e é tocado e conduzido por insights de todas elas.

O papel da pesquisa científica na graduação também merece destaque, na medida em que representa a mais importante tendência nos melhores cursos em todo o mundo. Mais do que o desenvolvimento de belas formas, os novos produtos, as inovações devem estar baseadas em análises criteriosas da realidade. Esse procedimento analítico depende,

Page 192: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

192

para ser eficaz, do domínio das ferramentas e do método de pesquisa científico. Some-se a isso o comprometimento ideológico a que se propõe o curso de design de produtos da UFF: trabalhar sobre e a partir de disfunções e necessidades reais da sociedade brasileira. Para honrar tal proposição a pesquisa científica se revela como a principal estratégia e ferramenta metodológica, na medida em que permite a construção de modelos e hipóteses mais “reais” – pois esses modelos e hipóteses são construídos a partir de observações e análises sistemáticas das relações entre usuário, objeto e contexto.

Projetar é lidar com o inexistente, é lançar algo ao espaço e a tempo desconhecidos.

Projetar não se resume a desenvolver produtos ou mesmo a serviços. Espera-se dos designers formados pela UFF que participem do projeto e da construção das linhas mestras que determinarão o porvir das sociedades, e em especial da sociedade brasileira, que atravessa atualmente momentos de grandes perigos e possibilidades. Esses desafios profundamente mobilizadores para a comunidade acadêmica e, particularmente, para os estudantes estão profundamente relacionados com o conceito de sustentabilidade em seus aspectos triplos: social, econômico e ambiental.

Os esforços para a construção da autonomia dos egressos devem culminar, no oitavo e último período do curso, com o TCC - Trabalho de Conclusão de Curso. Espera-se que os estudantes desenvolvam em seus TCCs estudos, pesquisa e projetos para a melhoria da qualidade do design dos produtos nacionais, contribuindo assim para agregar valor tecnológico à produção nacional. Fortalecendo a ênfase na pesquisa científica, espera-se também que os estudantes relatem seus TCCs também sob a forma de artigos e que os submetam a revisão em congressos e seminários para subsequente apresentação.

4. DESAFIOS E CONCLUSÕES

A coordenação do curso procurará estabelecer parcerias internas e externas para direcionar, de forma flexível e estratégica, os projetos dos estudantes (nas disciplinas de projeto e em especial nos TCCs) para atender carências detectadas em setores econômicos regionais como os da indústria naval, petrolífera e moveleira.

Espera-se que ao final do curso os egressos estejam capacitados a usar as ferramentas do design unidas às da engenharia numa visão estratégica empreendedora comprometida com valores éticos de sustentabilidade. Espera-se que a construção de competências e de vocabulário profissionalizante contribua para resolver questões relacionadas à imaturidade do aluno, a carências de formação escolar ou ao seu desconhecimento da atividade do design e suas peculiaridades. Espera-se também estimular os estudantes a articular novos conhecimentos e desenvolver visões de mundo próprias.

Os desafios são muitos, mas não são desconhecidos. A dificuldade maior não é conceitual, e sim de ordem prática: como, com recursos humanos e materiais reduzidos, almejar procedimentos e pedagogias que contribuam para a construção de novos conhecimentos e não apenas para a reprodução de conhecimentos já existentes?

Nesse sentido, a formação de espíritos livres, curiosos e construtivamente críticos representa o maior desafio para o corpo docente. Como mestres comprometidos com o futuro, esperamos corresponder a esses desafios sempre com a força dos argumentos e nunca com os argumentos da força.

5. REFERÊNCIAS

UNIVERSIDADE Federal Fluminense. Pró-Reitoria de Assuntos Acadêmicos. Coordenadoria de Apoio ao Ensino de Graduação. Escola de Engenharia. TDT - Departamento de Desenho Técnico. (2010). Projeto Pedagógico do Curso de Graduação em Desenho Industrial. Niterói. 134p.

Page 193: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

193

Métodos de controle de odor em estação de tratament o de efluentes

Caldas Priscila Furghieri Bylaardt, Fernandes Lisiane Heinen. Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected] [email protected]

RESUMO

A construção de uma Estação de Tratamento de Efluentes (ETE) tem como propósito melhorar as condições de saúde da população. Entretanto, devido à emissão de gases odoríferos, geram-se incômodos à comunidade local, sendo a ETE alvo de reclamações constantes. Os odores gerados podem ser reduzidos com medidas de controle feitas durante a fase de projeto e operação e até mesmo eliminados quando tratados com métodos adequados. Este trabalho está baseado em diversas fontes bibliográficas e apresenta as características de gases emitidos pela ETE, mostrando o sulfeto de hidrogênio como principal causador do mau cheiro, os pontos críticos de geração destes odores e o impacto ambiental. Por fim, tratamentos de odores são estudados, apresentando-se as vantagens e desvantagens, a aplicabilidade, e o aspecto econômico de cada um. Devido às baixas concentrações dos compostos odoríferos nas ETEs a combustão direta, a adsorção, os sistemas bioquímicos e o precipitador hidrodinâmico são as tecnologias mais aplicáveis ao tratamento do odor. Entretanto, a escolha depende de um conjunto de critérios técnicos, econômicos e ambientais, que leva em consideração aspectos quantitativos e qualitativos de cada alternativa. Portanto, para cada ETE em específico, fatores devem ser ponderados, como por exemplo, a identificação dos compostos odorantes presentes.

Palavras-Chave: Estação de Tratamento, tratamento e controle de odor, sulfeto de hidrogênio.

1. INTRODUÇÃO

A saúde pública sempre foi uma questão de grande preocupação nas civilizações mais antigas, no Brasil foi somente a partir da década de 70 que ocorreu um maior avanço na área de saneamento: implantação e modificação de estações de tratamento de resíduos foram ocorrendo devido às maiores exigências da legislação (NUVOLARI, 2003).

As diferentes composições dos dejetos, os volumes gerados em um determinado tempo, a toxicidade, todos, influenciam no tratamento dos dejetos. Por exemplo, os efluentes domésticos contêm grandes quantidades de microorganismos – que refletem o nível de saúde da população e as condições de saneamento da região – que podem ocasionar problemas de saúde no cidadão, como hepatites, cólera, entre outros (VON SPERLING, 2005). Além disso, esses se alimentam da matéria orgânica, gerando um decréscimo dos teores de oxigênio dissolvido (OD). Para assegurar a vida aquática, o valor mínimo é de 5,0 mg/L de OD (METCALF & EDDY,1977), mas em caso de atingir o valor zero, gases fétidos serão lançados, molestando a região local. São, portanto, as características físicas, químicas e biológicas que traduzem o caráter ou o potencial poluidor do despejo.

As características físicas como cor e odor são perceptíveis ao estado que se encontra o esgoto: fresco (coloração cinza e odor relativamente desagradável) ou séptico (cor preta e odor fétido) – condição na qual ocorre a decomposição dos compostos orgânicos pela ação das bactérias, em que a concentração de OD pode chegar à zero. O gás desprendido na decomposição é o sulfeto de hidrogênio que pela ação dos microorganismos anaeróbicos reduz os sulfatos a sulfitos, gerando o cheiro característico de

Page 194: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

194

ovo podre no ar, que podem causar irritação nas vias respiratórias e levar a morte (METCALF & EDDY,1977).

Entretanto, apesar de contribuir enormemente para o meio ambiente, as estações de tratamento não são bem vistas pela população. Havendo muitas vezes conflitos entre as partes. O motivo são os incômodos que uma ETE em operação pode provocar, como: ruídos, tráfego pesado e odores desagradáveis. Conflitos com a sociedade local podem ser gerados, e um exemplo real é o acontecimento de um acidente na cidade de Niterói no Estado do Rio de Janeiro descrito a seguir.

Em abril de 2011 o rompimento de uma tubulação da ETE de Toque-Toque em Niterói, figura 1, fere pelo menos nove pessoas. Exemplo de discórdia entre a sociedade, que há alguns anos haviam feito um abaixo assinado com mais de 3 mil nomes para impedir a ampliação da estação (EXTRA, 2011).

Figura 1: Charge referente ao acidente em Niterói. Fonte: (EXTRA, 2011).

Este desentendimento com a sociedade possivelmente afetará novos projetos de implantação de novas ETE em locais com escassez de saneamento, pois é considerado um problema de saúde pública (LUDUVICE et al., 1997). Reclamações de odores de ETE representam mais de 50% das denúncias ambientais encaminhadas pela população aos órgãos de controle ambiental em todo o mundo (KAYE E JIANG, 1996).

A importância de implementar uma política eficiente de controle e minimização das fontes geradoras de gases odorantes está relacionada à qualidade de vida das pessoas, pois tais gases podem causar efeitos/doenças, como: estresse psicológico, insônia, perda de apetite, etc. Afeta também a auto-estima da comunidade, interferindo no relacionamento humano, desencorajando investimentos, baixo status sócio-econômico, e inibindo o crescimento (METCALF & EDDY, 1991).

2. ODOR

O odor da estação é causado por alguns compostos químicos encontrados nos dejetos e/ou até mesmo resultado de ação bacteriana na rede coletora ou na própria estação. Esses são provenientes de uma mistura complexa contendo moléculas como H2S e NH3, por exemplo, e a sua liberação na atmosfera depende de três fatores: da área superficial do líquido exposto à atmosfera, da concentração destes no líquido e do grau de turbulência do fluxo deste líquido. A liberação de alguns compostos também são beneficiadas pelo pH do meio (LUDUVICE et al., 1997).

O mau cheiro é maior em algumas etapas do tratamento, como nas unidades de entrada, no tratamento preliminar e primário, e diminui à medida que o tratamento avança. Com exceção das unidades de lodo que tem elevadas cargas orgânicas (LUDUVICE et al., 1997). Limpeza regular dos equipamentos que acumulam material orgânico como os canais, grades, etc. é importante para evitar o odor.

As condições atmosféricas contribuem para o espalhamento do odor a regiões próximas, sendo muitas vezes responsável pelo transporte, transformação e dispersão dos poluentes emitidos, e os parâmetros meteorológicos podem aumentar ou reduzir os níveis de poluição em uma determinada região (SILVA, 2007).

Page 195: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia

3. TRATAMENTO DO ODO

Existem dois métodos processo e/ou equipamento e técnicas de tratamento (SCHIRMER, 2008). O primeiro consiste um método indiprocesso/equipamento, manutenção dos equipamentos e operação dos mesmos dentro da sua limitação, etc. O segundo é um método direto de controle e tratamento dos gases odorantes. Os principais processos são cpodendo estes se dar por técnicas recuperativas (como absorção, adsorção e condensação) (SCHIRMER, 2008). Mas também medidas de controle podem minimna ETE, o uso de tubulações de exaustão de ar, outros.

A escolha do método, ou a combinação de um processo, com a maior eficiência possível que possa eliminar/reduzidifere quanto à fonte emissora, natureza do contaminante, legislação, entre outros, e depende de alguns parâmetros tais como: característica do gás a ser tratado (temperatura, matéria em suspensão, umidade,fatores de segurança (inflamabilidade, reatividade, corrosividade, etc.); custos de investimento/instalação, funcionamento e manutenção; eficiência na remoção destes poluentes, etc (SHIRMER, 2008).

Considerando que os principais critérios de escolha são a vazão de gás e concentração dos gases odorantes, a figura 2 indica as faixas típicas de aplicação de vários processos tecnológicos baseados na concentração e na vazão do gás

Figura 2: Controle de odor. Fonte: López

Sabendo-se que usualmente os baixas concentrações, os métodos de aplicação resumemcombustão direta, sistemas bioquímicos, adsorção e

Fatores como a biodegrabilidade dos gasesdas emissões e aspectos de projeto relacionados à captação e condução de gases, concentração relativa de H2

tratamento, são critérios que devem ser considerade odores emitidos (CHERNICARO

3.1. COMBUSTÃO DIRETA

A combustão é um método para eliminação de gases e vapores de origem orgânica, na qual, consiste em transformar os compostos em compostos não polo H2S é transformado em SO2

9 Comunicação feita por Domênico Capulli em 31

Vaz

ão d

o gá

s od

oran

te

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de

3. TRATAMENTO DO ODOR

dois métodos de controle de emissões de gases e odores: a modificação do processo e/ou equipamento e técnicas de tratamento (SCHIRMER, 2008). O primeiro consiste um método indireto de controle, na qual, envolve modificação do processo/equipamento, manutenção dos equipamentos e operação dos mesmos dentro da sua limitação, etc. O segundo é um método direto de controle e tratamento dos gases odorantes. Os principais processos são classificados em físicos, químicos e biológicos,

se dar por técnicas destrutivas (como a incineração e biofiltração) ou técnicas recuperativas (como absorção, adsorção e condensação) (SCHIRMER, 2008). Mas também medidas de controle podem minimizar o odor, como controle na disposição do lodo

uso de tubulações de exaustão de ar, a implantação de um cinturão verde, entre

A escolha do método, ou a combinação de um processo, com a maior eficiência possível que possa eliminar/reduzir o odor a um grau necessário comdifere quanto à fonte emissora, natureza do contaminante, legislação, entre outros, e depende de alguns parâmetros tais como: característica do gás a ser tratado (temperatura,

spensão, umidade, volatilidade e vazão, etc.); concentração dos poluentes; fatores de segurança (inflamabilidade, reatividade, corrosividade, etc.); custos de investimento/instalação, funcionamento e manutenção; eficiência na remoção destes poluentes, etc (SHIRMER, 2008).

Considerando que os principais critérios de escolha são a vazão de gás e concentração dos gases odorantes, a figura 2 indica as faixas típicas de aplicação de vários processos tecnológicos baseados na concentração e na vazão do gás odorante.

ontrole de odor. Fonte: adaptado de Kennes et al. (2001), Noyola, MorganLópez-Hernández (2006) e informação verbal9.

se que usualmente os compostos odorantes encontrados na ETE estão em baixas concentrações, os métodos de aplicação resumem-se, de acordo com a figura 2combustão direta, sistemas bioquímicos, adsorção e precipitador hidrodinâmico.

Fatores como a biodegrabilidade dos gases odorantes, características locais, origem das emissões e aspectos de projeto relacionados à captação e condução de gases,

S/CH4, planos para recuperação de energia e objetivos do tratamento, são critérios que devem ser considerados na seleção de alternativas de controle de odores emitidos (CHERNICARO et al., 2010).

A combustão é um método para eliminação de gases e vapores de origem orgânica, na qual, consiste em transformar os compostos em compostos não poluentes. Por exemplo,

2 e vapor de água.

Comunicação feita por Domênico Capulli em 31-05-2011 na Capmetal, Rio de Janeiro.

Precipitador Hidrodinâmico

Concentração do gás odorante

9 de outubro de 2011

195

gases e odores: a modificação do processo e/ou equipamento e técnicas de tratamento (SCHIRMER, 2008). O primeiro

reto de controle, na qual, envolve modificação do processo/equipamento, manutenção dos equipamentos e operação dos mesmos dentro da sua limitação, etc. O segundo é um método direto de controle e tratamento dos gases

lassificados em físicos, químicos e biológicos, técnicas destrutivas (como a incineração e biofiltração) ou

técnicas recuperativas (como absorção, adsorção e condensação) (SCHIRMER, 2008). Mas como controle na disposição do lodo

cinturão verde, entre

A escolha do método, ou a combinação de um processo, com a maior eficiência com um menor custo,

difere quanto à fonte emissora, natureza do contaminante, legislação, entre outros, e depende de alguns parâmetros tais como: característica do gás a ser tratado (temperatura,

vazão, etc.); concentração dos poluentes; fatores de segurança (inflamabilidade, reatividade, corrosividade, etc.); custos de investimento/instalação, funcionamento e manutenção; eficiência na remoção destes

Considerando que os principais critérios de escolha são a vazão de gás e concentração dos gases odorantes, a figura 2 indica as faixas típicas de aplicação de vários

odorante.

(2001), Noyola, Morgan-Sagastume e

compostos odorantes encontrados na ETE estão em se, de acordo com a figura 2 em:

precipitador hidrodinâmico.

odorantes, características locais, origem das emissões e aspectos de projeto relacionados à captação e condução de gases,

, planos para recuperação de energia e objetivos do dos na seleção de alternativas de controle

A combustão é um método para eliminação de gases e vapores de origem orgânica, uentes. Por exemplo,

Page 196: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

196

Tabela 1: Vantagens e desvantagens da combustão direta.

Vantagens Desvantagens

Custos de capital e operacional baixos A combustão incompleta pode resultar na geração de compostos sulfurados

Ocupa pequena área Perda de potencial de energia quando o calor não é recuperado

Boa alternativa para a queima de biogás em pequenas estações de tratamento

Aplicável principalmente para pequenas estações de tratamento

3.2. ADSORÇÃO

Processo em que as moléculas de compostos orgânicos voláteis entram em contato com a superfície de um adsorvente sólido e se ligam viam forças moleculares fracas.

Tabela 2: Vantagens e desvantagens da adsorção.

Vantagens Desvantagens

Mecanicamente simples Os poluentes são transferidos para uma nova fase ao invés de serem destruídos

Ocupa pequena área (devido ao baixo tempo de retenção)

Vida útil do carvão ativado reduzida pela umidade do gás

Estável e de desempenho elevado e confiável

Gera corrente secundária de resíduo (carvão não regenerável), e é somente aplicável para baixas cargas de contaminantes (para permitir vida útil aceitável para o carvão ativado)

Pode remover seletivamente H2S quando combinado com um adsorvente com afinidade pelo H2S (exemplo: carvão ativado)

Hidrocarbonetos são preferencialmente adsorvidos (por serem ligeiramentes polares) antes dos compostos polares, como o H2S, prejudicando a remoção seletiva

3.3. BIOFILTRO

O funcionamento de um biofiltro baseia-se na passagem de um gás, carregado com poluente, através de um meio de contato (um suporte úmido), geralmente de origem natural, para o crescimento da biomassa bacteriana e suficiente suprimento de ar onde estão fixados os microrganismos (BELLI et al., 2001).

Tabela 3: Vantagens e desvantagens do biofiltro.

Vantagens Desvantagens

Custos de capital moderado e operacional baixo

Apropriados somente para o tratamento de baixas concentrações de odorantes

Partida e operação simples Elevado tempo de residência requerido

Aplicável para a redução dos compostos odorantes encontrados em ETE

Ocupam elevada área e requerem grande volume de meio suporte

Aplicável para o tratamento de grandes vazões e baixas concentrações de odorantes sulfurados

Controle limitado das condições das reações (devido à inexistência de uma fase líquida)

Page 197: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

197

3.4. PRECIPITADOR HIDRODINÂMICO

O princípio se fundamenta nos fenômenos físico-químicos de absorção, em mecânica dos fluidos e na transferência de massa e energia, promovidos através da força da aceleração centrífuga da fase líquida com a subdivisão multiventuri materializada no equipamento capaz de promover as reações químicas bifásicas que asseguram a transferência de massa para o meio líquido.

Tabela 4: Vantagens e desvantagens do precipitador hidrodinâmico.

Vantagens Desvantagens

Solução multimodal que trata tanto material particulado como gases odoríferos

Custo de implantação elevado e o custo de operação e manutenção são moderados, pois há demanda de energia

Eficiência alta para remoção de gases odorantes, sendo superior a 98% para VOC`s (compostos orgânicos voláteis)

Requer produtos químicos, porém sua reposição ocorre em períodos prolongados devido à conversão ser alta do líquido, trabalhando a temperaturas baixas

Área mínima ocupada

4. CONCLUSÃO

O controle de odores emitidos em ETE faz-se necessário quando estes gases perturbam e/ou prejudicam a saúde pública da área próxima as estações, incluindo os trabalhadores da própria estação. Considerando também os gases que muitas vezes apresentam-se abaixo do limiar de percepção, mas que a estas concentrações já são prejudiciais a saúde. Conseqüentemente, um método de medidas e tratamento, gerará uma melhoria do relacionamento entre a comunidade e as empresas de saneamento, sendo importante também o incentivo de visitas regulares dos moradores a ETE e a consulta de opinião para uma possível melhoria referente a novos incômodos causados pela estação à sociedade.

Antes da escolha de um método de tratamento recomenda-se avaliar também a aplicação de medidas operacionais que ajudam a minimizar o risco do odor, como mudanças de processo ou modificações nas instalações, a construção de um cinturão verde ao redor da ETE, entre outros. A adição de nitrato ou sais ferrosos nas redes coletoras também é uma alternativa de minimizar a geração de odor e inclusive os efeitos da corrosão, principalmente nas redes com longo tempo de detenção.

Analisando os principais métodos aplicáveis a redução/eliminação do odor de uma ETE tem-se que a combustão direta devido à face reduzida da concentração das substâncias iria gerar elevado consumo de energia e seu conseqüente custo operacional, além da evidente poluição secundária devido aos gases de combustão criados. O problema do biofiltro é referente ao requisito de uma grande área para sua implantação. Para adsorção é necessário conhecer bem os compostos emitidos para não desativar os poros do carvão ativo, por exemplo. O seu custo será também elevado durante a sua operação e manutenção devido à reposição periódica do adsorvente.

O precipitador hidrodinâmico apresenta uma boa escolha para pequenas áreas disponíveis e tem um custo moderado de operação e manutenção devido à reposição do líquido re-circulante. Não apresenta remoção seletiva do H2S, porém tem eficiência elevada a uma grande faixa de compostos gasosos emitidos.

Finalmente, a escolha de um método para o tratamento dos gases odoríferos em estações de tratamento dependerá de um conjunto de fatores e considerações para cada ETE em especifico. O tipo dos compostos odorantes, a localização da geração destes, o tamanho da ETE, o custo disponível para aplicação, a vazão de gás odorante, a

Page 198: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

198

concentração do gás e o objetivo da remoção/eliminação são exemplos a serem ponderados.

5. REFERÊNCIAS

CHERNICHARO, Carlos Augusto de Lemos; et al. Alternativas para o Controle de Emissões Odorantes em Reatores Anaeróbios tratando Esgoto Sanitário. Eng Sanit Ambient, v.15 n.3, jul/set 2010. 229-236 p.

EXTRA – Jornal Extra Online. Disponível em: <http://extra.globo.com/noticias/rio/dois-feridos-em-rompimento-de-estacao-de-esgoto-de-niteroi-continuam-internados-1615371.html>. Acesso em: 28 de Abril de 2011.

KAYE, R. e JIANG, K. Comparison study on portable wind tunnel system andisolation chamber of VOC’s from areal sources. Water Science Technology, 1996. 34(3/4):583-589.

KENNES, C., VEIGA, M.C.; PRADO, O. Non biological treatment technologies. In: KENNES, C.; VEIGA, M.C. (Ed.). Bioreactors for waste gas treatment. Dordrecht: Kluwer Academic Publishers, 2001.

LUDUVICE, Maurício L.; PINTO, Marcelo A. Teixeira; NEDER, Klaus D. Controle de Odores em Estações de Tratamento de Esgotos. In: 19º Congresso Brasileiro de Engenharia Sanitária e Ambiental, Foz do Iguaçu 1997. 107-116p

NOYOLA, A., MORGAN-SAGASTUME, J.M.; LÓPEZ-HERNÁNDEZ, J.E. Treatment of biogas produced in anaerobic reactors for domestic wastewater: odour control and energy/resource recovery. Reviews in Environmental Sciences and Bio/Technology, v. 5, 2006. 93-114 p.

NUVOLARI, Ariovaldo. Esgoto Sanitário: Coleta Transporte Tratamento e Reúso Agrícola. 1 ed. São Paulo: Editora Edgard Blücher, 2003. 519 p.

METCALF, L. e EDDY, H. P. Tratamiento y Depuración de las Aguas Residuales. 1 ed. Barcelona – Espanha: Editorial Laboral, 1977. 837p.

METCALF, L. e EDDY, H. P. Wastewater Engineering – Treatment, Disposal and Reuse. 3 ed. Tchobanoglous, G (ed), Singapore, Mc. Graw Hill, 1991. 1334 p.

SILVA, Alcione Batista da. Avaliação da Produção de Odor na Estação de Tratamento de Esgoto Paranoá e seus Problemas Associados. Brasília/DF: Dissertação de Mestrado em Tecnologia Ambiental e Recursos Hídricos, 2007.

SCHIRMER, Waldir Nagel. Tratamento de Compostos Orgânicos Voláteis (COV) em Refinarias de Petróleo – Principais Tecnologias. VI Semana de Estudos de Engenharia Ambiental, Campus Irati, Junho 2008. 15 p.

VON SPERLING, Marcos. Introdução à Qualidade das águas e ao tratamento de Esgotos. 3 ed. Belo Horizonte: Departamento de Engenharia Sanitária e Ambienta; Universidade Federal de Minas Gerais, 2005. 452p.

Page 199: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

199

Monitor de potência óptica para uso permanente num enlace de comunicação por fibra óptica

Taiane Alvarenga Menandro Garcia de Freitas, Ricardo Marques Ribeiro, Paulo Sérgio Travassos do Carmo Cyrillo, Andrés Pablo López Barbero, Odair da Silva Xavier, Wagner da Silva Zanco

Escola de Engenharia, Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

[email protected], [email protected], [email protected], [email protected], [email protected], [email protected]

RESUMO

É aqui descrito o protótipo de um monitor de potência óptica (MPO) original que deve ser inserido em linha (inline) num enlace de Fibra Óptica Plástica (POF). Conexões e emendas inevitavelmente causam atenuações, mas o MPO em si não causa qualquer perda de potência óptica da fibra. O MPO detecta a potência óptica proveniente do espalhamento luminoso inevitável que emerge pela lateral sem cobertura da fibra. Após uma calibração adequada, o MPO que é simples e de potencial baixo custo como o aqui apresentado, pode mostrar se a POF está em estado "inativo" ou "ativo". Neste último caso o MPO é capaz de medir o nível de potência óptica que trafega na fibra.

Palavras-Chave: Fibra Óptica, Monitor de Potência Óptica, Dispositivo Passivo, Fotônica.

1. INTRODUÇÃO

As Fibras Ópticas Plásticas (POFs) ainda são relativamente pouco conhecidas no Brasil, embora tenham a nível mundial um mercado em franca expansão. Há uma necessidade crescente de se fazer interconexões entre distâncias cada vez mais curtas (por exemplo < 500 m) com tráfego de sinais (analógicos e digitais) em taxas cada vez mais altas (dezenas de Gb/s), envolvendo uma diversidade de tipos de informações. Nesses casos ou em situações em que o uso de cabos metálicos e fibras ópticas de sílica sejam inapropriados, as POFs apresentam algumas características peculiares que as tornam bastante eficientes para estes enlaces de distâncias curtas. Em qualquer sistema de comunicações à fibra óptica, é necessário medir esporadicamente ou permanentemente a potência óptica média que trafega pela fibra.

Esse trabalho está focado no desenvolvimento de um dispositivo simples, de características originais em seu mecanismo de funcionamento, capaz de ser inserido em linha (inline) na fibra óptica e sempre mostrar o valor da potência óptica propagante (monitor de potência óptica), assumindo que o enlace funcione com apenas um canal em comprimento de onda.

2. O PROTÓTIPO E A SUA CARACTERIZAÇÃO

POFs “padrão” de PMMA (Poly-Methyl-Metacrylate) operam no espectro visível e sua tecnologia relacionada é simples e de relativo baixo custo quando se compara com a das “fibras convencionais” (sílica). A POF “padrão” exibe uma grande dispersão modal de forma que comumente é especificada como tendo um produto banda-distância menor do que 20 MHz.km, que a qualifica como sendo habilitada para realizar ordinariamente transmissões de até ~ 200 Mbs em 100m. No entanto, implementando diversas técnicas, é possível aumentar significativamente este produto banda x distância sem trocar o tipo de fibra.

Page 200: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

200

Figura 7. Esquema experimental de caracterização/calibração do MPO e o dispositivo em si.

Conforme está esquematizado na Figura 1, a luz visível emitida por um LED ultra-brilhante é injetada em uma POF de PMMA que atravessa uma pequena caixa (encapsulamento), ou seja, o próprio dispositivo MPO inserido em linha. Internamente ao MPO, parte da POF tem a cobertura de polietileno preto cuidadosamente retirado assim expondo ~ 11 mm de comprimento de fibra nua a partir do qual pode-se coletar a luz espalhada lateralmente. Bem próximo a fibra exposta, está posicionado um foto-detector tipo foto-Darlington modelo IFD93 da Industrial Fiber Optics (EUA) dotado de uma micro-lente integrada de 1,5 mm de diâmetro. O foto-Darlington gera foto-corrente proporcional à potência luminosa recebida com responsividade efetiva máxima de 400 A/W (880 nm). Um resistor é colocado em série com o foto-Darlington. Usando um voltímetro, mede-se a voltagem, por sua vez proporcional à potência luminosa coletada. Um medidor de potência óptica comercial, modelo PM20A da Thorlabs (EUA) apresentando sensibilidade de aproximadamente -60 dBm com foto-detector de silício, é utilizado para fazer a calibração do MPO. O MPO na atual etapa de desenvolvimento não utiliza qualquer estágio adicional de amplificação eletrônica.

3. RESULTADOS E CONCLUSÕES

Foram feitas medidas de calibração preliminares do MPO utilizando fontes luminosas de prova de espectro relativamente largo (LEDs) em ~ 30 nm. Especificamente, utilizou-se LEDs da Diemount GmbH. A Figura 2 mostra os gráficos de calibração do MPO nas seguintes cores e comprimentos de onda centrais: azul (470nm), verde (520nm), laranja (590nm) e vermelho (650nm).

Page 201: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

201

Figura 2. Gráfico de calibração do MPO usando LEDs como luz de prova.

O eixo horizontal da Fig. 2 representa a potência óptica (em dBm) medida pelo medidor de potência óptica e o eixo vertical o sinal elétrico (em dBV), fornecido pelo voltímetro.

A sensibilidade é dada pelo coeficiente angular entre a voltagem medida e a potência óptica injetada no MPO, calculado por regressão linear. Conforme esperado, a sensibilidade se manteve constante em ~2,5 dBe/dBo, independente da cor do LED utilizado. A alteração do comprimento de onda se refletiu no deslocamento da curva de calibração ao longo do eixo horizontal, sem mudança no coeficiente angular. A partir de aproximadamente -5 dBm observou-se que o foto-Darlington entrava em regime de saturação. Pode-se também notar na Fig. 2 que o MPO foi capaz de medir potência óptica mínima de ~ -50 dBm, portanto exibindo cerca de 45 dB de faixa dinâmica de operação.

O MPO foi então capaz de medir cerca - 50 dBm como potência óptica mínima. Esse valor é comparável, por exemplo, ao intervalo usual de –50 dBm a -60 dBm de potência óptica mínima detectável exibido por medidores de potência óptica comerciais do tipo handheld.

O MPO aqui descrito permite ainda diversos aperfeiçoamentos tais como: aumento da coleta de luz espalhada ao longo dos ~ 11 mm de comprimento da fibra exposta, pós-amplificação do sinal, aumento da faixa dinâmica, aumento da estabilidade via promediação temporal de sinais, etc.

4. AGRADECIMENTOS

Os autores gostariam de agradecer ao CNPq e a Faperj pelo apoio financeiro concedido a esta pesquisa.

5. REFERÊNCIAS

O. ZIEMANN, J. KRAUSER, P.E. ZAMZOW AND W. DAUM, (2008) “POF Handbook: Optical Short Range Transmission Systems”, 2nd edition, Spring.

S. BOTTACCHI, (2006). “Multi_Gigabit Transmission over Multimode Optical Fibre: Theory and Design Methods for 10 GbE Systems”, Wiley

ACTIVE CABLES, IgiGroup em www.igigroup.com (acessado em 14 de agosto de 2011).

Page 202: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

202

S. KATO, O FUJISHIMA, T. KOZAWA AND T. KACHI, (2004) “Transmission characteristics of a 250 Mb/s POF datalink employing GaN green LED”, ICPOF 2004, Nürnberg, Germany, pgs. 232-236.

D. MARCUSE, (1981) “Principles of Optical Fiber Measurement”, Academic Press, pg. 221,

Page 203: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

203

O design e o emprego de materiais alternativos: uma abordagem na indústria de confecção

Luiza Helena Boueri Rebello

Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

[email protected]

RESUMO

É notório que o processo de industrialização no mundo afeta o meio ambiente e a saúde dos indivíduos, onde o consumo desenfreado de artefatos e o desenvolvimento de produtos que são manufaturados visando atender às necessidades do mercado. É preciso observar a importância de percorrermos novos caminhos para a sustentabilidade através de uma diminuição no consumo e na regeneração das matérias-primas, tecnologias e processos de baixo impacto ambiental e social, questionando, principalmente, sua disponibilidade e adequação e em que as tecnologias envolvidas no sistema de produção são acessíveis e se estão de fato, integradas ao meio ambiente. Foi feito um levantamento de materiais e fonte naturais sustentáveis na indústria de confecção a fim de poder atuar através do incremento para o desenvolvimento de soluções sustentáveis, através de inovações para a sustentabilidade, como fibras têxteis produzidas a partir de resíduos vegetais e polímeros. Onde uma abordagem estratégica se faz necessária observando as questões de impacto social, materiais e aspectos produtivos. O designer/desenhista industrial deve estar ciente da sua responsabilidade e dos possíveis impactos resultantes da inadequação do desenvolvimento de um produto. O estudo do sistema-produto em questão favorece melhorias ambientais geradas pela modificação planejada e acarretando no desenvolvimento projetual consciente de cada processo do produto com o intuito de minimizar os impactos ambientais.

Palavras-Chave: Design. Sustentabilidade. Indústria de Confecção. Materiais Alternativos.

1. INTRODUÇÃO

O desenvolvimento tecnológico e a crescente sofisticação dos processos de produção possibilitaram a existência de diversas alternativas para produtos ou serviços com finalidades semelhantes.

A sociedade foi atribuindo cada vez mais importância às questões ambientais. Isto promoveu a necessidade de desenvolvimento de abordagens e ferramentas de gestão que possibilitassem às empresas, assim como, de uma maneira mais geral, às diversas partes interessadas da sociedade, como governo, institutos de pesquisas e outros, avaliar as consequências ambientais das decisões adotadas em relação aos seus processos ou produtos.

O Desenho Industrial/Design está comprometido com a concepção e planejamento de objetos dos atuais modelos de produção em escala. Estes modelos estimulam e provocam o consumo com a finalidade de escoar a produção quando excedente e garantir o pleno funcionamento da produtividade.

O “modo sustentável”, junto às comunidades, que utiliza tecnologias e matérias-primas disponíveis no local é, na maioria das vezes, esquecido.

2. OBJETIVO

O design para a sustentabilidade é o ato de projetar produtos, serviços e sistemas com um baixo impacto ambiental e uma alta qualidade social.

Page 204: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

204

Quando falamos de sustentabilidade ambiental relacionada ao desenvolvimento de produtos, nos referimos aos critérios, aos métodos e aos investimentos no Projeto do Ciclo de Vida. O projeto, faz parte do Ciclo de Vida do Produto.

O objetivo ambiental deste ciclo é reduzir os inputs de materiais e energia, assim como o impacto de todas as emissões e os dejetos. Não apenas do aspecto de produção mais limpa, mas principalmente no momento em que o produto é usado.

Apresentar questões relativas o Desenho Industrial e de sustentabilidade em relação à indústria da moda, mostrando que é possível interagir positivamente em termos ambientais mesmo dentro de um setor onde o consumo é a engrenagem mestra.

3. METODOLOGIA

Fazer um levantamento dos materiais e fontes naturais sustentáveis, observando suas particularidades em termos produtivos dentro do ciclo de vida do produto – do berço ao berço.

Segundo VEZZOLI (2008), ao projetar uma peça de vestuário, é imprescindível que se observe todos os procedimentos de cuidados (inclui-se, lavagens e outros cuidados) e manutenção do produto, já que estes processos de manutenção também implicam em gastos e produção de resíduos. Exemplo: uma vestimenta sustentável também deve sujar menos para se gastar menos água e sabão. Deve ter boa durabilidade também, minimizando assim, custos de produção e de manutenção.

O estudo de novos materiais e novas tecnologias no desenvolvimento de materiais é de grande importância.

A biotecnologia nos mostra que é possível extrair elementos de matérias primas não poluentes e de ótima qualidade e baixo impacto ambiental, como a soja, milho e palha de milho, fibra de bananeira, bagaço de cana e bambu são hoje aproveitados como matéria-prima para plásticos, fibras têxteis e nanofibras.

4. MATERIAIS NATURAIS – FIOS NATURAIS

A escolha de uma fibra é o primeiro passo para a criação de tecidos sustentáveis e existe uma grande responsabilidade dentro deste contexto, que não é limitada se a fibra é natural ou não, mas como a matéria prima é desenvolvida. (BAUGH, 2008)

De acordo com FLETCHER (2008), existe uma grande diversidade de materiais e os fios naturais são obtidos diretamente da natureza e os filamentos são feitos a partir de processos mecânicos de torção, limpeza e acabamento. Podem ser obtidos a partir de frutos, folhas, cascas e tronco. As principais plantas têxteis são: o Algodoeiro (fibra de algodão), a Juta (para fazer cordas), o Sisal (parecido com o linho), o Linho (caule com filamentos rígidos) e o Rami (também muito utilizado como o linho). Os fios de origem animais são os que seguem: lã, pelos finos e grosseiros, fios e tecidos de crina e seda.

Fibras limpas e ‘verdes’ são produzidas a partir de resíduos vegetais tais como soja, milho e palha de milho, bananeira, abacaxi, cana de açúcar, bambu estão sendo estudadas com o intuito de produzir novos materiais de baixo impacto ambiental.

Soja – SPF (Soybean Protein Fiber): Fibra têxtil produzida a partir de resíduos dos grãos de soja resultantes da produção de óleo de soja. Esta fibra se transforma numa viscose e foi inicialmente conhecida como “cashmere vegetal”.

Milho e Palha de Milho: Veio como uma solução para a substituição da fibra acrílica. Muito utilizado em tecelagem para cobertores e roupas de cama e fios para tricot e crochet.

Mix de Fibra de Bananeira com Fibra de Abacaxi: Tecido filipino chamado “hablon”, tecido à mão, que é uma mistura destas duas fibras vegetais. Outra mistura: “Bagong habi,” uma combinação de tecido feito com fibra de abacaxi e seda.

Page 205: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

205

Fibra de Cana de Açúcar: Retirada do bagaço da cana de açúcar. Sugar Cane Jeans é uma marca japonesa que faz jeans com cana–de-açúcar, ou melhor, misturando fibra de cana e denim selvagem japonês - considerado o melhor do mundo.

Tabela 1. Tipos de fibras têxteis.

Fibras Naturais Fibras Manufaturadas

Vegetais Animais Polímeros naturais (vegetal e animal)

Polímeros sintéticos

Algodão

Linho

Cânhamo

Juta

Rami

Sisal

Banana

Abacaxi

Bambu natural

Seda

Cashmere

Mohair

- Fibras de celulose regeneradas

Viscose

Modal

Lyocell

- Fibras de alginato

Acetato

Triacetato

- Elastodieno (borracha)

- Fibras de proteína regeneradas

Caseína

Soja

-Fibra de poliester biodegradável

Poly (acido lático) PLA

PHA

PHB

- Fibras policondensadas

Poliester

Nylon

- Fibras de polímeros

Acrílico

Polipropileno

PVC

PET

4.1. UM MATERIAL QUE POSSUI CONTRAS E PRÓS: O BAMBU

A obtenção da matéria-prima dos fios é a partir da celulose das folhas de bambu. Porém, existem prós e contras em relação à fibra de bambu:

Contras: Não existem tecidos de fibras de bambu, mas sim de viscose de celulose de bambu. Como a viscose é decorrente de um processo altamente poluente, o tecido de viscose de bambu não é necessariamente ecológico, como muitos podem pensar. O que estão chamando de tecido de fibra de bambu na realidade é o rayon, ou viscose, e é obtido a partir de qualquer vegetal, pelo processamento da celulose com o uso de produtos químicos fortíssimos que prejudicam tanto o meio ambiente que não são mais permitidos no ocidente - esses produtos são fabricados na China, usando o bambu, mas poderiam usar até capim, e seria a mesma coisa - o produto químico usado transforma a celulose (qualquer origem) em um material plástico que é extrudado e posteriormente tecido. O produto final nada tem a ver com o bambu, não é ecologicamente correto nem tem suas características - e a mão de obra é semiescrava.

Prós: É uma fibra biodegradável, regenerada da celulose de polpa de bambu, que não degrada o meio ambiente. O que o degrada é a sua produção. Seu toque fica similar à

Page 206: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

206

viscose, tem função bactericida (garantida por uma associação japonesa), é inibidora de odores, tem a secagem rápida e é bem absorvente. A grande vantagem é que o bambu cresce rapidamente (uns 4 anos para a maturidade). O processo físico adotado para o refino e produção do material é sem elementos químicos ou poluentes.100% biodegradável, a fibra do bambu é chamada de “fibra verde” nos termos da proteção ambiental. A fibra possui os efeitos do bambu: repelente a insetos, ácaros e é resistente a odores. Sem contar que possui maciez, é bactericida e protege contra os raios UVA e UVB. É a chamada fibra de bambu natural, também conhecida como ‘linho’ de bambu (FLETCHER, 2008).

5. BIOPLÁSTICOS

As incertezas: destinação dos resíduos gerados, impactos produzidos durante o processamento, e se adotam parâmetros sustentáveis.

Embora produzidos a partir de fontes renováveis e alguns com propriedades biodegradáveis, podem emitir gases metano e dióxido de carbono e consumir grandes quantidades de combustíveis fósseis.

Há uma grande polêmica em torno dos materiais produzidos pela nanotecnologia tanto pelos processos quanto pelo descarte dos resíduos produzidos.

Segundo GOETTLICH (2004), os plásticos biodegradáveis estimulam o consumismo sem a contrapartida devida com relação à sustentabilidade. São utilizadas maiores quantidades de pesticidas já que são monoculturas e utilizam espécies geneticamente modificadas: carecem de diversidade de espécies, há redução na produção e desarticulação dos pequenos produtores. A biodegradabilidade é apenas um admirável conceito.

5.1. PLA (ÁCIDO POLILÁTICO) – DERIVADO DA DEXTROSE DE MILHO

Plástico biodegradável que utiliza bactérias que extraem o ácido polilácico da dextrose do milho. É o único plástico com aparente potencial competitivo: 80% de cada kg de açúcar do milho (dextrose) são transformados em produto plástico.

• Este processo consome mais energia e produz maior quantidade de gases do que a produção dos plásticos petroquímicos.

• O primeiro benefício do processo: utilização de biomassa como fonte de energia e não a utilização de plantas na transformação de plásticos.

• Necessidade de construção de nova infraestrutura para geração de energia.

5.2. PHA (POLYHYDROXYALKANOATO) – DERIVADO DA CANA DE AÇÚCAR

A bactéria Ralstonia Eutropha converte o açúcar da cana-de-açúcar em grânulos de plástico.

• Requer uma etapa química para síntese do plástico, é mais custoso que os plásticos convencionais e necessita de 300% mais energia do que a produção de PE (polietileno).

• Pode ser obtido a partir da síntese do plástico durante o crescimento da cana-de-açúcar, produzindo o plástico diretamente da planta e eliminando o processo de fermentação.

Page 207: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

207

5.3. PHB (POLÍMERO BIODEGRADÁVEL E BIOCOMPATÍVEL)

Síntese da cana-de-açúcar, extração e purificação do polímero com solventes naturais.

• A solução integrada do processo torna este processo competitivo: 3kg de açúcar produz cerca de 1kg de plástico.

• A biomassa obtida a partir do bagaço da cana fornece a energia necessária para o processo.

5.4. PET RECICLADO

A fibra têxtil feita de garrafa PET reciclada é o mesmo que poliéster reciclado. Na produção (transformação) do poliéster reciclado utiliza-se 30% da energia utilizada na produção da fibra virgem, ou seja, além da própria reciclagem que contribui para reduzir o lixo no meio-ambiente, a economia no uso de energia também é um ativo ambiental desse produto.

Em média, para se confeccionar uma camiseta, utiliza-se uma quantidade de fibra reciclada que corresponde a duas garrafas PET.

As etapas do processo até chegar na camiseta, basicamente, são (através das cadeias direta e indireta):

CADEIA DIRETA

1. Extração do petróleo

2. Processo de refinamento

3. Resina virgem

4. Pré-forma

5. Garrafa

CADEIA INDIRETA

6. Uso pelo consumidor

7. Descarte

8. Coleta Seletiva

9. Moagem e descontaminação

10. Transformação em fibra

11. Fiação

12. Tecelagem

13. Confecção

6. RESULTADOS

O Processo do Ecodesign é desenvolvido através da descrição do sistema-produto em estudo. Onde a prospecção dos efeitos ambientais que certa modificação no design pode acarretar é estudada. A avaliação das melhoras ambientais geradas pela modificação planejada. É importante que haja a comunicação dos resultados positivos da modificação como informação ao consumidor.

• O processo do Ecodesign em Moda - Conceitos Ambientais Fundamentais

a. Educação ambiental;

b. Histórico e evolução do ambientalismo;

Page 208: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

208

c. Práticas de sensibilização ambiental.

• Sistemas de Gestão Ambiental (SGA)

a. Normas ISO14000; Normas Ambientais Brasileiras;

b. Legislação e direito ambiental;

c. Metodologia de implantação do SGA.

• Produção Mais Limpa (P+L)

a. Conceitos básicos; Metodologia de implantação;

b. Estudos de caso de P+L têxteis.

• Eco-eficiência

a. Indicadores Ambientais têxteis;

b. Conceitos de desenvolvimento sustentável;

c. Empresas têxteis sustentáveis.

A utilização de uma fibra de origem natural não significa necessariamente garantir a preservação do meio ambiente, e sua aplicação deve ser avaliada, da obtenção da fibra ao descarte do Produto, verificando-se sua adequação.

• Design de Moda: Panorama no âmbito do Ecodesign

• Aproveitamento de fibras naturais disponíveis;

• Preservação do meio ambiente e saúde dos indivíduos;

• Evitar a inadequação na escolha da matéria-prima;

• Oferecer informações para a elaboração de projetos proporcionando benefícios à sociedade;

• Fatores que contribuam para a melhoria do bem estar físico e social (conforto, relações sociais, tradições culturais).

A pesquisa, ao apresentar o aproveitamento das fibras naturais inseridas no cenário da sustentabilidade e considerando os requisitos projetuais do Ciclo de Vida do Produto, oferece informações para a elaboração de projetos, proporcionando benefícios à sociedade. O desenvolvimento sustentável atende ao presente sem comprometer as gerações futuras.

7. CONCLUSÃO

Para MANZINI e VEZZOLI (2002), Ecodesign ou Design Sustentável é projetar produtos que propiciem o bem-estar social com o mínimo desperdício e prejuízo para a natureza. Pode-se, ainda, ter, como meta futura, a concepção de produtos que produzam impactos positivos na sociedade e no meio ambiente.

A grande mudança de mentalidade introduzida pelo Ecodesign é uma estratégia de início de processo. A responsabilidade da empresa fabricante começa na escolha das matérias-primas (extração e eliminação), passando pela gestão dos processos de projeto, fabricação, embalagem, transporte, instalação, utilização, durabilidade, reaproveitamento ou atualização e tratamento de resíduos. O conceito de Ciclo de Vida do produto que considera todas as fases desde a constituição até a eliminação e reaproveitamento dos produtos.

A indústria têxtil é muito complexa, compondo uma extensa cadeia produtiva que engloba extração de matéria-prima das fibras, fiação, tecelagem, beneficiamento e acabamento (estamparia, tinturaria etc.) para se chegar ao tecido. Este, pronto, entra-se na parte de confecção de roupas: pesquisa, criação, escolha dos tecidos, cores, modelagem,

Page 209: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

209

corte, costura, decoração e acabamento. A roupa pronta segue para setor comercial. O consumidor compra, usa e descarta.

A maioria dos processos produtivos e de beneficiamentos geram resíduos que podem poluir o meio ambiente. Diminuir o impacto ambiental é um desafio assumido pela Associação Brasileira da Indústria Têxtil e de Confecção, ABIT (2011), que criou, em junho de 2000, a Coordenadoria do Meio-Ambiente, com o intuito de orientar o produtor têxtil a respeito das questões ambientais, dando informações sobre o que esta sendo feito em termos de legislação, controle, tecnologia no tratamento de efluentes, gerenciamento de resíduos, entre outros.

Desenvolvimento projetual consciente, observando a preservação da Natureza como um todo, evitando impactos ambientais, do início do processo (produção da matéria-prima) até o descarte. Passando pelo uso e manutenção do produto (lavagens, cuidados em geral).

Design de Moda Sustentável não é apenas o reaproveitamento de materiais pouco usuais, é, acima de tudo, a conscientização de cada processo de desenvolvimento do produto com o intuito de minimizar os impactos e incrementar o bem estar dos usuários e habitantes do Planeta.

8. REFERÊNCIAS

ABIT (2011). Serviços – Meio Ambiente. Disponível em: < http://www.abit.org.br >. Acesso em 04 de agosto de 2011.

BAUGH, Gail. (2008). Fibers: Clean and Green Fiber Options. In: HETHORN, J./ULASEWICZ, C. (org.). Sustainable Fashion – Why not? A conversation about issues, practices, and possibilities. New York. Fairchild Books, Inc..

FLETCHER, Kate. (2008). Sustainable fashion & textiles. London. Earthscan.

GOETTLICH, Paul. (2004). Is Biodegradable Plastic an Oxymoron Just Like Recyclable Plastic? Disponível em: < http://www.mindfully.org/Plastic/Biodegrade/Oxymoron-Biodegradable-Plastic5dec04.htm >. Acesso em 04 de agosto de 2011.

MANZINI, Ezio; VEZZOLI, Carlo. (2002). O Desenvolvimento de Produtos Sustentáveis – Os requisitos ambientais dos produtos sustentáveis. 1ª. Ed. – São Paulo. Ed. EDUSP.

VEZZOLI, Carlo. (2008). Cenário do design para uma moda sustentável. In: PIRES, Dorotéa Baduy (Org.). Design de Moda: Olhares diversos. 1ª Ed., Estação das Letras e Cores, São Paulo.

Page 210: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

210

O impacto da introdução da portabilidade numérica s obre o churn das operadoras de telefonia móvel brasileiras

¹Gustavo de Castro Brantes, ²Sandra Regina Holanda Mariano

¹Escola de Engenharia – Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

²Escola de Administração - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

¹[email protected]

²[email protected]

RESUMO

Este artigo tem como objetivo analisar o impacto no churn das operadoras móveis brasileiras diante da introdução da Portabilidade Numérica no Brasil. Para tanto, foram avaliadas as informações históricas do indicador churn das operadoras que mostraram que a introdução da Portabilidade Numérica, que garantia aos usuários a manutenção de número de telefone em qualquer operadora, não teve efeito significativo na migração de usuários entre estas, contrariando as previsões do regulador e das próprias operadoras. A variação do indicador churn de todas as empresas de telecomunicações móveis brasileiras será apresentada. Por meio da análise consolidada da evolução do indicador churn de todas as operadoras móveis brasileiras pré e pós Portabilidade Numérica, pôde-se perceber o quanto a Portabilidade Numérica influenciou no indicador churn das operadoras móveis no Brasil.

Palavras-chave: Portabilidade Numérica. Consumidor. Churn. Telecomunicações.

1. Introdução

O presente artigo tem como objetivo analisar a evolução do churn das operadoras de telefonia móvel brasileiras antes e depois da introdução da Portabilidade Numérica no Brasil. Em março de 2007, foi publicada, no Diário Oficial da União, a Resolução n.º 460, que aprovava o Regulamento Geral de Portabilidade – RGP. Esta resolução estabeleceu que, a partir de setembro de 2008, a Portabilidade Numérica (PN) deveria ser implementada no Brasil.

O churn é um indicador que consiste em medir o número de clientes que abandonam uma empresa em favor de uma concorrente, terminando toda a sua relação com a empresa antiga e iniciando uma nova relação com outra, para tanto é necessário o desenvolvimento de fundamentação teórica de marketing, a partir de grandes temas como: retenção de clientes, fidelização, significado do churn e seus impactos, processo de decisão do consumidor e marketing de relacionamento, objetivando conhecer o comportamento do consumidor e como ele reagiria mediante a quebra de uma importante barreira de saída.

A telefonia é um serviço de utilidade pública que é regulado pela Agência Nacional de Telecomunicações (ANATEL). É papel do órgão regulador, entre outras atribuições, contribuir para um ambiente de ofertas de serviço com qualidade, estimulando a competição entre as operadoras do mercado. Ao incentivar a competição, o órgão regulador garante a melhoria do serviço prestado e a oferta de melhores preços, tendo em vista que a competição é uma das formas de promover a auto-regulação do mercado. A introdução da Portabilidade Numérica foi uma ação direta da ANATEL com o objetivo de incentivar a competição dentro do serviço de telecomunicações.

O trabalho justifica-se já que, a introdução da Portabilidade Numérica é um fator relevante, tanto do ponto de vista tecnológico como do ponto de vista comercial, pois a sua introdução eliminou uma barreira de saída dos clientes das operadoras, o que, potencialmente, interfere na dinâmica competitiva do setor.

Page 211: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

211

Estudos internacionais demonstraram que a introdução da Portabilidade Numérica trouxe grandes impactos no setor de telecomunicações. Incremento do churn e ações de retenção e fidelização foram os principais efeitos da Portabilidade Numérica em países onde esta facilidade foi implementada. É importante a realização de estudos brasileiros que analisem o fenômeno da portabilidade de modo a orientar e aperfeiçoar as políticas regulatórias e ampliar a compreensão sobre o comportamento do consumidor brasileiro em mercados de serviços regulados.

Como contribuição adicional, é relevante verificar o impacto da quebra de uma barreira considerada muito importante pelas operadoras de telefonia móvel, dentro do cenário comercial e conceitual de fidelização e retenção, mostrando resultados quantitativos da implementação da Portabilidade Numérica, avaliada como a quebra de uma forte barreira de saída.

2. Fundamentação teórica

Desde a privatização do setor de telecomunicações o órgão regulador passou a ter papel fundamental e, ao longo dos anos, determinou grandes mudanças regulatórias e obrigações, em benefício do usuário e da sociedade como um todo, que impactaram as operadoras de telefonia no Brasil.

A Portabilidade Numérica é a facilidade de rede que possibilita ao usuário de serviço de telecomunicações manter o código de acesso a ele designado, seu número de telefone, independentemente da prestadora de serviço de telecomunicações ou de área de prestação do serviço. Prevista na Lei Geral das Telecomunicações, a portabilidade deveria exercer forte pressão competitiva e ser mais um impulso na mudança das relações entre usuários e operadoras, gerando forte aumento do número de usuários que mudam de prestadora de serviço medido através do churn.

Existem dois tipos de churn: o voluntário e o involuntário.

O churn voluntário ocorre quando o cliente por vontade própria termina os serviços com a operadora. Ele pode ainda ser dividido em churn deliberado, quando o consumidor possui razões relacionadas diretamente ao uso da tecnologia celular da operadora para trocá-la por uma concorrente; ou churn acidental, causado por razões que fogem ao controle do cliente, como grandes mudanças de localidade de moradia, problemas financeiros pessoais e outras grandes mudanças de vida (MATTISON, 2001).

O churn involuntário é resultado de uma ação da própria empresa, que, por motivos de fraude, falta de pagamentos e até mesmo falta de utilização do serviço, pode vir a romper sua relação com o cliente (MATTISON, 2001).

As razões que levam ao churn voluntário deliberado podem variar muito, indo desde insatisfação com o aparelho celular utilizado, passando por problemas com o valor da tarifa por minuto de uso cobrada pela operadora e cobertura do serviço, e chegando até mesmo a ter causas como a influência de família e amigos insistindo para que o usuário troque de operadora para se beneficiar das vantagens de ligações dentro da rede de uma mesma operadora (chamada intra-rede).

O churn não é o problema de fato, mas um sintoma de um problema maior. Na verdade, o que falta às organizações é a habilidade de lidar e gerenciar os relacionamentos que possuem com seus clientes. Em geral, as empresas não sabem quem seus consumidores são, o que eles precisam e querem, o que os faria ficar na empresa e o que os faria partir. Esse fato é a causa do churn parecer um problema tão grande (BERRY, 2000).

O negócio de telefonia móvel vai muito além, hoje, do simples fornecimento de um serviço de comunicação móvel. Com o crescimento do número de clientes nos últimos anos, os aparelhos e a variedade de serviços que disponibilizam (de transmissão de voz e dados até câmeras digitais, localizador, internet e e-mail) tornaram-se essenciais para muitos

Page 212: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

212

usuários. Possivelmente a telefonia celular já alcançou o status de necessidade básica do ser humano do século XXI. Desta forma, muito mais do que simplesmente vender serviço de telecomunicações, as operadoras estão empenhadas na venda de estilo, praticidade, confiabilidade e tecnologia superior.

O mercado de telefonia móvel tem como característica a alta taxa de migração de clientes entre as operadoras (“Churn”). Para tanto, é importante analisar se as ações de captação e de retenção de clientes praticadas pelas operadoras por meio das práticas de marketing garantiram a manutenção dos patamares de churn mesmo após a introdução da Portabilidade Numérica no Brasil..

3. Benchmark internacional

Enquanto a implementação da portabilidade no Brasil ocorreu apenas em 2008, os habitantes dos Estados Unidos, Cingapura, França e Suécia, por exemplo, podem trocar de operadora sem perder o número desde 1996. No entanto, a maneira como a portabilidade é implementada em cada país e o impacto que ela traz para os usuários e prestadoras variam bastante.

É possível fazer um paralelo entre países e observar alguns fatores relevantes para a implementação da portabilidade móvel e as diferentes práticas adotadas pelos países em questão.

Em Hong Kong, as ações regulatórias executadas foram robustas. Implementação de instrumentos que tornam obrigatória a aceitação de solicitação de Portabilidade Numérica, validação simples das informações dos clientes quando da solicitação da Portabilidade Numérica, definição de razões mínimas para que se recuse uma portabilidade e a criação de base de dados nacional para suportar o processo foram fatores regulatórios fundamentais para o sucesso da portabilidade nesse país. (UNIÃO INTERNACIONAL DE TELECOMUNICAÇÃO-UIT, 2009)

Por outro lado, países como Reino Unido e Holanda pecaram nas definições, quando da implementação da portabilidade, se destacando pelo mau desempenho desta facilidade em seus respectivos países. No Reino Unido, não houve a implementação de uma base de dados nacional para operacionalizar a portabilidade. Além disso, o modelo para validação de informações cadastrais era extremamente rigoroso e burocrático. O tempo para a transferência, após a solicitação, variava de 15 a 25 dias úteis e a taxa de sucesso operacional era baixa. (UNIÃO INTERNACIONAL DE TELECOMUNICAÇÃO, 2009).

No Brasil, a ANATEL procurou estudar os cenários internacionais e definir um modelo que não repetisse os erros de países onde a Portabilidade Numérica praticamente passou despercebida e, sob o ponto de vista operacional, a implementação da Portabilidade Numérica no Brasil foi considerada um sucesso e serve de referência para países sul-americanos como Chile e Paraguai, que estarão implementando essa facilidade entre 2011 e 2012.

4. Resultado

O indicador churn das operadoras mede a taxa percentual de clientes desligados, durante um determinado período, que se obtém dividindo-se o total de cancelamentos no período pelo número de celulares no início do período. O indicador churn significa o percentual de usuários que migrou de uma operadora para outra, tendo em vista que, no atual momento do setor, considera-se desprezível o número de clientes que se desliga de uma determinada operadora e não mais utiliza o serviço de telefonia móvel.

Na tabela a seguir, pode-se verificar a evolução do indicador churn médio mensal das quatro principais operadoras móveis brasileiras, responsáveis por mais de 98% do mercado de telefonia móvel brasileiro, do primeiro trimestre de 2007 até o terceiro trimestre de 2010. Ao comparar os indicadores de churn mensal médio das operadoras antes e

Page 213: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

213

depois da implementação da Portabilidade Numérica, verifica-se que não houve grande variação de comportamento entre as operadoras analisadas. Apesar de as operadoras Tim e Oi terem maiores variações ao longo do período, conforme mostrado na tabela abaixo, não se percebe uma evolução constante do indicador churn para nenhuma das operadoras móveis do setor.

Tabela 1- Evolução trimestral do indicador churn mensal médio das operadoras móveis

Fonte: Relatório trimestral das operadoras de telefonia disponível em seus respectivos sites na web.

Já no gráfico a seguir, verifica-se a evolução média do indicador churn mensal Brasil, que exemplifica, de forma mais clara, uma curva com pequeno crescimento, principalmente após a introdução da portabilidade no Brasil, período este destacado em vermelho no gráfico.

Os percentuais de churn mensais das operadoras móveis brasileiras apresentam valores altos, da ordem de 3% ao mês, desde janeiro de 2007. Desde a plena implementação da Portabilidade Numérica, em março de 2009 até setembro de 2010, verificou-se um pequeno crescimento do churn mensal da ordem de 0,5 pontos percentuais, ainda que de forma não homogênea.

Fonte: Relatório trimestral das operadoras de telefonia disponível em seus respectivos sites na web

Gráfico 1 - Gráfico consolidado da evolução trimestral do indicador churn mensal médio Brasil das operadoras Móveis

O resultado desta análise sugere que houve crescimento moderado do churn mensal, após a introdução da Portabilidade Numérica, de maneira não homogênea entre as operadoras. A expectativa do mercado, segundo dados da Entidade Administradora da Portabilidade Numérica (ABR-T) era de um crescimento médio da ordem de três pontos percentuais, conforme volume contratado pela Entidade Administradora da Portabilidade Numérica (ABR-T) ao fornecedor de solução tecnológica. No entanto, verificou-se um crescimento médio da ordem de 0,5 pontos percentuais.

Pode-se assumir que o resultado apresentado mostra que a introdução da Portabilidade Numérica representou um impacto no crescimento do churn de forma tímida,

2,00%

2,40%

2,80%

3,20%

3,60%

1T07 2T07 3T07 4T07 1T08 2T08 3T08 4T08 1T09 2T09 3T09 4T09 1T10 2T10 3T10

Page 214: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

214

até o momento, girando em torno de 0,5 pontos percentuais em aproximadamente quinze meses de plena implementação da Portabilidade Numérica no Brasil.

Considerando que a média mensal de números portados, de março de 2009 a setembro de 2010, é da ordem de 337.062 números portados por mês, e que a expectativa do setor de telecomunicações, quanto ao volume de números portados por mês, era da ordem de 1.750.000, verifica-se que a média mensal da quantidade de números portados representa apenas 19,26% da expectativa inicial do setor de telecomunicações.

5. Conclusões

Levando em consideração o histórico do indicador churn do setor de telefonia móvel, verifica-se que a Portabilidade Numérica trouxe incremento moderado nessa taxa de migração, em torno de 0,5 ponto percentual e muito inferior às expectativas das operadoras e do órgão regulador.

Apesar de o volume de números portados se revelar muito abaixo do planejado inicialmente pelo setor, o benefício da possibilidade de trocar de operadora, com a manutenção de número, foi alcançado com sucesso. Para tanto, o objetivo primordial da ANATEL, que era aprimorar o direito do consumidor disponibilizando esta nova facilidade para o usuário, foi atingido com a introdução da Portabilidade Numérica. A ANATEL fez valer seu papel de regulador para que o usuário de telefonia tivesse mais facilidades e menos barreiras quando quisesse mudar de operadora.

6. Referências

ASSOCIAÇÃO BRASILEIRA DE RECURSOS EM TELECOM - ABR-T. (2010). Disponível em http://www.abrtelecom.com.br. Acesso em: out./dez. 2010.

AGÊNCIA NACIONAL DE TELECOMUNICAÇÕES - ANATEL.(2009). Disponível em: http://www.anatel.gov.br. Acesso em: jan./ dez. 2009.

BANCO NACIONAL DE DESENVOLVIMENTO ECONÔMICO E SOCIAL (Brasil). (2009). Área de Projetos de Infraestrutura Urbana. Operadoras de Telefonia Móvel no Brasil. In: Caderno de Infraestrutura – Fatos /Estratégias, Rio de Janeiro, ago.2001. Disponível em: http://www.bndes.gov.br. Acesso em: 22 jun. 2009.

BERRY, L.L; PARASURAMAN, A.(1992). Serviços de marketing: competindo através da qualidade. Tradução: Beatriz Sidou. São Paulo: Maltese-Norma, 1992.

CLARO. Operadora.(2010).Disponível em http://www.claro.com.br. Acesso em: jan./out. 2010

MATTISON, R. (2001) Telecom Churn Management. APDG Publishing.

MINISTÉRIO DAS TELECOMUNICAÇÕES (1997). BsB. Lei Geral das Telecomunicações.

______. Reforma estrutural do sistema de telecomunicações, 1996.

OI. Operadora.(2010). Disponível em: http://www.oi.net.br. Acesso em: jan./out. 2010

TELECO – Inteligência em Telecomunicações. (2009). Disponível em: http://www.teleco.com.br. Acesso em: set. 2009.

TIM. Operadora.(2010). Disponível em: http://www.timbrasil.com.br. Acesso em: jan./out. 2010

UIT. União Internacional de Telecomunicação.(2010). Disponível em: http://www.UIT.com. Acesso em: jan./abr. 2010

VIVO. Operadora.(2010). Disponível em: http://www.vivo.com.br. Acesso em: jan./out. 2010.

Page 215: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

215

O plano nacional de banda larga e suas metas

Luiz Fernando Taboada

Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil

[email protected]

RESUMO

O Plano Nacional de Banda Larga (PNBL) formulado pelo governo federal objetiva fomentar serviços e negócios na área de Telecomunicações. Este artigo pontua aspectos do planejamento e das oportunidades de implementação de novas tecnologias e verifica, com dados atuais, se as metas estabelecidas no plano do governo são exeqüíveis no contexto brasileiro. Através da pesquisa documental e da abordagem quantitativa delineia-se o cenário brasileiro, foco das aspirações sociais e econômicas que motivam o incremento do plano em questão no sentido da redução das desigualdades existentes no Brasil. As conclusões evidenciam as dificuldades e complexidades que envolvem as ações no âmbito político, regulatório, tributário, pesquisa & desenvolvimento estratégico que constam do PNBL.

Palavras Chave: Tecnologias, Metas, Gestão, Ciência e Pesquisa, Desigualdades

1. CONCEITOS

A Presidência da República através do Decreto nº 7.175, de 12 de maio de 2010, instituiu o Plano Nacional de Banda Larga – Brasil Conectado que estabelece as bases para as ações a serem construídas e implantadas coletivamente no período de 2010 a 2014.

A Agência Nacional de Telecomunicações (ANATEL), órgão regulador brasileiro, considera que a banda larga é um acesso com escoamento de tráfego tal que permita aos consumidores finais, individuais ou corporativos, fixos ou móveis, usufruírem, com qualidade, de uma cesta de serviços e aplicações baseada em voz, dados e vídeo.

As ações do Programa estão consolidadas em quatro dimensões pontuadas a saber:

- natureza regulatória;

- incentivos fiscais e financeiros;

- política produtiva e tecnológica;

- rede de telecomunicações nacional com foco no atacado.

Os principais objetivos do plano foram: a criação de oportunidades, a aceleração do desenvolvimento econômico e social, a promoção da inclusão digital, a redução das desigualdades social e regional, a promoção da geração de emprego e renda, a facilitação do uso dos serviços do Estado, a promoção da capacitação da população para o uso das tecnologias de informação e o aumento da autonomia tecnológica e da competitividade.

2. CENÁRIO

Para entender melhor as razões que levaram o Brasil a conceber um plano de tamanha envergadura é fundamental que seja feito um recorte da situação brasileira na área de telecomunicações e compará-la com os demais países do mundo, possibilitando uma análise mais realista sobre a pertinência da priorização do referido programa.

A Figura 1 propicia uma avaliação comparativa do serviço de telefonia fixa.

Page 216: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

216

Total Mundo - 1,19 bilhões – 2010

Total Brasil - 42,0 milhões – 2010

Figura 1 – Evolução de Terminais Telefônicos Fixos em funcionamento - ITU (2011)

As taxas de penetração (quantidade de acessos/habitantes x 100) são de 17,3 no mundo contra 21,7 no Brasil.

Percebe-se que o Brasil ainda possui um pequeno espaço para crescimento e conclui-se que boa parte da demanda está sendo atendida pela migração do serviço fixo tradicional para o serviço móvel ou para outras formas não convencionais.

O comportamento do serviço móvel celular é apresentado pela Figura 2.

Figura 2 – Evolução de Terminais Móveis em funcionamento - ITU (2011)

Total Mundo - 5,28 bilhões - 2010 Total Brasil - 202,9 milhões – 2010

As taxas de penetração (quantidade de acessos/habitantes x 100) são de 76,2 no mundo contra 104,7 no Brasil.

1180

1200

1220

1240

1260

1280

1300

2005 2006 2007 2008 2009 2010

Terminais Fixos no Mundo em Milhões

37

38

39

40

41

42

43

2005 2006 2007 2008 2009 2010

Terminais Fixos no Brasil em Milhões

0

1000

2000

3000

4000

5000

6000

2005 2006 2007 2008 2009 2010

Terminais Móveis no Mundo em Milhões

0

50

100

150

200

250

2005 2006 2007 2008 2009 2010

Terminais Móveis no Brasil em Milhões

Page 217: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

217

No demonstrativo evidencia-se que o Brasil ainda apresenta um crescimento bastante expressivo, destacando-se o fato da taxa de penetração no Brasil encontrar-se bem acima da média mundial, bem como a expressiva colocação brasileira como a quinta maior planta mundial de linhas celulares em funcionamento.

A seguir elabora-se uma avaliação sobre a banda larga com os mesmos critérios comparativos já utilizados anteriormente. A exigência sobre este serviço é determinante nos dias de hoje, pois o mesmo promove a promoção de uma maior difusão das aplicações de Governo possibilita o crescimento do Produto Interno Bruto (PIB) brasileiro e socializa as diferentes culturas, as diferenças existentes entre o Brasil.

A situação brasileira é retratada pelas Figuras 3 e 4.

Figura 3 – Evolução de Acessos Fixos Banda Larga em funcionamento – ITU (2011)

Total Mundo - 555 milhões - 2010 Total Brasil - 13,8 milhões – 2010

Taxa de Penetração - Mundo - 2010 - 8,0 Taxa de Penetração – Brasil - 2010 - 7,1

Figura 4 - Evolução de Acessos Móveis Banda Larga em funcionamento - ITU (2011)

Total Mundo - 800 milhões - 2010 Total Brasil – 20,6 milhões - 2010

Taxa de Penetração - Mundo - 2010 – 13,6 Taxa de Penetração - Brasil - 2010 - 10,6

As figuras anteriores demonstram que o Brasil está situado abaixo da média mundial.

A diferença torna-se é mais relevante se a comparação for feita com a média dos países componentes da Organização de Cooperação e Desenvolvimento Econômico (OCDE), que representam economias de alta renda com um elevado Índice de Desenvolvimento Humano (IDH). A taxa de penetração para acesso a banda larga fixa dos membros da OCDE é superior a 25. Afinal o Brasil é o 7º Produto Interno Bruto (PIB) no mundo e caminhando para o 5º lugar.

100

200

300

400

500

600

2005 2006 2007 2008 2009 2010

Acessos Fixos BL no Mundo em Milhões

3

6

9

12

15

18

2005 2006 2007 2008 2009 2010

Acessos Fixos BL no Brasil em Milhões

399

595

800

2,3 8,8 20,60

100200300400500600700800900

2008 2009 2010

Acessos Móveis Banda Larga no Mundo em Milhões

Acessos Móveis Banda Larga no Brasil em Milhões

Page 218: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

218

Existe adicionalmente o aspecto qualitativo, expresso através da velocidade média de conexão. Alguns valores são fundamentais para entender melhor a posição brasileira. Nos EUA, a velocidade média de conexão estava situada entre 3 e 4 Mbps em 2008, enquanto no Brasil o valor médio era de 1,7 Mbps em 2010.

Outro fato relevante é que a difusão da banda larga no Brasil não acontece de forma homogênea, devido principalmente as desigualdades socioeconômicas existentes.

Por todas estas razões, a necessidade de estabelecimento de um Programa estruturado pelo Governo Federal apresentou-se como uma ação urgente e prioritária, visando a colocar o País em um patamar compatível com o seu nível de desenvolvimento.

3. METAS

Preliminarmente a pretensão do governo é massificar, até 2014, a oferta de acessos banda larga, promovendo o crescimento da capacidade de transporte de serviços de telecomunicações, de modo que os valores estabelecidos no PNBL sejam atingidos.

A tabela 1 aponta as metas estabelecidas no plano..

Tabela 1. Metas do Plano Nacional de Banda Larga

Os números propostos representam o alcance de um nível de teledensidade próximo de 50 acessos por 100 domicílios (em acessos fixos banda larga), ou 45 acessos por 100 habitantes (acessos fixos e móveis em banda larga) no total.

Os recursos estimados para a execução do Plano são apresentados na Tabela 2.

Tabela 2. Recursos financeiros estimados para o Plano Nacional de Banda Larga

Cumprimento das Metas até 2014

Investimentos Montante de Recursos

Empresas Privadas 49 bilhões de reais

Governo 26 bilhões de reais

Total 75 bilhões de reais

Abrangência e Tipo de Acesso Metas para 2014

Acesso Fixo Individual

(Urbano e Rural)

30 milhões de acessos BL fixa (urbanos e rurais), somando-se os acessos em domicílios, propriedades, empresas e cooperativas

Acesso Fixo

Coletivo

(Urbano e Rural)

Levar acesso banda larga a 100% dos órgãos de Governo, incluindo:

100% das unidades da Administração Federal, Estados e Municípios

100% das escolas públicas não atendidas (mais de 70.000 rurais)

100% das unidades de saúde (mais de 177.000)

100% das bibliotecas públicas (mais de 10.000)

100% dos órgãos de segurança pública (mais de 14.000)

Acesso Móvel 60 milhões de acessos BL móvel, entre terminais de voz/dados (serviço de dados ativo) e modems exclusivamente de dados

Page 219: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

219

A proposta estabelecida no Plano Nacional de Banda Larga elaborado pelo Ministério das Comunicações e apresentado a sociedade em novembro de 2009 tem como base o documento Plano Geral de Atualização da Regulamentação no Brasil (PGR) da ANATEL de novembro de 2008 que estabelece o seu planejamento estratégico organizado em ações de curto, médio e longo prazo

Neste documento a ANATEL fez algumas projeções na área de telecomunicações para o Brasil até o ano de 2020, onde podem ser destacados os seguintes pontos:

- Quantidade de acessos banda larga para 2014 – 87 milhões;

- Quantidade de acessos fixos banda larga para 2014 – 30 milhões;

- Quantidade de acessos móveis banda larga para 2014 – 57 milhões.

Diante dos números apresentados no PGR fica fácil entender que os valores do PNBL foram apenas uma ratificação do documento anterior, apenas com um ligeiro ajuste na quantidade de acessos móveis banda larga.

4. AVALIAÇÃO

As considerações sobre as possibilidades de atingimento das metas são feitas, a seguir, no âmbito das redes envolvidas.

4.1. ACESSOS MÓVEIS

No Plano Geral de Atualização da Regulamentação a ANATEL projeta que o número de acessos móveis (banda larga e não banda larga) previstos para o ano de 2014 chegaria a 215 milhões em funcionamento.

Em junho de 2011, três anos e meio antes, o Brasil já atingiu o quantitativo de 217,5 milhões de acessos em funcionamento sendo 26,6 milhões na tecnologia 3G e com a perspectiva de chegar a mais de 35 milhões acessos móveis 3G até o final do ano, o que representaria um ganho de quase 15 milhões de acessos no ano.

Considerando as ações governamentais na área, como o leilão da Banda H e de licitações de novas faixas de frequência, o número proposto no PNBL, de 60 milhões de acessos, será atingido e superado com certa facilidade.

Fora do contexto inicial do PNBL existe o estudo sobre o uso da tecnologia 4G até o início da Copa do Mundo, mas que não deverá ter representatividade em termos numéricos.

4.2. ACESSOS FIXOS

A quantidade de acessos fixos banda larga projetada para junho de 2011 é de 15,2 milhões, um pouco mais da metade estabelecida no PNBL.

A manutenção do ritmo atual de crescimento não seria por si só suficiente para o atingimento da meta de 30 milhões definida até o final do ano de 2014.

A ANATEL, consciente deste fato, está adotando como principal estratégia para potencializar o atingimento das metas, o trabalho na vertente de preços. Nesse sentido, a prioridade é a oferta da velocidade de 1 Mbps com preços a partir de R$ 35. As mensalidades dos planos de 1 Mbps oferecidos hoje pela maioria das operadoras custam a partir de R$ 39,90, considerando os preços de São Paulo. A banda larga poderá chegar a R$ 29,90 nos estados que aceitarem retirar o ICMS do serviço. Esta ação permitirá o aumento da demanda em um nível suficiente para o alcance da meta.

Estão programadas para 2011, ações de natureza regulatória para o sucesso do plano, como a aprovação da Lei para o serviço de TV Paga, o Regulamento do Serviço de TV a Cabo, os editais de licitação das faixas de 2,5 e 3,5 GHz (tecnologia WiMAX e 4G) e o

Page 220: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

220

Plano Geral de Metas de Competição. Sob da ótica da qualidade, a consulta pública da ANATEL criando exigências mínimas de garantia na oferta de velocidades.

5. CONCLUSÃO

Considerando o exposto anteriormente, pode-se afirmar antecipadamente com uma margem de segurança significativa que as metas apresentadas no Plano Nacional de Banda Larga serão atingidas e superadas.

Um alerta, contudo, se faz necessário, pois normalmente os programas/projetos propostos pelo governo federal necessitam de uma dinâmica diferenciada, ou seja, um aprimoramento do processo de gestão, uma melhoria no tratamento das questões negociais junto ao legislativo para a aprovação de leis e uma ênfase maior na promoção da recuperação das atividades de pesquisa e desenvolvimento que são fundamentais para o Brasil em termos de projeção no cenário mundial.

6. REFERÊNCIAS

PRESIDÊNCIA DA REPÚBLICA (2010). Plano Nacional de Banda Larga. Decreto nº 7.175, Brasília.

ITU (2011). The World in 2010. Geneva.

ANATEL (2008). Plano Geral de Atualização da Regulamentação. Resolução nº 516, Brasília.

Page 221: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

221

Padrões de consumo de água: análise da influência d e características das edificações multifamiliares no

dimensionamento de seus reservatórios

Jeferson Luiz Schmidt, Dieter Wartchow, Carin Maria Schmitt. Escola de Engenharia - Universidade Federal do Rio Grande do Sul (UFRGS)

Porto Alegre, RS, Brasil

[email protected]

[email protected]

[email protected]

RESUMO

O reservatório dos edifícios, um importante item do sistema hidráulico a ser dimensionado pelos projetistas, deve ser avaliado amplamente para não incorrer em dimensionamentos inadequados. Este dimensionamento é diretamente ligado a estimativa de consumo de água que irá ocorrer na edificação, mas o padrão social da edificação, o uso de sistemas de reaproveitamento e o crescente uso de medidores individuais modificam o padrão de consumo de água em cada tipo de empreendimento e as normas vigentes não diferenciam os parâmetros básicos para seu projeto. Este trabalho teve por objetivo verificar quais características dos empreendimentos poderiam ser analisadas para otimizar este dimensionamento do reservatório e qual potencial de otimização possível no seu projeto. Para isso foi realizado levantamento do consumo real de água em quatro edificações da cidade de Porto Alegre com diferentes características. Foram verificados as características existentes, número real de moradores e qual consumo per capita que ocorreu em cada edificação. Ao final foi realizada uma comparação entre os dados reais encontrados e os parâmetros fixos estipulados pelas normas. O resultado mostrou que, em todas edificações, o volume dos reservatórios está acima do necessário e há grande potencial para otimizar seu dimensionamento de acordo com cada tipo de empreendimento.

Palavras-Chave: consumo de água. reservatórios. medição individualizada.

1. INTRODUÇÃO

O mercado competitivo de hoje em dia exige projetos cada vez mais otimizados e sem desperdícios, não pode haver subdimensionamento e muito menos superdimensionamento. Muitas pesquisas são realizadas na tentativa de aperfeiçoar cada vez mais os empreendimentos, buscando novos métodos de planejamento e a elaboração de cronogramas mais eficientes, materiais mais leves e confiáveis para reduzir cargas e patologias nas edificações, ou até mesmo estudos para o reaproveitamento de materiais. O importante é que cada item deve ser dimensionado da forma mais eficiente e econômica possível, mas muitas vezes na fase inicial de projeto da edificação e de todos os seus subsistemas, o projetista se vê diante de dados iniciais genéricos que não consideram características individuais de cada empreendimento.

No que tange a concepção dos projetos e sistemas da instalação hidráulica dos empreendimentos, os dados iniciais fornecidos por normas e leis aos projetistas visam estimar a população e o consumo diário de água que futuramente irá ocorrer no uso de cada edificação. Mas a crescente preocupação no desenvolvimento de edificações projetadas e construídas dentro de um enfoque de sustentabilidade e uso racional dos recursos hídricos, juntamente com o aumento da consciência das pessoas sobre o uso racional da água, modificou o perfil de consumo de água das pessoas. Essas mudanças nas características de cada edificação, quando não analisadas, podem levar o projetista a dimensionamentos inadequados dos itens do sistema hidráulico e hidrossanitário. Este trabalho visa, portanto,

Page 222: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

222

verificar em algumas edificações, com diferentes padrões de consumo de água, qual a influência que cada uma destas características tem no dimensionamento de um item do sistema hidráulico em particular, o volume útil do reservatório da edificação.

1.1. O PROJETO DOS RESERVATÓRIOS

O reservatório da edificação deve ser projetado dentro de parâmetros estabelecidos em norma e o seu valor influencia diretamente itens de projeto como fundações, sistema de recalque e projeto estrutural. Seu dimensionamento é realizado multiplicando-se a estimativa de população especificada nas normas pelo valor de consumo médio de água por pessoa em um dia. Um reservatório deve garantir sempre o abastecimento da edificação e por isso, um subdimensionamento, ou seja, um reservatório muito pequeno para o consumo real da edificação pode representar riscos de desabastecimento. Por outro lado, um volume útil superdimensionado para o reservatório, devido a um consumo real de água na edificação inferior ao projetado, leva a uma carga excessiva e desnecessária à estrutura do edifício. O peso do reservatório soma à estrutura toneladas de carga que sempre necessitam um maior reforço estrutural e atenção por parte dos projetistas.

Em Porto Alegre, a Legislação que estabelece valores para este dimensionamento é o Decreto n. 9369, de 29 de dezembro de 1988, que indica o valor de consumo diário de 200 litros per capita como principal parâmetro para dimensionar o volume de água total disponível para a edificação. O Decreto também estipula a contabilização do número de pessoas de acordo com o tamanho e quantidade de dormitórios, duas pessoas para dormitórios até 12m² e três pessoas para acima de 12m² Ou seja, são valores empíricos que visam estimar o que futuramente irá ocorrer na edificação quando esta estiver em seu pleno uso. Essa Legislação utiliza estes valores de consumo de água a mais de 20 anos e por isso pode-se questionar se o dimensionamento do volume útil, realizado na fase de projeto do empreendimento, está adequado aos reais níveis de consumo diário de água que terá a edificação no seu pleno funcionamento hoje.

1.2. PADRÕES DE CONSUMO DE ÁGUA

Mudanças ocorridas nos últimos anos podem indicar que há características que devem ser levadas em consideração para tornar mais exato e preciso o dimensionamento do volume de reservatórios. Hoje em dia são cada vez mais intensas as políticas para o uso racional da água. Essas políticas incentivam cada vez mais a população a observar os melhores hábitos no que se refere ao uso deste recurso natural, tido como o mais importante de todos. As novas tecnologias e materiais para projetos das instalações hidrossanitárias das edificações também evoluíram e permitiram reduzir as perdas de água, deixando os sistemas muito mais confiáveis. Aparelhos hidrossanitários que possuem um menor consumo de água e sistemas de vedação mais duráveis contribuíram muito para esta redução nas perdas.

É também crescente o uso de medidores individualizados, sendo uma realidade para as novas edificações multifamiliares. Pesquisas mostram que esta atitude reduz o consumo de água per capita e consequentemente o consumo da edificação como um todo. Sistemas de aproveitamento de água da chuva projetados na edificação para uso em bacias sanitárias e outras instalações prediais também contribuem para uma redução no volume do reservatório superior de água potável, pois estes pontos serão alimentados por reservatório específico com a água da chuva.

2. MÉTODO DE PESQUISA

Dentro deste panorama, este trabalho buscou verificar se parâmetros estipulados em normas e decretos utilizados pelos projetistas para dimensionar o volume útil dos reservatórios estão levando a resultados práticos adequados com a realidade de consumo das edificações. O trabalho verificou qual o percentual de influência que algumas

Page 223: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

223

particularidades e características das edificações têm sobre o consumo geral da edificação, e consequentemente sobre o dimensionamento dos seus reservatórios.

Para essa verificação foram feitos em uma primeira etapa levantamentos bibliográficos sobre algumas características importantes e influentes no padrão de consumo de água das edificações. Este estudo bibliográfico buscou verificar de que maneira cada uma destas características influência no consumo de água e qual o possível percentual desta influência. Foram estudadas a medição individualizada, a classe social da edificação, o uso de reaproveitamento de água da chuva e a utilização dos aparelhos economizadores de água.

A segunda etapa do trabalho envolveu o levantamento de dados de campo em quatro diferentes edificações na cidade de Porto Alegre. Em cada edificação foi verificado o número de moradores de cada apartamento e acompanhado o consumo de água através da leitura de todos os hidrômetros gerais ou individuais. Este levantamento visou verificar o consumo real que ocorre em edificações com diferentes características e assim comparar o dimensionamento teórico de um reservatório, realizado com base nas legislações municipais vigentes, com um reservatório ideal real, realizado com dados verificados na prática de consumo de água e número real de moradores. A comparação entre estes dois dimensionamentos de reservatórios indicou quão distante, em termos percentuais, está o valor de projeto frente ao que realmente ocorre na realidade de cada edificação pesquisada.

3. CARACTERIZAÇÃO DO CONSUMO DE ÁGUA

A NBR 5626 coloca claramente que é necessário considerar o padrão de consumo da edificação para dimensionar a capacidade dos reservatórios (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1998). Estudos de caracterização da demanda de água dentro das edificações residenciais existem, mas ainda ocorre escassez de informações. É necessário um número maior de dados para estabelecer parâmetros mais consistentes e eficazes para os projetos dos sistemas prediais de água.

Nos últimos anos surgiram muitos programas de conservação de água e a cada dia as edificações incorporam mais estes métodos de projeto que alteram a demanda de água. É nítida na construção civil habitacional a tendência de projetos que busquem incorporar mais o uso racional de água e o conceito de edificação sustentável, pois é intensa a discussão e os debates sobre desenvolvimento sustentável do Planeta (GONÇALVES et al., 2009).

Características como a medição individualizada são importantes, pois atuam diretamente na percepção de consumo das pessoas, através dela é possível controlar o que realmente cada apartamento está consumindo e verificar quando vazamentos ou grandes perdas ocorrem (COELHO, 2009). Isso indica que edificações que possuem este tipo de medição necessitam de um volume disponível de água potável menor e que por isso, podem ser previamente analisadas ao dimensionar o volume do reservatório devido a sua influência no consumo geral de água.

Outro ponto importante nos últimos anos são os aparelhos hidrossanitários, instalados nas residências e edificações, que vêm sofrendo cada vez mais avanços com novas tecnologias que demandem menos água. A redução no consumo de água se dá nestes aparelhos de diferentes formas, bacias sanitárias com volumes reduzidos, chuveiros com redutores de vazão e ainda torneiras temporizadas e com arejadores que consomem menos água mas mantém a sensação de vazão elevada. É importante observar que todos estes pontos de consumo com economizadores de água instalados atuam independentemente da vontade do usuário.

O padrão da edificação em relação à classe social dos seus ocupantes também é importante, pois diferentes culturas e aparelhos utilizados estarão presentes em edificações populares ou de alto padrão. Edificações de classe mais elevada muitas vezes possuem

Page 224: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

224

chuveiros com ducha de água aquecida a gás. Estas duchas possuem vazões mais elevadas que chuveiros elétricos e necessitam purgas maiores de água fria, consumindo assim mais água. A renda familiar é um item importante a ser destacado na estimativa de consumo de água. O gráfico da figura 1, obtido do sistema nacional de informações sobre saneamento (SNIS), ilustra bem a variação do consumo de acordo com a renda familiar e mostra um aumento de consumo quando a renda é maior.

Figura 1: dados do SNIS da relação entre renda familiar e consumo de água (COHIN et. al. 2009).

3. LEVANTAMENTOS DE DADOS DE CAMPO

Após a pesquisa bibliográfica, que evidenciou o quanto algumas características das edificações podem afetar o consumo de água e o quão importante é, para um projetista, a análise de cada uma delas na busca de projetos mais otimizados, foi realizado o levantamento de dados de campo. Este levantamento prático buscou verificar o real consumo de água e número de moradores em diferentes edificações da cidade de Porto Alegre e comparar com valores teóricos indicados para dimensionar um volume de reservatório da edificação.

Considera-se no trabalho que volume útil ideal é o volume de reservatório mais otimizado possível, considerando para a edificação os dados do período em que foi realizado o acompanhamento de consumo e o levantamento do número de moradores. Também foi realizado para cada edificação o cálculo do volume útil do reservatório teórico utilizando os valores estabelecidos pelo Decreto 9369 da cidade de Porto Alegre, simulando assim a estimativa de consumo que um projetista faria nas etapas iniciais de projeto. Com estes volumes ideais e teóricos foi possível realizar uma comparação e verificar o percentual de diferença entre a estimativa teórica e o que realmente está ocorrendo na prática.

A escolha do número de edificações e da localização de cada uma delas foi feita por conveniência, sem preocupação com representatividade estatística. Essa forma foi escolhida devido à dificuldade da determinação do universo de edificações de Porto Alegre e a necessidade de uma grande amostra e quantidade de dados para obter resultados estatisticamente válidos. Quatro edificações foram escolhidas para realizar o levantamento e estas foram identificadas apenas pelos bairros onde se encontram. Em todas as edificações os dormitórios possuíam menos de 12m². As características principais de cada edificação são apresentadas na tabela 1.

Tabela 1: características das edificações pesquisadas

Edificação Tipo de medição Padrão Chuveiro Número de

dormitórios Bacia sanitária

HIGIENÓPOLIS geral alto ducha 3 caixa acoplada

CENTRO geral popular/médio elétrico 3 caixa acoplada

RUBEM BERTA individualizada popular elétrico 2 caixa acoplada

Page 225: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

225

BOA VISTA individualizada alto ducha 4 caixa acoplada

Após os levantamentos do número de moradores de cada apartamento e leitura dos hidrômetros, foram realizadas as médias de consumo de água que ocorreu em cada edifício juntamente com a contabilização do seu número total de moradores. Foi então realizado o cálculo do projeto de reservatórios teórico e real de acordo com os parâmetros estipulados no decreto 9369/88 da cidade de Porto Alegre. Os resultados encontrados estão na tabela 2.

Tabela 2: resultado dos dados de campo em comparação com os parâmetros do decreto

Edificação

Número de moradores

Consumo de água (L/hab.dia)

Volume útil do reservatório (litros)

Teórico Real Teórico Real Teórico Ideal Diferença (%)

HIGIENÓPOLIS 120 49

200

239,3 24.000 11.725 -51

CENTRO 96 37 137,9 19.200 5.102 -73

RUBEM BERTA 80 50 111,2 16.000 5.560 -65

BOA VISTA 392 100 166,3 78.400 16.630 -78

Esse quadro mostra claramente a diferença que ocorre nestas edificações entre o valor projetado e o que realmente seria necessário de volume útil de água potável para um dia de consumo da edificação. Pode-se observar que ocorre uma grande diferença na estimativa populacional das edificações, mostrando que a densidade de moradores por dormitório estipulada pelo Decreto n. 9369 é bem acima do nível de ocupação que ocorre na prática. Sabe-se que em um projeto são necessárias margens de segurança para não ocorrerem subdimensionamentos, mas é necessário avaliar com cuidado esses resultados e questionar se um valor de 70% não é um percentual muito acima do necessário para essa margem de segurança. Os resultados sobre a comparação entre consumo especificado no Decreto de Porto Alegre e o real de cada edificação ficam mais claros no gráfico apresentado na figura 2.

Figura 2: comparação de consumo de água teórico e real em cada edificação.

Pode-se perceber que as edificações de padrão alto consumiram mais água quando comparadas as de padrão popular e o mesmo ocorre quando comparamos edificações de mesmo padrão mas que possuem medição geral ou individualizada. A comparação entre os reservatórios ideais e teóricos de cada edificação pesquisada também fica mais evidente ao analisarmos os resultados dos dimensionamentos no gráfico da figura 3.

Page 226: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

226

Figura 3: comparação de consumo de água teórico e real em cada edificação.

4. CONSIDERAÇÕES FINAIS

Avaliando-se os resultados obtidos nesta pesquisa constatou-se que as características estudadas são importantes para análise dos futuros projetos do volume útil dos reservatórios. Cada uma delas pode ser analisada pelo projetista na busca de parâmetros que, juntamente com seu bom senso na análise do empreendimento, levem a projetos mais adequados e sem desperdícios.

A premissa do trabalho se mostrou válida na medida em que a Legislação vigente na cidade de Porto Alegre, ao não diferenciar os parâmetros básicos de projeto para diferentes edificações, levou a dimensionamentos de volume úteis teóricos bem acima dos valores ideais verificados para as edificações acompanhadas por este trabalho. Os reservatórios ideais dimensionados de acordo com os dados reais de consumo e número de moradores ficaram entre 51% e 78% abaixo do reservatório teórico dimensionado de acordo com o Decreto 9369/88. Isso mostra que há margem para otimização do volume útil dos reservatórios e consequente redução de cargas estruturais nas edificações. Fica portanto, a recomendação para que os projetistas realizem nos seus futuros projetos, uma análise mais detalhada sobre as características particulares de cada edificação, e que aliem estes estudos ao seu bom senso para gerar projetos cada vez mais otimizados e exatos.

5. REFERÊNCIAS

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 7229: projeto, construção e operação de sistemas de tanques sépticos. Rio de Janeiro, 1993.

COELHO, A. C. Micromedição em sistemas de abastecimento de água. João Pessoa: Editora da UFPB, 2009.

COHIN, E.; GARCIA, A.; KIPERSTOK, A.; DIAS, M. C. Consumo de água em residências de baixa renda: estudo de caso. In: CONGRESSO BRASILEIRO EM ENGENHARIA SANITÁRIA E AMBIENTAL, 25., 2009, Recife. Anais... Rio de Janeiro: ABES, 2009.

GONÇALVES, R. F.; JORDÃO, E. P.; JANUZZI, G. Introdução. In: _____. (Coord.). Conservação de água e energia em sistemas prediais e públicos de abastecimento de água. Rio de Janeiro: ABES, 2009. p. 21-35.

PORTO ALEGRE. Decreto n. 9369, de 29 de dezembro de 1988. Departamento Municipal de Água e Esgoto. Disponível em: <http://lproweb.procempa.com.br/pmpa/prefpoa/dmae/usu_doc/cip9369-decreto.pdf>.

Page 227: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

227

Predição de cobertura de sistemas worldwide interoperability microwave access (WiMAX)

1Matheus Bernardes de Moura, 2Leni Joaquim de Matos 1,2Escola de Engenharia - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil [email protected],[email protected]

RESUMO

O padrão celular conhecido como WiMAX (Worldwide Interoperability Microwave Access) aparece no cenário das telecomunicações promissoramente, combinando uma fácil implementação, custo baixo e altas taxas de transmissão de dados. É de grande importância, portanto, a cobertura que o sinal do sistema WiMAX proporciona. Assim, de posse das informações de relevo e densidade demográfica da cidade de Campinas, em São Paulo, é realizada a predição de cobertura de sinal na mesma, na faixa de 3,5 GHz, empregando-se um software de predição, que permite testar diversos modelos aplicáveis a essa faixa. Com isto, é possível identificar os fatores relevantes na predição de cobertura e, consequentemente, dentre os possíveis modelos aplicáveis, concluir qual melhor se ajusta às características do ambiente simulado.

Palavras-Chave: Predição de cobertura. Sistema WiMAX. Software de predição.

1. INTRODUÇÃO

A tecnologia WiMAX (ANDREWS, 2007) tem como objetivo proporcionar acesso, em banda larga, a lugares onde outras tecnologias não chegam devido à dificuldade de acesso. Sua implantação ocorre por células, onde de uma estação principal é possível transmitir para outros equipamentos da rede ou até mesmo para o usuário final e está presente em sistemas celulares da geração 3G e 3,5G. É uma das tecnologias capazes de dar suporte à 4ª geração (4G), que está chegando, e que tem como metas: o baixo custo por bit, a integração de redes de acesso IP e suporte a serviços multimídia.

Um primeiro passo no planejamento de um sistema celular é determinar a área a ser coberta pelo mesmo. Para isto, modelos de predição de cobertura são empregados e os principais modelos para a faixa de 3,5 GHz são descritos neste artigo. Posteriormente, serão aplicados na região de Campinas, através do uso do software CELPLANNER (CELPLANNER).

Um estudo detalhado de alguns dos modelos de predição disponibilizados pelo software é realizado, de forma a se saber quais as características principais de cada um deles, ou seja, o que é levado em consideração na hora da geração dos dados de cobertura. Em seguida, determina-se qual é a melhor abordagem para a região, levando-se em conta os aspectos topográficos e morfológicos do local. Por fim, são realizadas predições com alguns modelos de predição, para que possa ser determinado qual dentre eles é o modelo que mais se ajusta à cobertura da cidade.

2. MODELOS DE PREDIÇÃO DE COBERTURA

Os modelos de predição de cobertura são fundamentais para o dimensionamento de qualquer sistema de comunicação sem fio. Estes podem ser divididos em três tipos diferentes: empíricos, que são resultado de medições em campo, com determinados tipos de ambientes e parâmetros fixos; semi-empíricos, que seguem basicamente as mesmas premissas do modelo anterior, entretanto, suas equações já carregam relação com a teoria e os modelos canônicos de propagação; e teóricos, os quais se baseiam na teoria eletromagnética de traçado de raios (Parsons, 2000). Isto faz com que os valores

Page 228: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

228

encontrados por estes últimos modelos possuam grande confiabilidade, podendo ser aplicados aos mais variados tipos de ambiente, porém são mais complexos e exigem maior tempo de processamento, devido à grande quantidade de dados gerados. O software CELPLANNER apresenta sete modelos distintos de predição e, dentre eles, são utilizados 3 modelos para a predição de cobertura na região de Campinas: o de linha de visada, o modelo I (Lee e Pìcquenard) e o modelo V (Hata COST 231).

2.1 MODELO DE LINHA DE VISADA

O modelo de linha de visada (line of sight) considera, apenas, a perda por atenuação no espaço livre (YACOUB, 1993), sendo mensurado para pontos livres de obstrução. Para definir as obstruções, levam-se em conta os dados de morfologia do local. Utilizado somente para frequências mais elevadas, na faixa de 3,5 GHz, pois para estes casos quase não se verifica a presença do fenômeno da difração. Considera-se a fórmula básica de atenuação no espaço livre (1) (Lee, 1980) para efetuar a predição, onde f e d são, respectivamente, a frequência do sinal e a distância, respectivamente, é L0 é a perda em dB:

L0 = 32,4 + 20 log f[MHz] + 20 log d[m] (1)

2.2 MODELO I (LEE E PICQUENARD)

O modelo I foi criado a partir da abordagem dos modelos de Lee (LEE, 1989) e de Picquenard (CELPLANNER). O modelo de Lee foi criado a partir de um modelo simplificado de perda, o qual considera a terra plana e tem sua equação de atenuação em função da área de propagação do sinal. Lee acrescenta a perda ou ganho devido à rugosidade terrestre, sugerindo a eq.(2), onde não há obstruções, sendo levadas em consideração as irregularidades do terreno. A abordagem segundo o modelo de Picquenard (CELPLANNER); apresenta a predição da atenuação devido ao fenômeno de difração por múltiplos gumes de faca, conforme a eq.(3). A implementação deste modelo possibilita um cálculo aproximado da atenuação, mesmo para terrenos montanhosos. Dessa forma, as equações das potências recebidas a uma distância d da antena transmissora, Prd, sendo Pro a potência de referência a uma distância d0 são calculadas por:

Prd(dBm) = Pro (dBm) - γ . log (d/d0) + ∆G + ∑ Fi (2)

Prd(dBm) = Pro (dBm) - γ . log (d/d0) + Ld

+ ∑ Fi (3)

onde:

Ld → perda por difração, calculada de forma aproximada a partir do conjunto de eq. (5).

d e d0 → distâncias Tx-Rx (transmissora-receptora) e Tx-Referência, respectivamente.

∆G = 20 log (htef/ht) → fator de correção da antena, leva em conta suas irregularidades e o

considera plano.

htef e ht → alturas efetiva e real da antena transmissora, respectivamente.

ΣFi → fatores de correção usados quando os parâmetros de altura, ganho e potência das antenas não são o padrão estipulado (LEE, 1989).

A perda por difração é modelada a partir do parâmetro ν, que representa a região do espaço onde se dá a maior concentração de energia do sinal transmitido pela estação base, danificada pela obstrução.

ν = - hp [2(1/d1 + 1/d2)/λ]1/2 (4)

onde são definidos:

Page 229: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

229

hp → altura da obstrução principal em relação à linha direta de propagação entre a base e o móvel.

d1 → distância da antena da base até a interseção entre a reta vertical tomada no ponto de difração, e a linha direta de propagação.

d2 → distância do ponto obtido da intersecção entre a reta vertical, que passa no ponto de difração, e a linha direta de propagação, até a antena da estação móvel.

A partir de ν, pode-se chegar ao valor da perda por difração Ld, calculada de uma das equações do conjunto (5).

1 ≤ ν ⇒ Ld = 0 dB

0 ≤ ν < 1 ⇒ Ld = 20 log (0,5 + 6,2ν)

-1 ≤ ν< 0 ⇒ Ld = 20 log (0,5 e 0,95ν) (5)

-2,4 ≤ ν< -1 ⇒ Ld = 20 log (0,4 - [0,1184 - ( 0,1ν + 0,38 )2]1/2

ν < - 2,4 ⇒ Ld = 20 log (-0,225/ν)

2.3 MODELO V (HATA COST-231)

HATA (HATA, 1980) expressou em equações os resultados de medições da perda de sinal, realizadas por Okumura (OKUMURA, 1989), no Japão. Este modelo gera uma expressão de perda no percurso em função da frequência do sinal modulado, das alturas das antenas na BS (Base Station - Estação Base) e na MS (Mobile Station - Estação Móvel), e da distância entre a estação base e a móvel. Visto que o mesmo só cobre até frequências de 1500 MHz, surgiu o modelo Hata COST 231, que é a versão expandida do modelo Hata, aplicável à faixa de frequência do PCS (Personnal Communication System – 1800MHz/1900MHz) e que tem aceitação mundial. Segundo Plitsis (PLITSIS, 2003), este modelo se estende até frequências de 6 GHz, provendo uma boa aproximação para quaisquer ambientes, e tem sido de grande aplicação em cálculos de cobertura devido a sua simplicidade. Este modelo é aplicável, também, a áreas suburbanas e rurais. Nesse caso, a perda é calculada por:

L = 46,3 + 33,9 log f (MHz) - 13,82 log hb(m) - a(hm) + X (6)

X = [ 44,9 - 6,55 log hb(m) ] . log d (km) + CM (dB) (7)

e os termos em negrito são diferentes dos termos da equação original de Hata, sendo acrescentado o termo CM (= 3 dB em áreas metropolitanas e nulo em áreas suburbanas). Para os parâmetros, tem-se: f, frequência do sinal; d, distância Tx-Rx; hb e hm,

alturas da antena Tx e RX, respectivamente; e a(hm) é um fator de correção da antena Tx, dado nas eq.(8) a (10). Para as variáveis: 30 ≤ hb ≤ 200 m; 1 ≤ d ≤ 20 km e 1 ≤ hm ≤ 20 m.

Quanto ao fator a(hm), tem-se:

• cidade grande:

a( hr ) = 8,29 [ log( 1,54.hm )]2 - 1,1, ∀ f ≤ 200 MHz (8)

3,2 [ log( 11,75.hm )]2 - 4,97, ∀ f ≥ 400 MHz (9)

• cidade média ou pequena:

a(hm) = [ 1,1.log f( MHz ) - 0,7 ].hm- [ 1,56.log f( MHz ) - 0,8 ] (dB) (10)

Outros modelos disponibilizados no software CELPLANNER são: Korowajczuk e Korowajczuk K3d, de autoria própria da Celplan; Erceg, utilizado em diferentes frequências e baseado em dados de topologia e morfologia do local e o modelo Celplan Microcell, desenvolvido para células extremamente pequenas.

Page 230: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

230

3. MONTAGEM DA REDE WiMAX

A cidade de Campinas está a uma altitude média de 600 metros a partir do nível do mar e deve-se observar que a altitude da antena também é mensurada a partir deste mesmo nível. Sendo assim, a diferença entre a antena e o solo não passa de 170 metros.

Para o planejamento da rede WiMAX, foram levados em conta os dados demográficos e a topologia do local para o melhor posicionamento das BS, assim como o tipo de setorização, a inclinação e o azimute de cada antena, todos disponibilizados no software. Na figura 2, observam-se os mapas de morfologia (a) e topologia (b) do local.

(a) (b)

Figura 2. Distribuição morfológica (a) e topológica (b) da cidade de Campinas, SP.

Levando-se todas as características citadas em consideração, chegou-se à disposição geográfica das três estações base, conforme mostrado na Figura 3, pelos pontos pretos.

A Tabela 1 fornece as informações básicas das BS empregadas, escolhidas no software. Como pode ser visto, todas estão divididas em 2 setores, sendo cada setor composto por uma antena posicionada de acordo com o cálculo de seu tilt (inclinação) e de seu azimute, de acordo com suas características básicas, mostradas na Figura 4 e de maneira que cubra a área desejada.

Figura 3. Distribuição celular utilizada para cobertura de Campinas, SP.

Tabela 1. Características básicas das estações criadas.

SPCAM011 SPCAM012 SPCAM021 SPCAM022 SPCAM031 SPCAM032

Page 231: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

231

Altitude (m)

772 772 700 700 691 691

Lat 22º56'27.01''

S 22º56'27.01''

S 22º50'45.45'' S 22º50'45.45'' S 22º55'38.96'' S 22º55'38.96'' S

Long 47º02'04.74

W 47º02'04.74

W 47º03'06.76''W 47º03'06.76''W

47º06'04.37'' W

47º06'04.37'' W

Azimute 10 270 0 270 30 200

Tilt -5 -8 -5 -5 -5 -5

Figura 4. Diagrama de radiação da antena utilizada nas estações base.

4. COMPARAÇÃO DOS RESULTADOS OBTIDOS

Na Figura 5, pode-se observar que o modelo V (Hata COST 231), é o que apresenta a melhor cobertura da região, relativamente ao demais. Praticamente, cobre a maioria das áreas urbana e suburbana, caracterizando-se como o que melhor se ajusta à realidade da cidade de Campinas, SP.

(a) (b) (c)

Figura 5. Resultados da predição: (a) Modelo I, (b) Linha de Visada e (c) Modelo V.

Já o modelo I (Lee e Picquenard) apresentou a pior cobertura, tendo o nível atenuado até -100 dBm bruscamente. O modelo de Linha de Visada apresentou níveis melhores, porém, ainda ruins, causados devido à grande quantidade de morros e dificuldade de linha de visada.

5. CONCLUSÃO

Page 232: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

232

Relacionando os conceitos teóricos de cada modelo e as predições efetuadas através do software CELPLANNER, partindo de mesmas características, pode-se verificar que o melhor resultado foi apresentado pelo modelo V, que faz uso do modelo Hata COST 231. Como visto nas equações, é usado para predições em frequências até 6 GHz, englobando morfologia, topografia, frequência do sinal, alturas de antenas e considera efeitos de difração e espalhamento no topo das construções. Em contrapartida, os outros modelos apresentaram cobertura visivelmente inferior, o que já era esperado, visto que envolvem uma menor quantidade de parâmetros, desconsiderando efeitos que realmente ocorrem no sinal de 3,5 GHz. É importante, portanto, entender bem em que situação cada tipo de modelo é empregado para que possa se obter o resultado mais fiel à realidade do meio onde o sinal se propaga.

6. REFERÊNCIAS

ANDREWS, J. G. (2007). Fundamentals of WiMAX – Understanding Broadband Wireless Networking. Prentice Hall, United States. 478p.

CELPLANNER. Software para Projeto Integrado de Sistemas Wireless. CELPLAN, Campinas/SP 137p.

HATA, M. (1980). Empirical Formula for Propagation Loss in Land Mobile Radio Service. IEEE Transactions on Vehicular Technology, Vol. 29, No.3.

LEE, W. C. Y. (1989). Mobile Cellular Telecommunications Systems. McGRAW-HILL, Singapore 450p.

OKUMURA, Y. (1968). Field Strength and its Variability in the VHF and UHF Land Mobile Radio Services. Review Electronic Communications, Labs, 16.

PARSONS, J. D. (2000). The Mobile Radio Propagation Channel. JOHN WILEY & SONS, England 483p.

PLITISIS, G. (2003). Coverage Prediction of New Elements of Systems Beyond 3G: The IEEE 802.16 System as a Case Study. Communication Networks, Aachen University.

YACOUB, M. D. (1993). Foundations of Mobile Radio Engineering. CRC Press, NY, 481p.

Page 233: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

233

Projeto conceitual de rede para captura e sequestro de carbono no Estado do Rio de Janeiro

Tiago Machado de Souza Jacques.

Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

[email protected]

RESUMO

Este artigo estuda a viabilidade técnica e operacional de um projeto de Captura e Seqüestro de Carbono (CCS) em reservatório geológico no Estado do Rio de Janeiro, através da escolha de parâmetros operacionais reconhecidos internacionalmente como seguros, e tecnologias disponíveis no mercado, tendo em vista que não há ainda no Brasil regulação específica para este setor.

Palavras-Chave: Dióxido de Carbono, Tecnologias Limpas, Mudanças Climáticas; Recuperação Avançada de Pretróleo; Transporte Dutoviário.

1. INTRODUÇÃO

A Captura e Seqüestro de Carbono é um meio usado para controle de emissões de dióxido de carbono, onde este gás de efeito estufa é capturado em fontes estacionárias industriais, tais como Usinas Termelétricas a gás natural e outras, e é transportado até o seu local de armazenamento geológico.

Existem atualmente quatro projetos de armazenamento geológico de dióxido de carbono em larga escala no mundo com expressivo sucesso, dentre os quais de destaca o projeto de Salah, localizado na Argélia, que captura hoje cerca de 1Mt CO2/ano proveniente do processamento de gás natural para injeção em aqüífero salino. A Agência Internacional de Energia (IEA) aponta que há uma necessidade urgente de projetos de armazenamento de CO2 de grande escala para reduzir custos e gerar tecnologia de monitoramento e verificação de dados, a agência espera que eles possam representar 19% das emissões de CO2 evitadas no ano de 2050 (IEA, 2010).

Em dezembro de 2010, a Captura e Sequestro de Carbono em formações geológicas foi reconhecido como um Mecanismo de Desenvolvimento Limpo pelo Painel Intergovernamental sobre Mudanças Climáticas (UNFCCC, 2010).

2. FORMULAÇÃO DA SITUAÇÃO PROBLEMA

O Estado do Rio de Janeiro possui um parque industrial com elevado consumo de fontes primárias de energia, que configura uma potencial fonte para captura de CO2.

O presente artigo avalia a viabilidade técnica e operacional de um projeto de Captura e Seqüestro de Carbono (CCS) em reservatório geológico no estado do Rio de Janeiro, através da escolha das melhores alternativas de projeto disponíveis, em atendimento às recomendações da IEA e publicações técnicas complementares. O projeto é constituído das fontes propriamente ditas, onde ocorre captura do CO2 e seu bombeio à rede de dutos, da rede de dutos, onde o CO2 é conduzido entre as fontes e da destinação final e o(s) reservatório(s) geológico(s) de destino, onde o CO2 é definitivamente disposto.

O CO2 é um gás mais pesado que o ar, e sua dispersão em regiões densamente povoadas com pouca circulação atmosférica, apresenta riscos, fato este que motivou a escolha de traçados de faixas de dutos já existentes, buscando minimizar os possíveis impactos ambientais. Por questão de segurança a melhor alternativa de traçado foi escolhida observando-se duas importantes variáveis: densidade populacional e relevo local.

Page 234: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

234

As potenciais fontes de CO2 foram escolhidas dentre fontes estacionárias de emissão, e para o local de sequestro geológico do CO2 foi selecionada a região da Bacia de Campos, pois o estágio atual de conhecimento da hidrogeologia do Estado não apresenta alternativas (aqüíferos salinos confinados ou campos terrestres de petróleo). [MARTINS, et al 2010]

3. CAPTURA, TRANSPORTE E ARMAZENAMENTO DE CO 2

3.1 CAPTURA

A principal forma de obtenção de potência em motores a combustão de grande porte é a oxidação exotérmica do carbono de combustíveis fósseis, onde inevitavelmente o CO2 é produzido. A eliminação do carbono das emissões de CO2 pode ser feita somente por um dos 3 processos abaixo [RACKLEY, 2010]:

• Descarbonação do combustível antes de sua combustão, ou captura de pré-combustão;

• Separação do CO2 de produtos da combustão, ou captura de pós-combustão;

• Reengenharia do processo de combustão para produzir CO2 como um produto puro, nos processos denominados oxyfueling.

O processo de captura escolhido foi o de pós-combustão e o inventário de potenciais emissões capturadas foi calculado estequiometricamente com base em definições da ABNT (2008), pois todas as fontes analisadas utilizam gás natural como recurso energético. Este inventário é mostrado na Tabela 1.

Tabela 1 – Invetário de potenciais emissões capturadas

Fonte Emissão (tCO2/ano) -2011-

Emissão (tCO2/ano) -2014-

Emissão em 20 anos (tCO2) -2014-

UTE GLB 686.313,6168 686.313,6168 13.726.272,34

REDUC 892.207,7018 892.207,7018 17.844.154,04

ECOMP CE 27.452,5447 27.452,5447 549.050,89

COMPERJ * - Não definido Não definido

Riopolímeros - Não definido Não definido

UTE ML 768.671,2508 768.671,2508 15.373.425,02

UTE NF 2.217.479,2958 2.217.479,2958 44.349.585,92

Cabiúnas 171.578,4042 171.578,4042 3.431.568,08

UTE VA * - 86.475,5157 1.729.510,31

Superporto Açu** - Não definido Não definido

Total 4.763.702,8141 4.850.178,3298 97.003.566,5955

*2012 **2014

3.2 TRANSPORTE

Um dos grandes desafios do transporte do CO2 está relacionado com o controle de seu estado físico. A Figura 1 mostra que em temperaturas acima de 25ºC (>298 K) e pressão abaixo de 9 MPa, a sua densidade e sua compressibilidade variam

Page 235: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

235

consideravelmente. A densidade do CO2 reduz 50% quando sua temperatura aumenta de 25ºC (300K) para 35ºC (310K) sob pressão de aproximadamente 8 MPa.

Figura 1 – Densidade e Compressibilidade do CO2

Fonte: RACKLEY [2010]

A faixa de pressão de operação do CO2 em dutos de transporte adotada foi de 11MPa e a temperatura foi de 25ºC, e neste caso esta substância apresenta massa específica de 877 kg/m³ e viscosidade de 7,73x10-5 Pa.s. Estes valores foram utilizados para o dimensionamento de dutos.

As áreas de interesse, de acordo com a localização das fontes potenciais, são o Pólo Industrial de Duque de Caxias, o Complexo Petroquímico do Rio de Janeiro (COMPERJ), o Parque Termelétrico do Norte Fluminense, o Terminal de Cabiúnas e o Superporto Açu.

O traçado do duto de CO2 foi escolhido dentre três alternativas, cada uma delas relacionada a uma faixa de dutos pré-existente que se interliga com instalações da Petrobrás no Pólo Industrial de Duque de Caxias. A limitação a estas três opções visou minimizar ou até mesmo eliminar a necessidade de criação de novas faixas de dutos, e com isto reduzir o custo de capital para a implantação de um novo duto. Todas as imagens de traçado de dutos analisadas foram geradas através do software Google Earth, onde as faixas de dutos e as áreas de interesse foram destacadas em cores diferentes, e as áreas densamente povoadas, identificadas sempre em cor laranja.

• Faixa de Dutos A:

Origina-se no Pólo Industrial de Duque de Caxias (PIDC), segue até a estação da Transpetro em Japeri, e em seguida vai à estação da Transpetro em Arapeí, num trecho de aproximadamente 140 km. Esta faixa tem continuidade fora dos limites do Estado de do Rio de Janeiro a partir da estação de Arapeí.

Page 236: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

236

Figura 2 – Faixa de dutos A

• Faixa de Dutos B

Origina-se no PIDC e segue para o terminal de Angra dos Reis, localizado no Município de Angra dos Reis, totalizando120km de faixa de dutos, conforme ilustrado na Figura 3.

Figura 3 – Faixa de dutos B

• Faixa de Dutos C

Origina-se no PIDC, segue para o terminal de Cabiúnas, Município de Macaé, num trecho de 176 km, onde poderá integrar-se com a faixa de dutos que chega à praia de Quissamã ou com a faixa de dutos que vai a Barra do Furado (67km de extensão), como mostrado na Figura 4.

Page 237: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

237

Figura 4 – Faixa de dutos C

A faixa de dutos da Bacia de Campos I, indicada na Figura 5 em cor verde, é uma alternativa para que o projeto seja usado para recuperação avançada de óleo ou gás (EOR ou EGR), em poços da Bacia de Campos. Esta faixa de dutos se aproxima de duas áreas com densidade populacional relevante, que são os municípios de Carapebus e Quissamã, os dutos offshore a partir de Barra do Furado, têm comprimentos entre 87 a 95km até plataformas da Bacia de Campos.

Figura 5 – Faixas de dutos que se interligam a dutos submarinos da Bacia de Campos.

As fontes de Captura, distâncias envolvidas, ocorrência de Reservatórios Geológicos e Potencial de EOR/EGR, são mostrados na Tabela 2, e esta tabela mostra os subsídios para a escolha da Faixa de Dutos C para a implantação do duto de CO2. A única ocorrência comprovada de reservatório geológico para seqüestro de CO2 no estado do Rio de Janeiro está na bacia de campos, pois seus reservatórios carboníferos, por definição, proporcionam a selagem necessária para o armazenamento definitivo do CO2.

A extensão aproximada das faixas de dutos são indicadas pelo software Google Earth e a presença de reservatórios geológicos, baseada no trabalho de MARTINS, et al 2010, fundamental para a escolha da faixa C como única viável para a instalação de dutos de CO2.

Tabela 2 – Comparativo entre faixas de dutos.

Page 238: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

238

Faixa

de Dutos

Fontes Potenciais Próximas

Extensão Reservatórios Geológicos

Potencial EOR/EGR

A UTE Governador Leone Brizola;

Refinaria Duque de Caxias;

Estação de Compressão de Campos Elíseos;

140 km A ser estudado

NÃO

B UTE Governador Leonel Brizola;

Refinaria Duque de Caxias;

Estação de Compressão de Campos Elíseos

UTE Eletrobolt

120 km A ser estudado

NÃO

C

(Escolhida )

UTE Governador Leonel Brizola;

Refinaria Duque de Caxias;

Estação de Compressão de Campos Elíseos

Pólo Petroquímico do Estado do Rio de Janeiro;

UTE Norte Fluminense;

UTE Mário Lago;

UTE´s Vale Azul;

Terminal de Cabiúnas;

Superporto Açu.

176km (PIDC-TECAB)

67km (TECAB-Barra do Furado)

84-95km (Barra do Furado-Bacia de Campos)

SIM

SIM

3.3 ARMAZENAMENTO

O único local identificado na área de abrangência do estudo com potencial de injeção de CO2 em grande escala em reservatório geológico foi a região da Bacia de Campos. O CO2, neste local, poderá ser utilizado para recuperação avançada de óleo ou gás (EOR/EGR), mecanismo utilizado para elevação de petróleo em formações que não possuem pressão suficiente para elevação natural. A Figura 6 apresenta um exemplo de EOR.

Page 239: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

239

Figura 6– Recuperação Avançada de Petróleo

Fonte: RACKLEY, 2010.

A eficiência para o processo de captura do CO2 foi considerada como de 95% nas fontes e a pressão de operação dos dutos foi considerada de 9 a 12 MPa. Estes parâmetros foram utilizados para realização dos cálculos do total de CO2 capturado e de dimensionamento dos dutos.

4. RESULTADOS ENCONTRADOS

Os dutos de transporte da rede somarão aproximadamente 400 km se interligados ao pólo industrial de Duque de Caxias, o Comperj, o parque Termelétrico do Norte Fluminense, o Terminal de Cabiúnas, o Porto Açu e uma plataforma da Bacia de Campos. A estação de Barra do Furado seria responsável pela interligação da rede terrestre ao duto submarino, este duto se destinaria a uma plataforma na Bacia de Campos onde o CO2 seria distribuído para EOR/EGR em diversas plataformas.

4.1 Primeira Fase: Ponto-a-Ponto

Nesta fase entraria em operação somente uma fonte de captura, qual seja: a do Terminal de Cabiúnas.

Para o cálculo do duto entre Barra do Furado e a plataforma (BFPL) foi considerada a vazão recorrente no período seco do ano, quando a geração termelétrica da UTE Govenador Leonel Brizola e UTE Mário Lago é máxima, além de considerar as vazões de todas as demais fontes previstas no projeto. Esta vazão de CO2 máxima calculada foi de 31.306,42 t-CO2/dia ou 362,34 kg/s. Considerando processo de captura com eficiência de 95%, a vazão máxima de CO2 foi definida como sendo igual a 344,223 kg/s.

Foram consideradas temperatura de escoamento de 25ºC e faixa de pressão média operacional de 11,0 MPa. A densidade do CO2 nesta condição é de 877kg/m³ e a viscosidade de 7,73x10-5 Pa.s, portanto o CO2 encontra-se em sua fase densa e pode ser simplificado como um fluido incompressível. Foram consideradas a viscosidade e a densidade constantes e altura inicial igual à altura final do duto. As perdas de carga localizadas foram desconsideradas.

São conhecidos a perda de carga máxima do sistema, 3 MPa (12MPa - 9 MPa) com base nas condições operacionais de escoamento em fase densa, a rugosidade do duto de aço, tipicamente 4,6x10-5m, a vazão do duto e o comprimento aproximado, 95km.

Tabela 3 - Duto submarino

Dados de Projeto – Duto BFPL

Page 240: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

240

Vazão Máxima : Qmax 344,22 kg/s

Vazão Média : Qmed 169,02 kg/s

Densidade: ρ 877 kg/m³

Pressão de operação 11 MPa

Máxima Perda de carga: ∆P 3 MPa

Rugosidade : e 4,6x10-5m

Comprimento: L 95.000m

Para o diâmetro de 20 polegadas e vazão máxima, o resultado obtido pela fórmula do Número de Reynold indica um regime de escoamento turbulento (Re=11.200.000), e por meio do Ábaco de Moody é obtido um valor para o fator de atrito, que através da equação Darcy-Weisbach resulta no valor de 0,23789 para o fator de atrito (fd), e com isso a perda de carga encontrada foi de 3 MPa no duto de 95km de extensão, ou seja, aceitável para o critério adotado. Este duto interligaria a estação em Barra do Furado e uma Plataforma na Bacia de Campos.

O duto a interligar o Terminal de Cabiúnas e a estação de Barra do Furado (CBBF) teria 67km de comprimento e seria dimensionado para a vazão máxima do projeto, da mesma forma que o duto submarino BFPL foi dimensionado.

Tabela 4 – Duto terrestre entre Cabiúnas e Barra do Furado

Dados de Projeto – Duto CBBF

Vazão Máxima : Qmax 344,22 kg/s

Vazão Média : Qmed 169,02 kg/s

Densidade: ρ 877 kg/m³

Pressão de operação 11 MPa

Máxima Perda de carga: ∆P 3 MPa

Rugosidade : e 4,6x10-5m

Comprimento: L 67.000m

Os resultados obtidos indicam um regime de escoamento turbulento sob vazão máxima (Re=11.166.658), onde é possível o escoamento de todo o CO2 capturado na rede por um duto de 20” entre o Teminal de Cabiúnas e a Estação de Barra do Furado, no qual a perda de carga para a vazão máxima seria de 2,1 MPa. A estação de Barra do Furado deveria contar com sistema de rebombeio, para garantir pressão de 12 MPa na entrada do duto BFPL.

4.2 Segunda Fase: Duto compartilhado

Nesta fase entraria em operação a captura de 3 fontes adicionais: UTE Norte Fluminense, UTE Mário Lago e UTE´s Vale Azul.

O ramal de CO2 que interligaria a UTE Norte Fluminense e uma estação intermediária, denominada Estação Alfa, teria 8,6km de extensão. Os cálculos realizados para seu dimensionamento baseiam-se no consumo de gás natural de 3.400 mil m³/dia, máximo operacional da UTE, que gera emissões de 73,94 kg/s e através da eficiência de 95% na captura, o valor de vazão máxima para este ramal foi 70,24kg/s. O diâmetro escolhido foi o de 4”, e para este diâmetro, a perda de carga máxima seria de 0,6 MPa.

Tabela 5 – Duto entre UTE Norte Fluminense e Estação Alfa

Page 241: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

241

Dados de Projeto – Ramal UTE NF

Vazão Máxima : Qmax 70,24 kg/s

Densidade: ρ 877 kg/m³

Pressão de operação 11 MPa

Rugosidade : e 4,6x10-5m

Comprimento: L 8.600m

Os demais ramais das usinas Termelétricas UTE Mário Lago e UTE Vale Azul I, II e III não foram calculados, pois não foi possível obter o comprimento destes ramais.

3.3 Terceira Fase: Integração

Nesta fase entraria em operação a captura de 3 fontes adicionais de CO2: O Pólo Industrial de Duque de Caxias, o Complexo Petroquímico do Rio de Janeiro e o Superporto do Açu, como mostrado na figura 7. Para o duto entre o Pólo industrial de Duque de Caxias e a Estação Alfa, foi escolhido o diâmetro de 8 polegadas, onde a perda de carga máxima seria de 2,4 MPa, observando-se que neste cálculo foi desconsiderada a vazão de CO2 proveniente do Complexo petroquímico do Rio de Janeiro.

Os dutos entre o Superporto Açu e a estação de Barra do Furado, e entre o Complexo Petroquímico do Rio de Janeiro e o duto do Pólo Industrial de Duque de Caxias deverão ser tema de estudos de traçado, a partir dos quais seus comprimentos aproximados serão determinados. Os diâmetros destes dutos não foram calculados.

Figura 7 - Terceira fase do projeto

4. CONCLUSÕES E RECOMEDAÇÕES

A captura de CO2 neste projeto seria realizado em fontes estacionárias de emissões, o CO2 capturado seria então bombeado para dutos em fase supercrítica, na qual é comparável a um fluido incompressível. O CO2 transportado à região de seqüestro seria finalmente injetado em reservatórios geológicos.

A estação de Barra do Furado seria responsável pela interligação da rede terrestre ao duto submarino, que se destinaria a uma plataforma na Bacia de Campos onde o CO2

seria distribuído para EOR/EGR em diversas plataformas. Esta região é responsável pela produção de cerca de 80% do petróleo e 40% do gás natural produzidos no Brasil, e foi

Page 242: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

242

identificada como a única região favorável para sequestro de CO2, esta região também ofereceria possibilidade para recuperação avançada de óleo e gás (EOR e EGR).

Recomenda-se que os diâmetros dos dutos entre o Superporto Açu e Barra do Furado e entre o Complexo Petroquímico do Rio de Janeiro e o duto proveniente de Duque de Caxias sejam determinados após estudo de traçado de faixas, e ainda, após obtenção de dados suficientemente consistentes para estimativa de emissões capturadas de suas fontes.

Os resultados obtidos indicam viabilidade técnica e operacional do projeto, de acordo com as tecnologias disponíveis.

5. REFERÊNCIAS

IEA (2010). Key technologies for reducing global CO2 emissions under the BLUE Map scenario. Energy Technology Perspectives 2010. International Energy Agency, IEA. Disponível em < http://www.iea.org/techno/etp/etp10/English.pdf > Acessado em março de 2011;

IPCC. (2007). A report of Working Group I of the Intergovernmental Panel on Climate Change - Summary for Policymaker-AR4, IPCC. Disponível em < http://www.ipcc.ch/publicatio ns_and_data/ar4/wg1/en /spm.html > Acessado em março de 2011;

ABNT (2008), NBR 15213 - Gás natural e outros combustíveis gasosos - Cálculo do poder calorífico, densidade absoluta, densidade relativa e índice de Wobbe a partir da composição, ABNT;

RACKLEY, S.A. (2010) Setephen A., Carbon Capture and Storage, 1ªEdição, EUA, Elsevier, 2010;

UNFCCC (2010) – “Carbon dioxide capture and storage in geological formations as clean development mechanism project activities” - United Nations Framework Convention on Climate Change, UNFCCC, - Conference of the Parties - Disponível em: < http://unfccc.int/files/meetings /cop_16/application/pdf/cop16_cmp_ccs.pdf > Acessado em março de 2011.

MARTINS (2010) A. M.; Capucci, E.; Caetano, L. C.; Cardoso, G.; Barreto, A. B. C., Monsores, L. M., Leal, A. S; Viana, P. – “Hidrogeologia do Estado do Rio de Janeiro - Síntese do Estado Atual do Conhecimento” - XIV Congresso Brasileiro de Águas Subterrâneas; Disponível em < http://www.abas-rj.org/atuacao_tecnica/HidrogeologiaRJ.pdf > Acessado em junho de 2011;

Page 243: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

243

Proposta de síntese de circuitos reversíveis 1 Roberto Sampaio, 2 Luis Antonio Kowada, 3Andre da Cunha Ribeiro. 1,2, Instituto de Matemática - Universidade Federal Fluminense (UFF)

Niterói, RJ, Brasil 3. COPPE – Universidade Federal do Rio de Janeiro

[email protected]

[email protected] [email protected]

RESUMO

Atualmente, o processamento dos computadores é realizado por circuitos elétricos. Este tipo de circuito dissipa muita energia. Isto é um ponto crítico para dispositivos portáteis, como notebooks, tablets e celulares. Uma alternativa para este tipo de circuito é a computação reversível. No lugar das portas lógicas convencionais como AND, OR e XOR, são definidas portas associadas a funções bijetoras. Cada função bijetora finita pode ser associada a uma permutação (das possíveis entradas). Neste modelo, não há perda de informação e consequentemente cada etapa do processamento pode ser desfeita, permitindo inclusive que com os valores de saída o procedimento possa ser executado na ordem reversa, obtendo a entrada associada àquela saída. Além disso, a Computação Reversível é a base para a Computação Quântica, que permite resolver alguns problemas matemáticos e computacionais de forma mais eficiente do que a Computação Clássica. Este trabalho propõe um novo procedimento que, dada a tabela-verdade (sequência de pares entrada/saída) associada a uma função bijetora, indica um circuito reversível (sequência de portas) associado a ela. Este procedimento foi implementado na linguagem C. Também apresentamos uma análise do pior caso deste procedimento.

Palavras-Chave: Computação Reversível. Computação Quântica. Síntese de circuitos.

1. INTRODUÇÃO

Circuitos combinacionais são circuitos lógicos acíclicos formados por portas lógicas. Os circuitos combinacionais clássicos são determinísticos, ou seja, para uma determinada entrada (sequência de bits) o resultado é sempre o mesmo. As principais portas lógicas conhecidas são: NOT, AND, OR e XOR, com as respectivas representações ¬, ^, v e o. Como todas as portas, menos o NOT, possuem quantidade de bits diferentes na entrada e na saída, esse tipo de circuito não pode ser associado a uma função bijetora.

Circuitos reversíveis são uma alternativa para os circuitos convencionais de hoje em dia. Uma vantagem deles é o menor consumo de energia. Na teoria eles não gastam energia, mas na prática o consumo é mínimo (KOWADA, 2006). Em um circuito é possível guardar o resultado esperado em algum outro lugar e executar o circuito inversamente para zerar os bits, o que é bem mais econômico do que apagar os bits para zerá-los. Outra vantagem é que eles são base para a computação quântica, já que um computador quântico é composto apenas de circuitos reversíveis (NIELSEN E SHUANG 2000).

Em vista destas e outras vantagens, têm surgido várias propostas de síntese de circuitos reversíveis, como por exemplo, (SAEEDI et al. 2010, GUPTA et al., 2006).

2. CIRCUITOS REVERSÍVEIS

Para um circuito ser verdadeiramente reversível ele deve ser composto apenas de portas reversíveis, ou seja, portas que possuem a mesma quantidade de bits na entrada e na saída. Logo, portas convencionais como AND e OR não são usadas nesse tipo de

Page 244: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

244

circuito, pois o número de bits na entrada é maior do que o da saída. Somente o NOT é reversível e convencional ao mesmo tempo (KOWADA, 2006).

2.1. PORTAS REVERSÍVEIS

Como não podemos usar as portas convencionais – apenas o operador NOT, já que também é reversível – precisamos usar portas reversíveis para substituir as convencionais.

A porta NOT age igualmente como nos circuitos convencionais, ele inverte os bits nos quais é aplicada.

A porta CNOT - ou NOT controlado - tem dois bits de entrada e dois de saída. Os bits de entrada são o bit alvo e o bit de controle. O bit de controle passa pelo circuito e sai com o mesmo valor. O bit alvo é invertido caso o bit de controle seja igual a 1.

A porta Toffoli é parecida com a porta CNOT. A diferença é que a Toffoli usa 2 bits de controle, mas o procedimento é o mesmo. Os bits de controle são copiados e o bit alvo é invertido caso os bits de controle sejam iguais a 1.

Figura 1: Representação usual das portas CNOT e Toffoli. Os bits superiores são os de controle e o inferior é o bit alvo. A ordem direta de computação é da esquerda para direita.

É possível definir portas formadas por um bit alvo e por dois ou mais bits de controle. Podemos utilizar um conjunto de portas Toffoli e CNOT para representá-las. Estas portas serão denominadas de CNOT-generalizadas.

Podemos, então, simular as portas de circuitos convencionais usando portas reversíveis. A versão reversível da porta XOR é o próprio CNOT. A porta CNOT também pode simular a porta FANOUT. Basta usar 0 como bit alvo, que ela copiará a entrada. Para implementar a porta AND de forma reversível, usaremos um bit a mais na entrada, que será o 0. Depois implementa-se a Toffoli com o terceiro bit como alvo. Logo, a saída copiará as duas entradas e como terceira saída teremos um AND entre as duas primeiras entradas (o XOR com o 0 retorna a própria saída).

Como exemplo de circuito convencional, vejamos o somador completo. Na figura 2(a), é apresentada sua tabela-verdade. Existe um procedimento usual, descrito em (KOWADA, 2006) que define um circuito a partir da tabela-verdade. Neste caso em particular, o circuito é dado na figura 2(b). Mas podemos observar na figura 2(c) que é possível montar um circuito mais otimizado (com menos portas).

Page 245: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

245

(a) (b) (c)

Figura 2: (a) Tabela-verdade do somador completo, (b) circuito definido a partir de uma regra geral, (c) circuito otimizado do mesmo somador.

Mas se montarmos um circuito reversível a partir do circuito convencional diretamente, ou seja, substituindo as portas AND, XOR, etc. pelas suas respectivas reversíveis, teremos o circuito reversível descrito na figura 3.

Figura 3: Circuito reversível do somador completo pela substituição direta das portas do

circuito otimizado da figura 2.

Mas ao pensar um pouco mais, e com outros métodos de criação de circuitos reversíveis, podemos chegar no circuito da figura 4.

Figura 4: Circuito reversível do somador completo com métodos de criação mais eficientes.

Podemos concluir, portanto, que a substituição direta das portas nem sempre levam ao circuito reversível mais otimizado. Nesse artigo, desenvolvemos métodos e técnicas mais eficientes de gerar um circuito reversível.

3. SÍNTESE DE CIRCUITOS REVERSÍVEIS – MÉTODO DO HIPERCUBO

Existe um circuito diferente para cada permutação que quisermos gerar a partir de uma permutação identidade. Sem um método específico pode ser muito complicado chegar ao circuito correspondente, principalmente se a quantidade de bits for muito grande.

Shende et al mostraram que é possível criar um circuito reversível para cada permutação com 2n elementos, mas não apresentam um procedimento computacional (VIVEK et al, 2006).

Entradas Saídas

a b ce s cs

0 0 0 0 0

0 0 1 1 0

0 1 0 1 0

0 1 1 0 1

1 0 0 1 0

1 0 1 0 1

1 1 0 0 1

1 1 1 1 1

Page 246: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

246

Neste trabalho, desenvolvemos um método que cria um circuito para qualquer permutação, que denominamos de método do hipercubo.

Um hipercubo de ordem n é um grafo com 2n vértices, no qual cada vértice está associado a uma sequência distinta de n bits. Há aresta entre dois vértices se as respectivas sequências diferem de apenas um bit (Wikipedia 2011).

O método do hipercubo organiza os bits por meio de portas CNOT-generalizadas envolvendo todos os bits do circuito, colocando um a um, cada bit no seu lugar. E é executado do início para o fim ou vice-versa, e de um jeito que o bit colocado no lugar não precisa mais ser utilizado, então permanece no lugar. Estas portas são denotadas por T(b1b2...bn-1*), onde o * indica o bit-alvo e b1 a bn-1 podem ser 0 ou 1, indicando se o controle é positivo ou negativo.

Apresentamos um exemplo no quadro 1, para ilustrar a ideia da síntese proposta.

3.1. EXEMPLO DO MÉTODO DO HIPERCUBO

.

Permutação Original π0

π1

π2

π3

Permutação Identidade

11 10 01 00

11 10 00 01

01 10 00 11

01 00 10 11

00 01 10 11

Passo 1 – T(0*)

Passo 2 – T(*1)

Passo 3 – T(*0)

Passo 4 – T(0*)

Quadro 1: Método do hipercubo aplicado à permutação [3 2 1 0]. Os elementos das permutações estão representados na notação binária

Temos a permutação original π0 e a identidade. Queremos partir da identidade para chegar à π0, mas podemos resolver da forma contrária e aplicar o circuito da forma reversa também. Observando do final para o início, temos 00 na permutação π0 e 11 na identidade. Como estamos na ordem direita-esquerda, vamos organizar os bits da mesma maneira. Então temos no bit mais a direita 0 na permutação e 1 na identidade. Utilizamos a porta CNOT-generalizada no bit mais a direita, de acordo com o Passo 1.

Com essa porta obtemos π1 da segunda linha. Precisamos trocar de novo, já que fomos para o bit da direita e em π1 é 0 e na identidade 1. Agora trocamos 01 com 11, de acordo com o Passo 2.

Temos a seguir a permutação π2 da terceira linha. Já temos 11 no seu devido lugar, vamos agora para o valor da esquerda, 00, que pela identidade vemos que deveria ser 10. Usamos então mais uma porta CNOT-generalizada, de acordo com o Passo 3, e trocamos 00 com 10.

Temos agora a permutação π3 da quarta linha. E para finalizar fazemos o Passo 4 pra colocar os últimos valores em seus devidos lugares. Temos então a identidade e a sequência de portas CNOT-generalizadas T(0*), T(*1), T(*0), T(0*) que deverão ser aplicadas inversamente já que começamos no fim.

Logo, o circuito que gera a permutação 01 00 10 11 a partir da identidade é composto pelas portas T(0*), T(*0), T(*1) e T(0*), nessa ordem.

3.2. ALGORITMO DO MÉTODO DO HIPERCUBO

Criamos também um algoritmo que recebe uma permutação, resolve e devolve as portas usadas utilizando o método do Hipercubo.

Esse algoritmo calcula exatamente como descrito. Com a permutação armazenada em um vetor, o algoritmo percorre o vetor do final para o começo comparando os valores

Page 247: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

247

com uma permutação identidade de trás pra frente. Comparando os bits dos valores da direita para a esquerda, ao encontrar diferenças, o algoritmo procura no vetor o valor correspondente para fazer a troca. Então ele realiza a troca e mostra na tela a porta que usou. O algoritmo é executado iterativamente até colocar todos os valores em seus respectivos lugares.

Este algoritmo foi implementado em linguagem C.

3.3. PIOR CASO DO MÉTODO DO HIPERCUBO

Para cada quantidade de bits existe um pior caso, ou seja, um caso onde é realizado o maior número de iterações possíveis no hipercubo. É possível encontrá-lo recursivamente.

Suponha uma permutação com n bits. O pior caso seria se fossem realizadas R trocas para colocar cada bit em seu lugar.

Ex: n = 3 000 no lugar de 111, realiza T(00*), T(0*1) e T(*11).

Logo, teoricamente o pior caso seria de R ∗ 2Q, já que temos R bits e 2Q valores.

Mas examinando mais a fundo vemos que isso não é verdade. Dada uma permutação de 2n elementos, supondo que fossem necessárias R ∗ 2Q trocas para organizar a metade dos elementos, ainda assim a metade faltante já teria o bit mais significativo correto e, portanto, não seria necessário arrumar os n bits de cada elemento destes, mas apenas n-1. Veja por exemplo,

Ex: n = 3

010 011 001 000 100 101 110 111

000 001 010 011 100 101 110 111

Logo, resolveríamos agora como se fossem 2 bits, ou seja, n-1 bits, pois um dos bits estará sempre no devido lugar. E portanto pode-se aplicar o mesmo raciocínio anterior. Quando chegar a metade novamente, o segundo bit já estará no seu lugar, e assim sucessivamente, até n=1. Somando todas estas operações, tem-se que seriam necessárias no máximo ∑ 2TUVWQTUXV operações.

Para cada valor de n, há uma permutação que atinge este limite superior. O procedimento para gerá-las é dado na seção seguinte.

3.3.1. COMO GERAR O PIOR CASO DO MÉTODO DO HIPERCUBO

É possível também encontrar a permutação do pior caso dada a quantidade de bits R. Para R = 1 , é o inverso, naturalmente, e o número de iterações é igual a 1.

Vamos chamar as permutações para R = 1 de P1, permutações para R = 2 de P2 e assim por diante.

Para gerar as outras temos que olhar sempre para a anterior e fazer conforme o procedimento que será explicado mais abaixo.

Esse novo método sempre olha a permutação anterior para calcular a nova.

A seguir apresentamos um exemplo para ilustrar este método.

Entrada: P3 = 5 2 7 4 1 6 3 0

Saída: P4

Tabela 1: Método para gerar o pior caso dado à quantidade de bits R.

Passo 1 P4 = ? ? ? ? ? ? ? ? ? ? ? ? 1 6 3 0

Page 248: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

248

Passo 2 P4 = ? ? ? ? 9 14 11 8 ? ? ? ? 1 6 3 0

Passo 3 P4 = 5 2 7 4 9 14 11 8 ? ? ? ? 1 6 3 0

Passo 4 P4 = 5 2 7 4 9 14 11 8 13 10 15 12 1 6 3 0

Passo 5 P4 = 5 10 7 4 9 14 11 8 13 2 15 12 1 6 3 0 (final)

Para gerar a P4 vamos olhar a P3. A P3 é igual a 5 2 7 4 1 6 3 0. Para calcular a P4, vamos copiar metade da P3 e colocar no final da P4 – Passo 1. Depois somamos 2Q a cada membro inserido e colocamos na posição que ele está subtraída de 2Q, 8 posições, nesse caso – Passo 2. Continuando, colocamos o inicio da P3 no inicio da P4 – Passo 3. Depois somamos 2Q a cada membro inserido e colocamos na posição que ele está, somada com 2Q – Passo 4. Depois verificamos se cada um desses membros inseridos é maior ou igual a 2Q. Se ele for menor ele é trocado com o número que está 2Q posições à frente dele – Passo 5.

Para gerarmos a P5, temos que saber a P4, ou seja, temos que sempre saber o anterior para calcularmos o atual.

3.3.2. ALGORITMO QUE GERA O PIOR CASO

Também implementamos um algoritmo que gera o pior caso dado o número de bits n. Esse algoritmo executa exatamente como foi explicado manualmente acima. Ele já possui reservado P1. Já para n maiores que 1 ele calcula, utilizando P1 como ponto de partida, e gera P2, P3, até Pn através de um vetor auxiliar.

Isto significa que a quantidade de operações feitas pelo procedimento para uma permutação de 2n elementos qualquer é de no máximo ∑ 2UWQUX =(n-1).2n+1. Este valor pode ser encontrado por indução.

4. CONCLUSÃO

Neste trabalho apresentamos um método para encontrar uma sequência de portas lógicas reversíveis a partir de uma tabela-verdade reversível. Implementamos este programa na linguagem C. Omitimos os detalhes da implementação por falta de espaço.

Como trabalhos futuros, pode-se desenvolver uma interface gráfica para o programa e também procurar outros métodos de síntese de circuitos, que utilizem menos portas reversíveis.

5. REFERÊNCIAS

GUPTA, P. AGRAWAL, A e N. K. JHA (2006) An algorithm for synthesis of reversible logic circuits, IEEE Trans. on CAD, vol. 25, no. 11, pp. 2317–2330.

KOWADA, LUIS ANTONIO BRASIL (2006) Construção de Algoritmos Reversíveis e Quânticos. Tese de doutorado. COPPE, Engenharia de Sistemas e Computação. UFRJ

NIELSEN, MICHAEL e CHUANG, ISAAC (2000). Quantum Computation and Quantum Information. Cambridge University Press.

SAEEDI, M., ZAMANI, M. S. SEDIGHI, M. e SASANIAN, Z. (2010). Synthesis of reversible circuit using cycle-based approach, J. Emerg. Technol. Comput. Syst., vol. 6, no. 4.

VIVEK V. SHENDE, ADITYA K. PRASAD, IGOR L. MARKOV e JOHN P. HAYES. (2003) Synthesis of Reversible Logic Circuits. IEEE Transactions On Computer-Aided Design Integrated Circuits And Systems, Vol. 22, n. 6. pp 710-722.

Wikipedia (2011) Site http://en.wikipedia.org/wiki/Hypercube (consultado em 08/08/2011).

Page 249: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

249

Saneamento rural: uma visão segundo o panorama do saneamento básico no Brasil

Anna Virgínia Muniz Machado, Ana Carolina Mendes Guedes, Andressa de Azevedo Souza, Lennon Queiroz, Ricardo Franklin Pineda Britto.

Escola de Engenharia – Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

[email protected]; [email protected]; [email protected]; [email protected]; [email protected]

RESUMO

Como parte dos estudos desenvolvidos pelo Ministério das Cidades para elaboração do Plano Nacional de Saneamento Básico – PLANSAB foi elaborado um conjunto de sete volumes que refletem o Panorama do Saneamento Básico no Brasil. O presente trabalho buscou estudar esta documentação, destacando o cenário atual e perspectivas futuras, especificamente os aspectos referentes a saneamento rural no Brasil. Aproximadamente 32,9% da população brasileira têm abastecimento de água de maneira precária e 4,6% não são abastecidas, sendo que 70% deste déficit estão localizados em áreas rurais. Verifica-se também, na zona rural, a ausência de banheiros ou sanitários, aproximadamente três vezes maior que na área urbana. Conclui-se que para a redução do déficit de atendimento serão necessárias medidas estruturais e estruturantes, assim como a adoção de alternativas inovadoras, tanto na gestão dos serviços quanto nos aspectos tecnológicos.

Palavras-Chave: Saneamento rural. Panorama de saneamento. PLANSAB.

1. INTRODUÇÃO

Conforme o Relatório Nacional de Acompanhamento (IPEA, 2010), aproximadamente dois terços dos brasileiros que vivem fora das regiões urbanas, ainda não são contemplados com serviços de saneamento básico, encontrando-se vulneráveis a diversas doenças e, por conseguinte, em um quadro de risco social. Para diminuir esse déficit, o Brasil como signatário dos compromissos estabelecidos com os “Objetivos do Milênio”, tem como meta reduzir em 50% os casos de pessoas sem acesso aos serviços de água e esgotamento sanitário até 2015.

Estudos realizados no Laboratório de Gestão Ambiental do Departamento de Desenho Técnico - TDT / UFF nos anos de 2010 e 2011 indicaram a fragilidade do atendimento com saneamento básico na área rural, especialmente no que se refere ao abastecimento de água e esgotamento sanitário. A análise do estudo realizado para o Plano Nacional de Saneamento Básico (PLANSAB) buscou identificar as estratégias para solucionar essas carências.

A Lei nº 11.445, de 5/1/2007, regulamentada pelo Decreto nº 7.217 de 21/6/2010, determina no seu artigo 52, a elaboração do PLANSAB, que tem como função principal definir diretrizes nacionais, sendo estabelecidas metas macrorregionais e nacionais visando a universalização e o aperfeiçoamento na gestão dos serviços em todo país. O Plano é o instrumento para a retomada da capacidade orientadora e planejadora do Estado, para condução da política pública de saneamento básico definindo metas e estratégias de governo para o período de 2010 a 2030.

Uma das etapas do PLANSAB foi a elaboração do Panorama do Saneamento Básico no Brasil, que contém principalmente: definição de elementos de orientação para elaboração do PLANSAB, análise das condições do saneamento básico no Brasil e estudos de concretização de metas.

Page 250: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

250

2. METODOLOGIA

Foi desenvolvido um levantamento bibliográfico buscando documentos e artigos que abordassem a temática do atendimento à população rural, com abastecimento de água e esgotamento sanitário.

O estudo escolheu o Panorama do Saneamento Básico no Brasil, como o documento mais representativo para evidenciar a situação do saneamento rural, em especial o cenário atual do déficit de atendimento a ser reduzido de acordo com os compromissos da Declaração do Milênio e da Lei 11445 de 2007.

Foi estabelecido um recorte definido pelo atendimento a comunidades de até 2500 habitantes para fim da identificação da realidade do atendimento à área rural. Foi realizada uma avaliação do conjunto de documentos referidos anteriormente, de modo a ressaltar as informações deste segmento.

3. DESENVOLVIMENTO

3.1. O PANORAMA DE SANEAMENTO BÁSICO NO BRASIL

O Panorama apresentou cenário atual e indica a necessidade de soluções para saneamento nas áreas urbanas e rurais, conforme o estudo sobre as deficiências de acesso ao saneamento básico do Ministério das Cidades em 2008. Nas áreas urbanas foram propostas soluções considerando a menor dimensão dos domicílios, a alta densidade demográfica e maior disponibilidade de serviços, diferenciando-se das áreas rurais que reúnem características como grandes extensões de propriedades e baixa densidade demográfica, o que dificulta o fornecimento de soluções coletivas.

A partir de 2003, coube ao Ministério da Saúde, por meio da Fundação Nacional da Saúde (FUNASA), a responsabilidade de quatro grandes programas: Saneamento Rural, Saneamento Ambiental Urbano, Drenagem Urbana Sustentável e Resíduos Sólidos, sendo os programas urbanos para populações menores que 50.000 habitantes. O atual Panorama propõe um plano de saneamento rural focado na melhoria da qualidade do saneamento ambiental, priorizando as comunidades mais dispersas até 2.500 habitantes.

3.2. DÉFICIT

O déficit pode ser definido pela “deficiência ou falta de acesso aos serviços públicos de saneamento básico” (BRASIL, 2011). Aproximadamente 32,9% da população brasileira têm abastecimento de água de maneira precária e 4,6% não são abastecidas. Em relação ao esgotamento sanitário, 49,1% da população brasileira é atendida precariamente e 9,1% sequer têm atendimento.

Em relação ao abastecimento de água, 55% do déficit nacional (domicílios que não dispõem de rede de abastecimento de água ou poço ou nascente com canalização interna) são concentrados na região Nordeste. As regiões Norte, Sudeste, Sul e Centro-Oeste apresentam 20%, 5% e 4% da concentração do déficit nacional, respectivamente. Quando avaliamos a concentração do déficit por localização de domicílio, é visto que 70% se concentram nas áreas rurais.

No que se refere ao esgotamento sanitário, observa-se que 43% dos domicílios que não tem coleta de esgoto e nem fossa séptica, localizam-se na região Nordeste. As regiões Sudeste, Centro Oeste, Norte e Sul, apresentam respectivamente 13%, 12% e 11% do déficit de acesso. Ao contrário do que ocorre no abastecimento de água, o déficit é maior na zona urbana, onde estão localizados 58% dos domicílios sem acesso à rede coletora ou fossa séptica. Embora na área rural a ausência de banheiros ou sanitários é aproximadamente de três vezes maior do que na área urbana (Moraes, 2005).

Page 251: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

251

Na observação do déficit em geral, tanto da componente abastecimento de água quanto no esgotamento sanitário, há concentração nas faixas de menor rendimento mensal e menor número de anos de estudo da população (BRASIL, 2011).

3.2.1 ATENDIMENTO ADEQUADO E DÉFICT

O déficit também pode ser considerado como a parte da população que não tem solução sanitária ou serviço, e que é atendida de forma insatisfatória pelas soluções empregadas. Existe ainda a parcela que dispõem da tecnologia e não a utiliza por diversos fatores, dentre eles os socioeconômicos e culturais.

Nos Quadros abaixo, são mostradas as soluções usadas atualmente, fatores que caracterizam condição precária do serviço ou da solução sanitária, e características da inutilização do serviço ou da solução sanitária existente.

Componentes sanitários Zona Urbana Zona Rural

Abastecimento de água

- Ligação ao sistema público de abastecimento de água - Idem ao Ambiente Urbano

- Poço ou nascente, desde que o domicílio possua canalização interna

- Cisterna para a captação de água de chuva

Esgotamento Sanitário

- Ligação domiciliar ao sistema público de esgotamento sanitário - Idem ao Ambiente Urbano

- Fossas sépticas ligadas à rede coletora ou a sistemas de infiltração/filtração

- Fossas secas ventiladas, de fermentação e absorventes

- Tratamento de esgotos sanitários

Quadro 1. Soluções atualmente utilizadas.

Fonte: Adaptado do Panorama de Saneamento Básico no Brasil. Ministério das Cidades, 2011.

Componentes sanitários Zona Urbana Zona Rural

Abastecimento de água - Água consumida sem tratamento - Idem ao Ambiente Urbano

- Água distribuída pela rede pública fora dos padrões de potabilidade

- Cisterna não mantida de forma adequada

- Intermitência do abastecimento por rede de distribuição de água

Esgotamento Sanitário

- Ocorrência de vazamentos, rupturas, entupimentos ou refluxo dos efluentes - Idem ao Ambiente Urbano

- Ineficiência no tratamento dos esgotos sanitários

- Fossas com manutenção inadequada

Quadro 2. Fatores que caracterizam condição precária do serviço ou da solução sanitária.

Fonte: Adaptado do Panorama de Saneamento Básico no Brasil. Ministério das Cidades, 2011.

Componentes sanitários Zona Urbana Zona Rural

Abastecimento de água - Corte de água ou fonte contaminada - Idem ao Ambiente Urbano

- Falta de capacidade de pagamento

- Fatores socioculturais que impedem o uso da solução em face de práticas pré-existentes

Page 252: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

252

Esgotamento sanitário

- Fatores socioculturais que impedem o uso da solução em face de práticas pré-existentes - Idem ao Ambiente Urbano

Quadro 3. Características da inutilização do serviço ou da solução sanitária existente.

Fonte: Adaptado do Panorama de Saneamento Básico no Brasil. Ministério das Cidades, 2011.

Esses conceitos foram usados para definir indicadores para a avaliação do déficit junto aos sistemas de informação disponíveis.

3.3 SOLUÇÕES ADEQUADAS EM ÁREAS RURAIS

Devido à maioria dos mananciais estar fora dos padrões de potabilidade da água segundo a Portaria 518, há a necessidade de uma estação de tratamento de água e consequentemente de operadores especializados, geralmente não encontrados nas áreas rurais. Além disso, os custos com canalização muitas vezes inviabilizam o investimento em virtude da grande distância dos mananciais até essas áreas mais afastadas, da baixa densidade demográfica, e da baixa potencialidade econômica da população.

Portanto, uma solução adequada é o uso de poços tubulares profundos, que retiram água de aqüíferos ou lençóis freáticos, que na maioria dos casos, se encontram dentro dos padrões de potabilidade, ou necessitando de níveis de tratamento inferiores comparados aos mananciais superficiais. Nestes casos é adotada na maioria das vezes a simples cloração para o tratamento da água a ser distribuída.

Considerando o esgotamento sanitário, algumas das soluções existentes são: ligação domiciliar ao sistema público de esgotamento sanitário, fossas sépticas ligadas à rede coletora ou sistemas de filtração e infiltração, e possível tratamento de esgotos sanitários. Entretanto, ainda são verificadas fossas secas ventiladas, de fermentação e absorventes, sendo estas alternativas consideradas como inadequadas para suprir o déficit de atendimento. O Panorama considera como adequado apenas os domicílios que tenham ligação ao sistema de coleta pública de esgotamento sanitário com estação de tratamento e uso de fossas sépticas com filtro e sumidouro.

Tendo em vista as características das comunidades dispersas, o atendimento com redes coletoras geraria um grande gasto com canalizações e construção de maior número de estações de tratamento. O uso de fossas sépticas individuais com filtro e sumidouro é uma solução bastante utilizada atualmente e adequada. Em áreas menos dispersas, podem-se usar redes de esgoto condominiais com diversos tanques sépticos “coletivos” para tratamento ou o uso de reatores UASB.

Uma grande novidade proposta tanto no sistema de abastecimento de água quanto no esgotamento sanitário, é a classificação não só de atendimento adequado e não adequado, mas também a questão do atendimento precário. No abastecimento de água, toda água distribuída por rede pública sem seguir os padrões de potabilidade, com abastecimento bastante descontínuo, domicílios sem canalização interna, o uso de cisternas de captação de água da chuva sem o devido tratamento e o uso de carros pipa, são considerados atendimentos precários. Em termos de esgotamento sanitário, o uso de fossa rudimentar ou coleta sem tratamento são também considerados como atendimento precário.

4. INVESTIMENTOS FUTUROS

Os investimentos futuros necessários para a universalização do atendimento na área de saneamento urbano e rural são na maioria de natureza estrutural. Cerca de 140 bilhões de reais para o esgotamento sanitário (53% do total) e 74 bilhões de reais para o abastecimento de água (28%), a serem investidos entre 2011 e 2030, contra 31,4 bilhões e 17,4 bilhões de reais em abastecimento de água e esgotamento sanitário, respectivamente (7% e 12%), em medidas estruturantes. Deste montante, está prevista uma pequena parcela

Page 253: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

253

para as áreas rurais, apenas 3,7% do total dos investimentos futuros, dos quais 2,7% são para expansão dos serviços de água e esgoto e 1% para reposição dos serviços já existentes, tanto estruturais quanto estruturantes.

Descreve-se como medidas estruturais ações de implementação de obra física e como medidas estruturantes, a implementação de sistemas de gestão, capacitação, educação ambiental, entre outros.

5. CONCLUSÃO

O estudo conclui que significativos desafios ainda persistem na área rural, devido aos baixos investimentos ao longo dos anos. Juntamente a isso, a escala e caráter disperso das comunidades são desafios para a implementação de soluções coletivas, o que dificulta no controle do acesso e encarece as medidas estruturais.

Além disso, há uma grande dificuldade no que se refere às medidas estruturantes, ou seja, na gestão destes sistemas de forma adequada, o que pode vir a comprometer a sustentabilidade dos investimentos. Por isso, ações de educação ambiental e participação da comunidade são importantes para contribuir com melhores condições de saneamento básico. Assim, não são suficientes ações de construção de elementos para captação e distribuição de água, ou mesmo fossas e outros sistemas de tratamento de esgotos unifamiliares ou coletivos. É necessário o estabelecimento de formas de gestão dos sistemas construídos, de forma que haja sustentabilidade do funcionamento destes investimentos.

6. REFERÊNCIAS

BORJA, P.C.; MORAES, L.R.S. Saneamento como um direito social. In: ASSEMBLÉIA DA ASSEMAE, 35., 2005, Belo Horizonte. Anais... Brasília: ASSEMAE, 2005.

BRASIL. Ipea. Objetivos de Desenvolvimento do Milênio – Relatório Nacional de Acompanhamento. 2010. ed. Brasilia- Df, 2010. 184 p. Disponível em: <http://www.ipea.gov.br/portal/images/stories/PDFs/100408_relatorioodm.pdf>. Acesso em: 14 Ago. 2010.

BRASIL. Lei n. 11.445, de 05 de janeiro de 2007. Estabelece diretrizes nacionais para o saneamento básico; altera as Leis nos 6.766, de 19 de dezembro de 1979, 8.036, de 11 de maio de 1990, 8.666, de 21 de junho de 1993, 8.987, de 13 de fevereiro de 1995; revoga a Lei no 6.528, de 11 de maio de 1978; e dá outras providências. Diário Oficial da União, Brasília, 06 jan. 2007.

BRASIL. Ministério das Cidades. Panorama do Saneamento Básico no Brasil. 1. ed. Brasília, 2011. v. 1-7. Disponível em: <http://www.saneamentoweb.com.br/informacoeseindicadores/panorama_plansab>. Acesso em: 23. Mai. 2011.

Page 254: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

254

Síntese e análise faixa estreita do sinal rádio móv el: aplicação a ambiente de vegetação

1Fabio Mainart da Silva, 2Renan Luiz Pereira, 3Rener Camara Lima Nogueira, 4Leni Joaquim de Matos

Escola de Engenharia - Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

[email protected], [email protected],

[email protected],[email protected]

RESUMO

Este artigo consiste em sintetizar um sinal rádio-móvel em ambiente sem visada (NLOS) entre um transmissor e um receptor. Em seguida, este sinal é analisado através de duas técnicas: filtro de média movente (FMM) e polinômios de ajuste, podendo se identificar a sua variabilidade tanto lenta quanto rápida, além da perda de sinal no percurso entre o transmissor e o receptor. Atestada a validade do processo de análise, que é um misto de FMM com ajuste polinomial, o mesmo é aplicado a um sinal real, medido em uma rota de um canal de vegetação sem visada, no Jardim Botânico do Rio de Janeiro.

Palavras-Chave: Sinal Rádio Móvel. Variabilidade de sinal. Perda no percurso.

1. INTRODUÇÃO

Ao se propagar em um canal, o sinal rádio móvel está sujeito a efeitos de difração, espalhamento e reflexão. Como resultado, multipercursos do sinal transmitido chegam a um receptor, provocando desvanecimento do sinal, que é percebido como uma variabilidade rápida e aleatória no nível de sinal recebido (RAPPAPORT, 2009). Embutidas nesse sinal, também estão a variabilidade lenta e a perda de sinal no percurso entre transmissor (Tx) e receptor (Rx). Dessa forma, qualquer sinal recebido por uma estação rádio móvel pode ser decomposto nessas tres componentes: a de variabilidade rápida e lenta e a perda no percurso, conhecida por path loss. A variabilidade, tanto lenta quanto rápida, pode ser descrita por uma distribuição estatística adequada, levando à determinação de parâmetros de grande importância, que caracterizam a propagação no canal rádio em questão (LEE, 1989). Já a perda no percurso contribui para o planejamento de cobertura do sinal rádio móvel no canal em questão, levando à criação de modelos de cobertura aplicados nos projetos de sistemas celulares.

Com o objetivo de atestar o emprego do filtro de média móvel (ROLIM, 2002) na análise de um sinal rádio móvel, para separar as três componentes citadas, este artigo trata da simulação e análise de um sinal aleatório recebido. Em seguida, a técnica é aplicada a um sinal real, medido em ambiente de vegetação, com a finalidade de gerar as estatísticas do sinal medido.

Na continuidade do artigo, a seção 2 descreve os mecanismos de propagação. Na Seção 3, são tratadas algumas funções densidade de probabilidade (PDF), necessárias para a compreensão do restante do artigo e a Seção 4 trata da síntese e análise faixa estreita do sinal rádio móvel. A Seção 5 mostra os resultados da análise aplicada à região de vegetação e a Seção 6 conclui o trabalho.

2. MECANISMOS E EFEITOS DE PROPAGAÇÃO

Os mecanismos de propagação, predominantes na faixa de frequência usada nos sistemas rádio móveis, são: visibilidade, reflexão e difração. É usual se denominar a reflexão especular de reflexão apenas, e a reflexão difusa, de espalhamento.

Page 255: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

255

O efeito de propagação que se pronuncia é o multipercurso, pois o sinal resultante recebido é devido à composição de inúmeras versões do sinal original transmitido, que percorreram diferentes percursos determinados, em grande parte, pelas reflexões e difrações que sofreram. Outro efeito de propagação é o que se manifesta através da flutuação do nível de sinal devido a obstruções geradas pelo relevo ou criadas pelo homem. Esse efeito é conhecido por sombreamento. Os multipercursos são os responsáveis pela geração do desvanecimento rápido do sinal, enquanto o sombreamento é associado ao desvanecimento lento. Há, ainda, um terceiro efeito em um ambiente rádio móvel ou não, que é a queda da intensidade, ou nível, do sinal recebido à medida que o receptor se afasta do transmissor. Muitos modelos de predição da atenuação com a distância já foram propostos (PARSONS, 2000), tanto analíticos quanto empíricos. Todos eles indicam que a potência média do sinal recebido decai de forma logarítmica com a distância, seja em ambientes internos ou externos (indoor ou outdoor).

A Figura 1 ilustra um sinal típico medido em um ambiente móvel, mostrando os três efeitos mencionados.

Figura 1. Envoltória de um sinal recebido em um ambiente rádio móvel.

Observa-se que as componentes do sinal podem ser separadas, visto que a perda pode ser tirada pela reta de ajuste, restando o sinal rápido. Para retirar o sinal lento do rápido, o filtro de média móvel será empregado para a separação das componentes, como será visto na Seção 4.

3. ESTATÍSTICAS DA VARIABILIDADE DE SINAL RÁDIO MÓV EL

Uma vez que a variabilidade aleatória de sinal é descrita por funções densidade de probabilidade (PDF), esta Seção trata das principais PDFs associadas à mesma. Como o sinal sintetizado será suposto ter uma variação lenta com estatística lognormal e rápida, do tipo Rayleigh, estas serão as duas funções abordadas.

3.1. DISTRIBUIÇÃO LOGNORMAL

Uma onda eletromagnética, propagando-se em um ambiente rádio móvel, passará por diversos tipos de obstruções, tais como prédios, árvores, etc... , até que atinja o seu destino, no caso, a estação receptora móvel. Este sombreamento do sinal é o responsável pela variação lenta do mesmo e cada obstáculo possui sua própria constante de atenuação e espessura, ou seja, a atenuação e espessura do obstáculo variam aleatoriamente de obstrução a obstrução, conduzindo a uma PDF lognormal (YACOUB, 2003), definida por:

YZ = √\]^ _`Y a−

bcd^]^ ef

onde Y, MY e σY são expressas na forma logarítmica e representam, respectivamente: a amplitude relativa de sinal recebido, a média e o desvio da distribuição, todas em dB.

(1)

Page 256: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

256

3.2. DISTRIBUIÇÃO RAYLEIGH

A distribuição Rayleigh, em geral, é própria para descrever o desvanecimento rápido, quando o receptor móvel só recebe multipercursos, ou quando não há um sinal forte de visada direta, ou LOS (Line of Sight), ao transmissor. Neste caso, a componente do desvanecimento do sinal pode ser modelada pela PDF Rayleigh, que se aplica, portanto, a uma variável r, representando a envoltória do sinal aleatório recebido, sendo σ o desvio padrão da distribuição. A PDF Rayleigh é conhecida como uma gaussiana complexa (YACOUB, 2003), composta por duas gaussianas em quadratura, I e Q, sendo expressa por:

Yg = g]& _`Y b− g&

]&e

onde h = ij + k. 4. SÍNTESE E ANÁLISE DE UM SINAL FAIXA ESTREITA

Na síntese do sinal, levam-se em consideração os três efeitos citados para compor um sinal e, através da análise pelo filtro de média móvel proposto, pode-se verificar se esse processo de análise empregado é válido, comparando o resultado da mesma com o sinal sintetizado original.

4.1. SÍNTESE

No processo de síntese do sinal, a componente lognormal de variação lenta é gerada de um sinal aleatório que, em seguida, passa por um filtro passa-baixas do tipo Butterworth de 4ª ordem. O sinal resultante é normalizado e passado para escala logarítmica, gerando um sinal, cujas variações de amplitude seguem uma FDP lognormal.

Para o sinal de variação rápida, cujas variações da amplitude seguem a FDP Rayleigh, são gerados dois sinais aleatórios gaussianos, representando as componentes em fase (I) e em quadratura (Q), que formam o processo gaussiano complexo. Em seguida, ambos os sinais são filtrados pelo filtro Butterworth de 4ª ordem, que equivale a um filtro de Doppler (RAPPAPORT, 2009), necessário para simular o efeito de espalhamento na frequência, que ocorre devido à variação dos multipercursos que chegam ao receptor, resultante do efeito da mobilidade. A raiz quadrada fornece a envoltória do sinal de variabilidade rápida, suposta de estatística do tipo Rayleigh (RAPPAPORT, 2009).

4.2. ANÁLISE

Partindo do sinal sintetizado, foi aplicado o filtro de média móvel (OPPENHEIM, 1996) para separar cada uma das três componentes do sinal. Este filtro, conhecido como FMM, consiste na escolha de uma janela J que percorrerá as N amostras do sinal, realizando a média entre os J valores cobertos pela janela. O processo de filtragem por média móvel, além de eliminar as altas frequências, apresenta, como amostras de saída, uma média aritmética das amostras de entrada na sua janela J de atuação.

Pode-se obter a i-ésima amostra de saída do filtro, a partir da equação:

l[W] = opdp ∑ `[W + q]drXo

onde i é o índice das amostras de saída do FMM, y[i] é o valor da i-ésima amostra de saída, N é o número de amostras do sinal de entrada antes do ponto i e M é o número de amostras consideradas no cálculo da média após o ponto i na janela móvel.

Após essa primeira média móvel, a componente Rayleigh é extraída do sinal, ou seja, na saída do FMM1, como mostra a Figura 2, tem-se um sinal com sombreamento mais perda no percurso (S + P). Subtraindo-se o sinal original (SO) deste obtido à saída de FMM1, chega-se ao sinal de Rayleigh (R). Na saída de FMM2, obtém-se apenas a perda no percurso (P). Desta forma, de posse da perda, esta é subtraída do sinal obtido à saída do

(2)

(3)

Page 257: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

257

FMM1, obtendo-se o sinal (S) de variação lenta. Resumindo: o sinal sintetizado, passado por dois filtros de média móvel, resulta nas três componentes de sinal desejadas. Feito isto, uma comparação é realizada entre cada sinal obtido (R, S e P) e o original sintetizado, de forma a atestar a validade dos dois filtros empregados na análise. Em seguida, em vez do FMM2, um segundo procedimento foi seguido: a perda (P) foi obtida por ajuste polinomial da saída do FMM1, obtendo-se P e, por subtração de P em (S + P), obteve-se o sombreamento S e a parte pontilhada na Figura 2 não é realizada.

Figura 2. Diagrama mostrando a obtenção dos sinais R, S, e P.

Para a comparação entre os sinais sintetizados e os analisados, dois métodos são utilizados: o cálculo do Erro Médio Quadrático – EMQ (ROLIM, 2002) e do coeficiente de correlação - C (KATAYAMA et al., 2009), que são efetuados, respectivamente, pelas equações:

stkJ, u = o ∑ vU − qUoUX

w = ∑ xyxy|y~$∑ xyx&y~ ∑ y|&y~

onde:

vi/ki e xi/yi representam as N amostras do sinal sintetizado/analisado, respectivamente, nas equações (4) e (5) e ` e l representam as médias das amostras de xi e yi, respectivamente.

O segundo procedimento mostrou menor erro nos sinais de sombreamento e perda no percurso (SILVA, 2010) e foi, portanto, o adotado para analisar o sinal medido em duas rotas sem visada no Jardim Botânico do Rio de Janeiro.

(4)

(5)

Page 258: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

258

5. RESULTADOS

Os sinais obtidos em duas rotas NLOS sondadas, uma radial e a outra transversal, são mostrados nas Figuras 3 e 4, respectivamente, juntamente com as componentes lenta e rápida retiradas dos mesmos.

Figura 3 - Rota radial sondada e as componentes obtidas.

Figura 4 - Rota transversal sondada e as componentes obtidas.

Aplicando os dois filtros de média móvel e comparando as funções obtidas com as originais, observou-se que o sinal de variação lenta e o de perda no percurso analisados mostraram erro maior em relação ao sintetizado, do que o de variação rápida. Dessa forma, optou-se por aplicar um ajuste polinomial para determinar P, a partir da saída do FMM1, conduzindo a um menor erro. Em seguida, S foi obtido pela diferença da saída do FMM1 e a perda ajustada por polinômio. Feito isto, partiu-se para a aplicação desse procedimento ao sinal medido em campo, supostamente com variabilidade rápida do tipo Rayleigh (SILVA, 2010), chegando-se aos resultados das Figuras 3 e 4.

6. CONCLUSÕES

O emprego do FMM1, para obtenção da componente Rayleigh no sinal sintetizado, conduziu a ótimos resultados para a correlação, portanto, houve um bom ajuste do sinal R ao sinal Rayleigh original, sendo que os resultados tendiam a melhorar à medida que o

Page 259: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

259

número de amostras na janela era aumentado. Há, porém, um limite para tal, a partir do qual a correlação volta a piorar. O mesmo, contudo, não ocorreu para obtenção das outras duas componentes S e P (lognormal e perda no percurso), onde o ajuste polinomial mostrou-se muito melhor através do segundo procedimento adotado. Assim, a componente de perda no percurso apresentou melhores resultados que as demais, devido ao fato de que ela não é retirada por filtragem, mas por ajuste de polinômio. O ajuste polinomial foi o adequado para a perda no percurso, onde a correlação apresentou melhores resultados que os obtidos por dois FMM’s, acarretando o mesmo para o sombreamento obtido a partir deste ajuste. O cálculo do erro médio quadrático mostra claramente que, para as primeiras amostras, as componentes analisadas divergem das sintetizadas, porém conforme o sinal é amostrado, o erro diminui exponencialmente, levando a uma convergência maior entre os sinais sintetizado e analisado.

Nas rotas sondadas, observa-se que o sinal Rayleigh (em vermelho) está sem o efeito da queda no percurso, juntamente com o lognormal (em azul), ambos variando no entorno de zero, e os polinômios de ajuste para a perda no percurso foram de 3º e 5º graus, respectivamente, nas rotas radial e transversal sondadas.

7. REFERÊNCIAS

KATAYAMA, Norihiko; TAKIZAWA, Kenichi; AOYAGI, Takahiro; TAKADA, Jun-ichi; LI,Huan-Bang; KOHNO, Ryuji (2009). Channel Models on Various Frequency Bands for Wearable Body Area Network. IEICE Transactions on Communications vol. E92-B. No.2.

LEE, W. C. Y. (1989). Mobile Cellular Telecommunications Systems. McGRAW-HILL, Singapore 450p.

OPPENHEIM, A.V., WILLSKY, A. S., NAWAB, S.H. (1996). Signals and Systems. Prentice

Hall, NJ.

PARSONS, J. D. (2000). The Mobile Radio Propagation Channel. JOHN WILEY & SONS, England 483p.

RAPPAPORT, T. S. (2009). Comunicações sem Fio – Princípios e Práticas. PEARSON, Prentice Hall 426p.

ROLIM, T. H. P.; VONO, A. O.; NOVAES, C. D.; GUIMARÃES, D. A. (2002). Um Método para Síntese e Análise dos Principais Efeitos de Propagação em Canais de Rádio Móvel, Revista Telecomunicações – Inatel v.5.01.

SILVA, F. M.; PEREIRA; R.L.; NOGUEIRA, R.C.L. (2010). Síntese e Análise do Sinal Recebido em Canal Rádio-Móvel – Aplicação em Medições Realizadas no Jardim Botânico do Rio de Janeiro. Projeto de Final de Curso.

YACOUB, M. D. (1993). Foundations of Mobile Radio Engineering. CRC Press, New York 481p.

Page 260: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

260

Telemedicina no contexto brasileiro: avaliações e resultados 1Leonardo Severo Alves de Melo, 2Alessandro Severo Alves de Melo, 3Julio Cesar Dal Bello,

3Eduardo Rodrigues Vale . 1Diagnext.com Processamento de Dados Ltda Niterói, RJ, Brasil

2Departamento de Radiologia – Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil 3Escola de Engenharia – Universidade Federal Fluminense (UFF) Niterói, RJ, Brasil

[email protected] ; [email protected] ; [email protected] ; [email protected]

RESUMO

A Telemedicina é a junção de duas áreas do conhecimento humano, e como tal precisar ser avaliada com multiplas visões. Para a saúde, é uma poderosa aliada no atendimento médico aos enfermos distantes, proporcionando resultados rápidos. De outro, um estudo significativo de possibilidades tecnológicas para viabilizar a comunicação de dados de grande volume de informações clínicas, inviáveis no contexto de telecomunicações atual. Em suma, este trabalho analisa alguns estudos sobre o assunto e indica o uso de uma estrutura tecnológica especializada, ágil, rápida e comprovadamente mais eficiente do que o padrão internacional do segmento de transmissão de imagens médicas para uso em telerradiologia.

Palavras-Chave: TELEMEDICINA. TELERRADIOLOGIA. SAÚDE. DICOM.

1. INTRODUÇÃO

A Telemedicina é a junção de duas expressões: telecomunicação, descrita como sendo a transmissão, emissão ou recepção de informações; e medicina, uma das áreas do conhecimento ligada à manutenção e restauração da saúde, prevenindo e curando doenças.

Em uma visão prática, telemedicina não é uma tecnologia específica capaz de transportar práticas ligadas a saúde; mas uma metodologia, que proporciona a conexão entre possíveis pontos distantes – o paciente e o profissional de saúde – proporcionando qualidade de vida.

Há motivações para a prática no Brasil: os médicos são mal distribuídos, em termos geográficos e de especialidade; e 80% dos estados têm mais de 1.000 habitantes/médico (5 acima de 4.000). Os dados superam os limites estabelecidos pela UNESCO.

A telerradiologia possui forte demanda: a razão entre o número de médicos no geral e os radiologistas é de cerca de 1,1%; e segundo o Ministério da Saúde, menos de 10% das cidades brasileiras têm tomografia computadorizada e/ou ressonância magnética, potencialmente por falta de profissionais (CNES, 2011).

O trabalho apresentará uma análise dos estudos realizados para a construção de um sistema capaz de atender a necessidade dos profissionais e pacientes; e seu resultado: uma estrutura tecnológica especializada, ágil, rápida e comprovadamente mais eficiente do que o padrão internacional.

2. METODOLOGIA

Quando a tecnologia da imagem médica foi transformada em produto pela industria, na década de 70, cada fabricante de equipamentos desenvolveu formas próprias para tratar a imagem. Estas, exclusivas, não tinham como objetivo a interoperabilidade dos equipamentos, o que dificultou muito o estudo médico e científico (DICOM, 2011).

Na década de 80, duas grandes instituições norte-americanas – American College of Radiology (ACR) e a National Electrical Manufacturers Association (NEMA) – constituíram

Page 261: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

261

um comitê para criar um padrão de comunicação de dados, publicando em 1985 a base do mesmo. Em 1993, foi criado por esse grupo um padrão estruturado de comunicação, o Digital Imaging and Communication in Medicine – o padrão DICOM (DICOM, 2011).

Esse formato contextualizado pelo padrão, viabilizou a constituição de sistemas de armazenamento de imagens, comumente chamado de PACS – Picture Archiving and Communication Systems, e a interface com outros sistemas de troca de informação médica (DICOM, 2011).

2.1. A TELERRADIOLOGIA

O transporte de dados médicos através de redes de comunicação, permite a constituição da telerradiologia, viabilizando a troca de informação especializada entre grupos de profissionais e equipamentos, distantes entre si.

O Conselho Federal de Medicina, do Brasil por exemplo, por meio de sua Resolução 1890 de janeiro de 2009, define a telerradiologia como exercício da Medicina, onde o fator crítico é a distância, utilizando a transmissão eletrônica de imagens radiológicas com o propósito de consulta e relatório. O fator principal discutido nesta resolução é a necessidade de atendimento médico em nosso país, de proporções continentais, versus a desigualdade de distribuição de médicos especialistas na área (CFM/1890, 2009).

Entretanto, o principal objetivo do padrão é transportar dados médicos fundamentais, independente de seu volume e encaminhar informação suficiente para a tratativa clínica. Não há preocupação na racionalização dos meios de comunicação.

Segundo a Sociedade Brasileira de Computação – SBC – em seu relatório intitulado “Grandes Desafios da Pesquisa em Computação no Brasil – 2006 até 2016”, a imagem médica é definida como geradora exponencial de informação, criando dificuldades na gestão de grandes volumes de dados multimídia distribuídos (SBC, 2006).

Como pode ser visualizado na Tabela 1, os exames radiológicos convencionais demandam um grande volume de dados a serem armazenados, consequentemente, transportáveis ao atendimento da Telerradiologia.

Page 262: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

262

Tabela 1: Tamanhos médios dos arquivos de imagens e dos exames, ambos dentro do padrão DICOM.

Tipo de Exame Tamanho

Da imagem Do exame

Radiografia 7,7 – 29 Mbytes

50 – 60 Mbytes

Tomografia Computadorizada

515 – 770 kbytes

300 Mbytes – 4 Gbytes

Ressonânica Magnética

258 – 770 kbytes

200 Mbytes – 2 Gbytes

Dada a fraca existência ou elevado custo financeiro de redes de telecomunicações no interior do País, bem como a ausência de velocidades de comunicação de dados aceitáveis para análise clínica, os sistemas de Telerradiologia convencionais vêm se implantando apenas e nas capitais e nas regiões metropolitanas, exatamente onde a necessidade não se faz tão presente.

2.2. A TELERRADIOLOGIA CONVENCIONAL

Como o exame médico corresponde a um grande volume de dados a ser transportado, os fabricantes de tecnologia desenvolveram soluções como subterfúgios para dirimir principalmente o tempo necessário para a avaliação clínica do exame.

A solução mais testada, creditada, e, consequentemente, normatizada, é chamada de Web Access to DICOM Persistent Objects (WADO). Esta, oriunda do padrão DICOM PS 3.18-2006 (NEMA, 2006), especifica um serviço baseado na web para acessar e apresentar informações médicas através de objetos ditos persistentes (ex. imagens, relatórios de diagnóstico por imagem). Trata-se de uma tecnologia onde o exame em si é subdivido em diversas partes e localizações, tentando maximizar a velocidade de acesso e uso das rede de comunicação. A citada tecnologia fornece um mecanismo simples para acessar um objeto DICOM a partir de páginas HTML ou documentos XML, através de HTTP / HTTPS, usando identificadores e sistemas de comunicação de dados específicos. Os dados podem ser recuperados ou em uma apresentação customizada pelo usuário (por exemplo, JPEG ou GIF) ou em um formato DICOM nativo.

Outros métodos também existem, similares aos apresentados por JUNIOR et al. (2006), e SOUZA et al. (2011): o primeiro adicionando novas variáveis na transmissão dos dados dentro do padrão (propondo uma extensão ao mesmo) e executando uma compactação prévia; o segundo, transformando as imagens em vídeos com resoluções diferentes e em tomogramas variados. São bons exemplos de caminhos pelos quais a industria do segmento tenta seguir.

Ambos os casos buscam redução de tempo da visualização do exame – o primeiro consegue reduzir o tempo de transmissão em até 70%, e no segundo, a visualização da imagem é instantânea, entretanto a sua resolução (em pontos por polegada quadrada) visando a análise médica é muito degradada. O tempo para completa visualização acaba sendo proporcional ao tempo convencional de envio.

Um sistema desenvolvido por MELO et al. (2010) transmite dados DICOM similarmente ao apresentado por JUNIOR et al. (2006), quanto ao uso de ferramentas de compactação dos dados em tempo real. Entretanto, obtêm uma redução do tempo de transmissão de 93%, por utilizar um algoritmo mais performático e por operar através de um equipamentos especializado (ativo de rede).

Page 263: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

263

Propõe-se uma lista de requisitos de atendimento mínimo, para dirimir algumas deficiências gerais identificadas em transmissões desse tipo de imagem. Esta foi idealizada visando a atender uma diversidade de problemas, incluindo estruturas de comunicação, falhas de sistemas operacionais utilizados, custos financeiros de infraestrutura, etc.

Comparando os sistemas existentes, modelados por MELO et al. (2010), JUNIOR et al. (2006), NEMA (2006) e SOUZA et al. (2011), fez-se uma avaliação das características mais relevantes, na Tabela 2.

Tabela 2: Comparativo entre os sistemas de transmissão de imagens médicas. Característia identificada

Modelo 1: Proposto pelo autor (MELO et al., 2010)

Modelo 2: Compactação Prévia (JUNIOR et al., 2006)

Modelo 3: WADO (NEMA, 2006)

Modelo 4: Streamming de Vídeo

(SOUZA et al., 2011)

Disponibilização dos dados

Transmissão das imagens diretamente ao destino, em formato de arquivos. Software de visualização local padrão de mercado.

Visualização através de um software baseado em Web. Processamento de visualização remoto, no

servidor de origem.

Equipamentos envolvidos

Desenvolvimento de ativos de rede especializados de pequeno porte, com nenhuma alteração nos equipamentos e softwares pré-existentes.

Reprogramação dos equipamentos e softwares anteriores, afim de adaptar ao protocolo proposto. Proposta de agregação ao padrão.

Desenvolvimento de softwares de servidores Web com fim definido.

Transmissões entre redes de

dados instáveis, com interrupções

frequentes e falhas.

Conexão sincrona, intermediada por central eletrônica na rede; Separação entre o envio do dado do aparelho radiológico e o meio de comunicação (buffer); Retransmissão a partir do local interrompido; Algoritmo preditivo para evitar retransmissões.

Conexão direta entre o emissor e o receptor.

Retransmissão total ou parcial em caso de falha; Algoritmo preditivo para evitar retransmissões.

Separação entre o envio do dado do aparelho radiológico e o meio de comunicação (buffer); Retransmissão total em caso de falha.

Invasão eletrônica.

Sistema central controla a entrada e saída de quaisquer informações, identificando e utilizando chaves criptográficas de 2048 bits; Assinatura digital para troca de informações textuais via web.

Conexão ponto a ponto exclusiva só permite envio de dados identificados; Utilização de chaves criptográficas de 128 bits.

Possibilidade de invasão eletrônica aos servidores, roubo ou destruições de informações confidenciais através de virus modernos (Trojans, Cavalos de Tróia, etc); Assinatura digital para troca de informações textuais via web.

Arquivos DICOM repetidos ou

gerados com erro (falhas de

digitalização).

Avaliação sistêmica da imagem gerada (consistência do header com a imagem); Filtro de imagens transmitidas repetidas ou geradas com erro (CRC).

Apresentação da imagem repetida ou com erro ao usuário final.

Padrões de resolução e envio

de dados dos orgãos

governamentais.

Ajustável para obedecer resoluções de vídeo e operação de arquivos; Uso de imagens DICOM em toda espectro das soluções utilizadas.

Conversão digital para outros modos de visualização e arquivos; Reduz drasticamente a resolução da imagem, para ampliara a velocidade de transmissão.

Falhas gerais imprevistas.

Gestão da comunicação entre os entes envolvidos; Os dados são enviados assim que conexão é estabelecida; Geração de relatórios, para controle automático de falhas.

Interrupções podem não encaminhar determinadas imagens ou segmentos de um exame.

Compactação inviabilizando interpretação radiológica

Fidedigna a original; Resolução seguindo o padrão estabelecido; Qualidade preservada.

Modificações na resolução; Dificuldades em alguns casos para interpretação médica.

Redução do tempo de envio

dos dados, comparando ao

padrão.

Até 93% Até 70% Até 90%

Até 50% Demora para resolução viável a interpretação médica.

Tamanho dos dados

armazenados 85% de redução 80% de redução 85% de redução 10% de aumento

Page 264: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

264

Legenda: 1. Todos os envios – pelos equipamentos radiológicos - e requisições de exames – pelos profissionais de saúde dentro da instituição – são encaminhados a equipamento; 2. Os exames enviados também podem ser impressos em papel; 3. A imagem é encaminhada diretamente a Central Eletrônica, via protocolo próprio; 4. As imagens propriamente ditas são enviadas aos profissionais de saúde em seus escritórios, consultórios ou para onde considerarem melhor. A visualização é através de processamento local,, o que mantem uma imagem de alta qualidade e rápida manipulação. 5. Os profissionais de saúde analisam e concluem seus relatórios. Através da Intranet, os dados são enviados diretamente a Central Eletrônica de Diagnósticos. 6. A Central processa o resultado do exame, e o encaminha ao Hospital ou Clínica. Este pode se dar por e-mail ou cópia direta do arquivo, através de documentos em PDF. 7. A Central também permite conexões remotas através do uso de notebooks e 3G, pelos profissionais de saúde.

Figura 1: Descritivo de operação do sistema utilizado por MELO et al. (2010), comercialmente.

3. CONCLUSÕES

Tendo em vista as caracteristícas identificadas, o Modelo 1, definido por MELO et al. (2010), obteve resultados mais satisfatórios, destacada pela maior redução de tempo de envio de dados, quando comparado ao padrão, e por ser um daqueles que mais os compactam. Reúne melhores condições para o trafego de dados radiológicos.

4. REFERÊNCIAS

CFM (2009). Resolução 1890/2009, define e normatiza a Telerradiologia. Diário Oficial da União, 19 janeiro de 2009. Conselho Federal de Medicina.

CNES (2011), Cadastro Nacional de Estabelecimentos de Saúde (http://cnes.datasus.gov.br/). Consulta realizada em janeiro de 2011, por Estabelecimentos em Posição geográfica definida. Ministério da Saúde.

DICOM (2011). Strategy Document (http://medical.nema.org/dicom/geninfo/Strategy.pdf). DICOM Standards Committee. National Electrical Manufacturers Association, 1-4.

JUNIOR, A.L.; COPETTI, R. ; WANGENHEIM, A.V. (2011) Um Modelo para Comunicação de Dados DICOM em Redes de Telemedicina de Baixa Velocidade. Laboratório de Telemedicina – Projeto Cyclops. Departamento de Informática e Estatística (INE). Universidade Federal de Santa Catarina (UFSC).

MELO L.S.A.; MELO A.S.A.; MOREIRA, L.B.M.; DALBELLO, J.C.R.; VALE, E.R. (2010). Uma Solução Nacional Rápida e de Baixo Custo para Problemas com Transmissão de Imagens Médicas em DICOM. 41a Jornada Paulista de Radiologia. Painel Digital.

NEMA (2006). Digital Imaging and Communications in Medicine (DICOM). Part 18: Web Access to DICOM Persistent Objects (WADO). DICOM Standards Committee. National Electrical Manufacturers Association, 6.

SBC (2006). Grandes desafios - Computacao no Brasil 2006-2016. Relatório sobre o Seminário realizado em 8 e 9 de maio de 2006. Sociedade Brasileira de Computação (SBC), 7-9.

SOUZA, D.F.M.; BERÇOTT, F.M.; LIMA, L.R.S.; COSTA, A.R.; MIRANDA, G.M. (2011). Integração de Bases de Dados Multimídia Distribuídas através de Prontuário Eletrônico utilizando Serviços de Streaming. Congresso Brasileiro de Informática em Saúde 2006, Sociedade Brasileira de Informática em Saúde.

13

3 33

4

45

6

2

5

7

1

Hospitaise Clínicas

Navios Hospitais

1

Plataformas de Petróleo

16

Mineradoras

66

5

Consultórios

Consultórios

1

3

6Cidades distantes

Page 265: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

265

Visão crítica da remoção ultrassônica aplicada aos efluentes industriais

1Antonio Carlos Moreira da Rocha, 2 Fernando B. Mainier, 3 Carlos Henrique Figueiredo Alves 1Universidade do Estado do Rio de Janeiro (UERJ), Rio de Janeiro, Brasil; 2Escola de Engenharia, Universidade Federal Fluminense (UFF), Niterói, RJ, Brasil; 3Centro Federal de Educação Tecnológica Celso Suckow da Fonseca (CEFET/RJ), Rio de Janeiro, Brasil

[email protected]; [email protected];[email protected]

RESUMO

O objetivo deste trabalho é apresentar a técnica do ultrassom geradora de bolhas de cavitação no desenvolvimento de novas tecnologias para eliminação de contaminantes industriais de difícil remoção pelos métodos convencionais. A preocupação principal deste trabalho é mostrar que o rendimento da aplicação das ondas sônicas depende do tipo de equipamento empregado, bem como das condições programadas. As técnicas atuais ainda estão em níveis de laboratório ou de unidades pilotos, entretanto, essas sondas são de baixo custo e de tecnologia de certa forma conhecida o que leva ao sucesso do empreendimento, desde que seja localizado, no projeto global de tratamento de efluentes. O emprego do ultrassom proporciona a remoção ou a redução de contaminantes de efluentes líquidos, tais como: derivados fenólicos, percloroetileno e tetracloreto de carbono, entre outros, mostrando que esta técnica pode ser desenvolvida para ser utilizada em larga escala nos tratamentos de efluentes industriais

Palavras-Chave: ultrassom, meio ambiente, efluentes industriais, cavitação, contaminações.

1. INTRODUÇÃO

A proteção ambiental aliada a saúde das populações, principalmente, as que habitam as cercanias das unidades industriais, tem sido uma preocupação constante dos atuais projetistas de grandes complexos industriais. Consequentemente aumentou-se o rigor no controle das condições de qualidade do meio ambiente, como fator essencial para a manutenção da vida da espécie, mantendo-se assim o equilíbrio ecológico. No passado muitas vozes que clamavam por melhores condições devida no ambiente fabril foram silenciadas ou sepultadas pela ordem de produzir a qualquer custo.

Em relação aos tratamentos de efluentes, as empresas adotam dois tipos de rotas tecnológicas, quais sejam: o tratamento dos resíduos no final do processo (end-of-pipe) e o desenvolvimento de tecnologias limpas aplicadas (clean tecnology) ao tratamento que se desenvolvem ao longo do processo.

A primeira tecnologia, geralmente convencional e/ou tradicional, engloba a concentração e a disposição controlada de resíduos em áreas específicas, com dispersão de efluentes em menor escala e/ou com transformações de resíduos aceitáveis pelas Agências Ambientais.

As tecnologias limpas se destacam das tecnologias tradicionais podendo ser definida como o conjunto de métodos e técnicas que objetivam a minimização dos resíduos e tem como eixo central a preservação do meio ambiente, conseqüentemente, adotando normas de gestão ambiental. As matérias-primas e as energias necessárias ao processo devem ser otimizadas e integradas ao ciclo produção e consumo, de tal forma, a minimizar o impacto ambiental. Além disso, a filosofia da segregação dos processos químicos propicia um tratamento mais direto e em menor proporção.

Observa-se que os tratamentos de efluentes devem ser realizados na própria fonte geradora da poluição, pois o que se tem observado normalmente é um grande esforço acompanhado de um elevado custo de tratamento, para recuperar o sistema final

Page 266: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

266

contaminado quando na verdade, a maioria das análises mostra que se deve cuidar do efluente contaminante na sua origem e não final do processo (MAINIER, 1999).

Não restam dúvidas que o desenvolvimento de produtos químicos no mundo moderno visando o desenvolvimento de fármacos, produtos de higiene pessoal, aditivos alimentícios, plásticos e defensivos agrícolas, entre outros, trouxeram, direta e indiretamente, uma inumerável quantidade de benefícios a sociedade, entretanto, por outro lado, as emissões desses produtos no meio ambiente vêm criando uma série de preocupações tanto nos mananciais, quanto nos solos e na água servida às populações (MIERZWA & FRANCISCO DE AQUINO, 2009).

Cada vez mais pesquisadores têm dedicado esforços na proteção ambiental, sendo que eles têm procurado novos métodos e inovações tecnológicas aplicados aos tratamentos de resíduos industriais. Observa-se que as pesquisas sobre o uso de ondas sonoras na proteção ambiental por diversos motivos têm recebido destacada atenção. Um elevado número de investigadores tem estudado o efeito de ondas ultrassônicas, baseado no fenômeno da cavitação para a destruição de poluentes químicos e biológicos na água (ADEWUYI, 2001).

Os estudos de eliminação de poluentes químicos por meios de ultrassom envolvem conhecimentos multidisciplinares, principalmente nas áreas de engenharia tais como: fenômenos de transporte, eletricidade, eletrônica, física, química, materiais, etc.

Na área da química em que o ultrassom é a base dos processos de transformação é denominado de Sonoquímica e a sua aplicação na área ambiental se alicerça na alteração nas estruturas químicas envolvidas, denominada de sonólise. Pode-se destacar o uso de ondas ultrassônicas em diversos processos da proteção ambiental. Outra aplicação muito importante do efeito da cavitação resultante pela atuação das ondas ultrassonoras é remoção de contaminações químicas, por exemplo, a oxidação direta de resíduos químicos e pesticidas e em combinação com outras técnicas como ozonólise, a eletrólise e a luz ultravioleta (UV).

Para o desenvolvimento nessa área, observa-se a importância do desenvolvimento na construção de equipamentos cada vez mais eficientes que podem aperfeiçoar a técnica da Sonoquímica nos processos de despoluição de sistemas líquidos (THOMPSON & DORAISWAMY, 1999).

2 TÉCNICA DE ULTRASSOM APLICADA À REMOÇÃO E/OU REDU ÇÃO DOS TEORES DE CONTAMINANTES EM EFLUENTES INDUSTRIAIS

Segundo trabalhos de pesquisa de Mason & Lorimer (2002) e Lickiss (2004) o ultrassom pode ser definido como a emissão de som superior a 16 kHz que não é compreendida pelo ouvido humano. A Figura 1, a seguir, mostra o espectro de ondas sonoras em ciclos por segundo (hertz – Hz), onde alguns exemplos de som são emitidos por mosquitos, gafanhotos e morcegos.

A alta freqüência é utilizada para diagnósticos de aplicações médicas, avaliação de falhas em materiais (metálicos e não metálicos) e até utilizado em sonares submarinos. Nos diagnósticos médicos é utilizada a alta freqüência sônica na faixa de 1 a 10-MHz e baixa potência, pois nessa frequência existe pouca possibilidade de alterações físico-química que não afetem a saúde dos pacientes.

Page 267: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

267

Figura 1– Espectros de ondas sonoras

Fonte: Lickiss (2004), modificado.

No ponto do colapso, ou seja, na fase vapor no interior da microbolha, a temperatura pode atingir até cerca de 5000 °C enquanto a pressã o nestas condições é da ordem de 1000 atmosferas. Na visão de Gong, & Hart (1998), a intensidade e a reatividade das reações químicas associada às ondas sônicas de alta potência são regidas pelos seguintes parâmetros: amplitude e frequência de ultrassom, temperatura, tensão superficial, pressão de vapor, teor de gases em solução e geometria dos transdutores ultrassônicos.

Segundo Garbellini et al. (2008), a literatura relata vários trabalhos de pesquisa direcionados a eliminação de contaminantes em efluentes industriais e indica que existem três regiões que devem ser avaliadas nos processos de tratamento utilizando o sistema de ultrassom. Na primeira fase é o interior das microbolhas de cavitação devido as altas temperaturas e pressões instantâneas que se formam. Nesse caso é possível ocorrer a pirólise dos constituintes e onde é possível também haver a formação hidrogênio atômico (H) e os radicais (OH• , HOO•) que auxiliam a destruição dos contaminantes orgânicos. Na segunda região ocorre o limite onde a temperatura se apresenta mais baixa. Nessa região pode resultar na decomposição térmica do contaminante e a terceira região onde, provavelmente, vão acontecer as reações entre os contaminantes e os radicais formados pelas ondas sônicas de alta potência. Mesmo presentes em pequenas quantidades, poucos ppm, o fenol e seus derivados causam toxidez e desagradável odor à água.

O fenol tem sido listado como o principal poluente na lista da EPA (USA), e a concentração permitida de fenol nos efluentes é inferior a um ppm. A degradação do fenol para baixos níveis não é possível nos tratamentos nos processos biológicos convencionais, denominados de lodo ativado. Derivados também recebem atenção especial como o p-nitrofenol (MISHRA & GOGATE, 2011).

Trabalhos publicados por Mason & Lorimer (2002) mostram a redução do fenol em água utilizando ultrassom de baixa frequência e alta potência conforme apresenta o gráfico, a seguir, na Figura 2.

O gráfico mostra destruição total do fenol ocorre após 100 minutos de exposição e também mostra que, inicialmente, uma pequena quantidade do próprio fenol se transforma em dois produtos intermediários: a hidroquinona e o catecol. Posteriormente, após 190 minutos de processo esses dois intermediários são completamente destruídos. As reações de destruição total do fenol são apresentadas, a seguir, mostrando a formação final de CO2, CO e HCOOH. O ideal desse processo é transformar o fenol (C6H5OH) em CO2 e H2O, entretanto, essa prática só ocorrerá com a associação da adição de ozônio (O3) à redução ultrassônica.

Page 268: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

268

Figura 2 – Gráfico da destruição do fenol por ultrassom

Fonte: Mason & Lorimer (2002), modificado.

Ultimamente tem aumentado o interesse na aplicação de processos avançados de oxidação para a remoção de fenol dos efluentes. Sonicação para degradação de fenol tem se mostrado um processo atrativo, por operar em condições normais de operação e baixo custo. A atuação direta de ondas ultrassônicas tem mostrado em alguns casos baixo rendimento, mais o uso de aditivos como cloreto de sódio, bicarbonato de sódio, tetracloreto de carbono e ozônio aumentam sobremaneira o rendimento do processo. (CHIBA et al, 2010; MAHAMUNI & PANDIT, 2010).

A maior parte dos estudos sobre a degradação de fenol e substituintes fenólicos por sonoquímica indicam que a degradação de fenol é maior quando a frequência é mais alta (> 500 kHz). No entanto, o fenol podia ser degradado em menor frequências (22 kHz) sob radiação mais prolongada a alta intensidade (75 W/cm²). A degradação é geralmente maior, quando realizados sob as ondas ultrassônicas. Diversos produtos, tais como ácido maleico, polihidroxibenzenos, quinonas, cloro-dihidroxibenzenos, e 4-nitrocatecol são identificados como um resultado da substituição e degradação do fenol. (MAHAMUNI & PANDIT, 2010).

3. EQUIPAMENTOS DE LABORATÓRIO UTILIZADOS PARA TRAT AMENTO DE EFLUENTES POR ULTRASSOM

Ainda, com base em Mason & Lorimer (2002), os equipamentos laboratoriais disponíveis no mercado para aplicação no tratamento de efluentes industriais podem ser de dois tipos. O primeiro tipo apresentado na Figura 3 é constituído de um recipiente de aço inoxidável, de tal forma, que os transdutores sônicos são colocados na parte inferior do recipiente. Quando a potência sônica é aplicada nota-se a propagação das ondas sônicas através da água envolvendo a amostra que está no interior do erlenmeyer de vidro. As determinações das transformações da amostra serão obtidas em função do tempo, das características físico-químicas e a possibilidade de associação de outra técnica de destruição de contaminantes químicos como a ozonólise e/ou eletrólise.

Page 269: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

269

Figura 3 – Banho ultrassônico de laboratório.

Fonte: Lickiss (2004), modificado.

O segundo tipo de ultrassom refere-se uma célula de titânio de alta potência que pode ser introduzida diretamente na amostra conforme mostra o esquema apresentado, a seguir, na Figuras 4.

Figura 4 – Célula ultrassônica de laboratório para colocação direta na amostra.

Fonte: Lickiss (2004), modificado.

A sonda ultrassônica possui uma espécie de megafone para amplificar as vibrações do transdutor, considerando que as pastilhas usadas de cerâmicas piezelétricas emitem pequenas variações de ondas sônicas. Para que possam ser usadas diretamente nas amostras, o sistema de ultrassom é encapsulado em um tubo de titânio ou em outras ligas de maior resistência à corrosão. A alta temperatura gerada nessas sondas acarreta a necessidade de uma refrigeração constante.

4. RESULTADOS DOS ENSAIOS

Os resultados dos ensaios laboratoriais realizados com ultrassom utilizando fenóis e organoclorados ainda são incipientes embora, qualitativamente, tenham apresentados resultados promissores de redução de contaminante como os fenóis e alguns produtos organoclorados. Os experimentos estão sendo realizados com equipamentos mostrados na Figura 3. Os diversos tipos de montagem de sondas e banhos estáticos de ultrassom mostram a possibilidade do uso em escala industrial de pequeno porte. Com base na visão crítica este processo pode ser usado para destruir compostos orgânicos indesejáveis proporcionando uma técnica de grande impacto nos tratamentos de efluentes industriais.

Page 270: Anais VII Seminário Fluminense de Engenharia - UFF 2011

VII Seminário Fluminense de Engenharia Niterói-RJ 19 de outubro de 2011

270

5. CONCLUSÕES

Com base na pesquisa bibliográfica e nos resultados ainda incipientes de laboratório pode-se concluir que:

• É fundamental desenvolver técnicas e tecnologias direcionadas a destruir e/ou reduzir os contaminantes tóxicos em efluentes industriais;

• A utilização de ondas ultrassônicas para o tratamento de efluentes líquidos industriais, anteriormente difíceis de tratamento, mostra a possibilidade de encontrar novas técnicas para solucionar este problema;

• Uma vez desenvolvida uma sonda de ultrassom pode-se construir equipamentos, tipo reatores contínuos, podendo ter diferentes valores de frequência dispostos nestes reatores;

• Analisando-se a informações encontradas na literatura especializada, observa-se que a forma de transmissão de alta energia apresenta uma característica muito definida visando a destruição da substância presente no efluente.

6. REFERÊNCIAS

ADEWUYI, Y.C (2001), Sonochemistry: Environmental Science and Engineering Applications, Ind. Eng. Chem. Res. 40, p.4681-4715

CHIBA, M., MERONIANI, S., HAUMDAOUI, O., BAUP, S., GONDREXON, N., PÉTRIER, C., (2010), Modeling of ultrasonic degradation of nonvolatile compounds by Langmuir-type kinetics, Ultrasonics Sonochemistry, Elsevier, v. 17, nº 5, p 773-782.

GARBELLINI, G. S., SALAZAR-BANDA, G, S., AVACA, L. A., (2008), Aplicação do ultra-som em sistemas eletroquímicos: considerações teóricas e experimentais, Química. Nova, Vol. 31, No. 1, p. 123-133.

GONG, F. & HART, D. F. (1998), Ultrasound induced cavitation and sonochemical yields, Journal of the Acoustical Society of America, Vol. 104, p.1-16.

LICKISS, P. D. (2004), Ultra-som em síntese química, In: Neoquímica: a química moderna e suas aplicações, Organizado por Nina Hall, Porto Alegre, Bookman, 392p.

MAHAMUNI, N. N., & PANDIT, A. B. (2010), Effect of additives on ultrasonic degradation of phenol, Ultrasonics Sonochemistry, v 13, p.165-174.

MAINIER, F. B. (1999), Uma visão crítica das rotas industriais de fabricação de produtos químicos utilizados nos tratamentos de água. Anais: 4° Congresso de Equipamento e Automação da Indústria Química - ABQUIM, 4/7 de maio, São Paulo, 9p.

MASON, T. J. & LORIMER, J. P. (2002), Applied Sonochemistry, The uses of power ultrasound in chemistry and processing, Wiley-VCH.

MIERZWA, J. C. & FRANCISCO DE AQUINO, S (2009), Contaminantes orgânicos presentes em microquantidades em mananciais de água para abastecimento público, in: Remoção de microrganismos emergentes e microcontaminantes orgânicos no tratamento de água para consumo humano, PÁDUA, V. L., Rio de Janeiro, ABES, 392p.

MISHRA, K. P. & GOGATE P. R. (2011), Intensification of sonophotocatalytic degradation of p-nitrophenol at pilot scale capacity, Ultrasonics Sonochemistry, 18, p.739-744.

THOMPSON, L. H. & DORAISWAM, L.K. (1999), Sonochemistry: Science and Engineering, Ind. Eng. Chem. Res. 38, p.1215-1249.