46
1 Universidade Católica de Pelotas Centro Politécnico Bacharelado em Ciência da Computação Grandes Desafios da Pesquisa em Computação no Brasil: 2 2 0 0 1 1 1 1 Meio Caminho Andado Tópicos Avançados em Computação Pelotas, julho de 2011

Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

  • Upload
    danganh

  • View
    217

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

1

Universidade Católica de Pelotas

Centro Politécnico

Bacharelado em Ciência da Computação

Grandes Desafios da Pesquisa em

Computação no Brasil:

22001111

Meio Caminho Andado

Tópicos Avançados em Computação

Pelotas, julho de 2011

Page 2: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

2

Sumário

1. Apresentação: Os Grandes Desafios

Luiz Antônio Moro Palazzo

2. Gestão da Informação em grandes volumes de dados multimídia distribuídos

Andressa Garcia Von Laer Fabrício Zogbi Dias

3. Modelagem computacional de sistemas complexos artificiais, naturais e socioculturais e da interação homem-natureza

Alexandre Lemke Diego Porto Jaccottet

4. Impactos para a área da computação da transição do silício para novas tecnologias

Evandro Brasil da Fonseca Vagner Alves dos Santos

5. Acesso participativo e universal do cidadão brasileiro ao conhecimento

Fábio Fischer Marília Garcia Baltar

6. Desenvolvimento tecnológico de qualidade: sistemas disponíveis, corretos, seguros, escaláveis, persistentes e ubíquos

Bruno Andretti Duarte Marcos Guilherme Peglow

7. A Proposta de 2006

8. Meio Caminho Andado

9. Bibliografia

Page 3: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

3

Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

“Não há, no mundo do século 21, nenhuma área de atividade humana que de alguma maneira não esteja em relação com informática e computação. Esta é hoje um dos principais pilares da ciência do conhecimento, sempre em evolução, renovando continuamente seus conceitos e direcionando os avanços da tecnologia em todas as suas dimensões. Atuar nesta área é um privilégio. Nenhuma iniciativa nova ou ideia criativa prescinde atualmente do uso da informática. O cientista e o engenheiro da computação inserem-se na fronteira de todas as ciências: da genética à exploração espacial, da robótica à biotecnologia, da sócio economia à gestão de grandes projetos, da administração pública à pesquisa educacional. Seu trabalho, universalmente reconhecido, Impulsiona e é essencial para o desenvolvimento das nações e do bem estar social no mundo inteiro”.

(Por que estudar Ciência da Computação?, UCPEL, 2011)

Page 4: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

4

Apresentação

Nesta segunda década do século 21, nenhuma área do conhecimento ou atividade humana prescinde mais da informática. A pesca de caranguejos, a colheita de outono,o controle ambiental, o lazer, as comunicações, serviços e utilidades públicas, logística, produtividade na indústria e no campo, saúde, educação, qualidade de vida... do Oiapoque ao Chuí não há contraexemplos. A informática, a ciência e engenharia da computação e a tecnologia em geral proveem os meios e instrumentos mais eficazes da história para o apoio ao desenvolvimento humano, científico, tecnológico e social. Isto não se traduz simplesmente como programas e equipamentos, mas em um processo de evolução cultural, em desenvolvimento acelerado nos últimos anos, que dá um novo sentido ao progresso. Significa por exemplo, entre outras interpretações, que cada vez estamos menos sujeitos às restrições da condição humana. É necessário não somente entender, mas também fazer o melhor uso possível dessa situação e dos avanços tecnológicos que a acompanham para garantir o futuro da terra, da humanidade e de cada indivíduo vivo. Em junho de 2002 a Computer Research Association (USA), com o apoio financeiro da National Science Foundation (NSF), reuniu cerca de 65 pesquisadores da área, do setor público e privado, em um seminário de dois dias com o objetivo de definir os cinco principais desafios da pesquisa em Sistemas de Informação. O relatório resultante da conferência foi publicado pela CRA em 2003, arrolando os cinco maiores (e mais importantes) desafios eleitos entre os participantes. O relatório pode ser obtido no site da CRA - http://www.cra.org/uploads/documents/resources/rissues/gc.systems_.pdf No mesmo ano, a British Computer Society (UK) realizou uma série de discussões na tentativa de contribuir para o avanço a longo prazo da Ciência da Computação, culminando em uma oficina realizada em novembro, em Edimburgo, que recebeu 109 submissões. Nesta oportunidade foram formulados oito Grandes Desafios aos pesquisadores, cuja descrição pode ser encontrada no site de UKCRC - www.ukcrc.org.uk/grand-challenge/index.cfm. Essas iniciativas pioneiras inspiraram, possivelmente, a Sociedade Brasileira de Computação (SBC) a realisar entre 8 e 9 de maio de 2006, em São Paulo, um evento reunindo vinte pesquisadores brasileiros que determinaram os cinco Grandes Desafios da Pesquisa em Computação para os dez anos seguintes, isto é, até 2016. O relatório do encontro está em http://www.sbc.org.br/index.php?option=com_jdownloads&Itemid=195&task=viewcategory&catid=50. Desde então o tema dos Grandes Desafios é recorrente. Em diversos Congressos Nacionais da SBC, nos anos que sucederam, o assunto foi focalizado e debatido. Neste ano de 2011, em que o meio do caminho é alcançado parece interessante a realização de alguma análise, despretensiosa e informal, sobre os rumos que a ciência e tecnologia da computação efetivamente tomou e se há distorções com relação à perspectiva inicial.

Page 5: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

5

Com essa finalidade foi organizado o estudo aqui relatado, desenvolvido ao longo do primeiro semestre de 2011 no âmbito da disciplina Tópicos Avançados em Computação, ministrada no Bacharelado em Ciência da Computação da UCPEL.

Page 6: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

6

Gestão da Informação em Grandes Volumes de Dados Multimídia Distribuídos Andressa Garcia Von Laer Fabrício Zogbi Dias

“Quase tudo que vemos, lemos, ouvimos, escrevemos, medimos é coletado e disponibilizado em sistemas de informação computacionais. Para obter efetividade e eficiência, é fundamental criar soluções escaláveis que possam responder às necessidades de desenvolvimento de aplicações com esses dados. O objetivo deste desafio é, assim, desenvolver soluções para o tratamento, a recuperação e a disseminação de informação relevante, de natureza tanto narrativa quanto descritiva, a partir de volumes exponencialmente crescentes de dados multimídia”.

(SBC, Grandes Desafios, 2006)

Page 7: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

7

Gestão da Informação em Grandes Volumes de Dados Multimídia Distribuídos

Andressa Garcia Von Laer Fabrício Zogbi Dias

1. Introdução Qual o significado do desafio e qual o impacto originalmente esperado na ciência, tecnologia e sociedade? Responder aqui o que é Gestão da Informação: Como a informação de apresenta? Como ela pode ser capturada, integrada, organizada dinamicamente e apresentada para as finalidades específicas a que se destina? Chegamos na nuvem, claro. Então, quais os desafios da nuvem neste sentido? Hoje em dia com a proliferação cada vez maior de novos dispositivos tecnológicos, cada vez mais aumenta o número de dados multimídia gerados, este desafio é importantíssimo pois há a necessidade de gerenciar esse turbilhão de dados de uma maneira organizada onde ainda assim se possa obter informações.

O impacto originalmente esperado é de uma mudança de paradigmas sociais. A disseminação e mobilidade da informação revolucionam a vida em sociedade de formas inesperadas e surpreendentes.

2. Tópicos Relacionados ao Desafio Os tópicos abaixo foram identificados em 2006 como relacionados a este desafio. Ainda são os mesmos? Ou mudaram? Que novos aspectos podem/devem ser considerados nesta área? Detalhar cada um deles em subseções. Usar figuras e tabelas para ilustração.--> Séries históricas de produção e uso das novas tecnologias

Redução (abstração e sumarização) das massas de dados por meio de modelagem computacional, simulações e outros;

Atualmente com a abstração das massa de dados por meio de utilização de técnicas que distribuem dentre vários locais o armazenamento, permitindo que o processamento seja realizado separadamente permitindo que exista redundância aliada a alta disponibilidade dos dados não importa onde a unidade esta geolocalizada em relação ao usuário.

Definição e uso da noção de contexto para a recuperação de informação, considerando fatores como localização do usuário, perfil de interesses, objetivos dentre outros;

A virtualização das operações em grandes corporações ganha cada vez mais espaço, a Computação em Nuvem surge com o objetivo de solucionar esta questão, onde o usuário aumenta ou diminui sua estrutura de acordo com sua demanda. Para o público em geral algumas aplicações que poderiam ser apontadas como primeiros experimentos da nuvem para todos já existem a algum tempo, Google Docs por exemplo permite armazenar todos os documentos de textos, planilhas e apresentações na nuvem, não precisando mais carregá-los fisicamente para todos os lados. O mesmo ocorre no Sky Drive, onde qualquer pessoa que tenha uma conta do Windows Live dispõe de um drive virtual de 25GB para guardar qualquer arquivo que quiser e acessá-lo de qualquer lugar gratuitamente

Projeto e implementação de descritores de conteúdo multimodal e algoritmos para extração e indexação desses descritores, permitindo buscas multimodais;

Utilização de estruturas de indexação dinâmicas e distribuídas do tipo peer-to-peer;

Page 8: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

8

Estudos em modelos e mecanismos de conciliação e integração de dados altamente heterogêneos;

Consideração, no armazenamento e recuperação, de fatores inerentes à heterogeneidade na aquisição de dados tais como fatores temporais e culturais, mas também tecnológicos, como sensores, celulares, PDAs (i.e., personal digital assistam), dentre outros;

Estudo de formas alternativas de disponibilização da informação, incluindo pesquisa em novos tipos de interfaces;

Tratamento da confiabilidade e validade dos dados e da propriedade intelectual;

ã es, sendo que nos últimos

anos sua importância estratégica teve um maior reconhecimento. Neste cenário, onde a informação e

um recurso, sua estrutura deve ser capaz de garantir sua disponibilidade no momento, na forma, na

quantidade e na qualidade desejável para os usuários.

As dimensões da qualidade da informação são representadas pelas seguintes características:

o Intrínseca: correção, objetividade, reputação e veracidade. o Contextual: valor acrescentado, relevância, disponibilidade, completude e volume

apropriado. o Interpretabilidade: compreensão, consistência e concisão. o Representacional: características de navegação, suporte ao usuário e utilização de

tecnologias apropriadas o Acessibilidade: acessibilidade e segurança.

Com a velocidade em que a informação circula na internet e através dos mais diversos canais, e levando em consideração que em vários momentos é necessário consultar essas informações, tornou-se essencial a criação de métodos e ferramentas para a análise de sua qualidade.

Na medida em que a internet vai expandindo a grande quantidade de informação o momento, cresce também a preocupação com a qualidade das informações disponibilizadas. Já existem órgãos do governo, tradicionais bibliotecas e algumas organizações privadas que estão trabalhando com o objetivo de determinar e realizar a aplicação de critérios para a avaliação dos conteúdos disponíveis.

Uma ferramenta disponível na Internet, denominada ”I D v ”, faz a classificação dos critérios que devem ser utilizados para a avaliação da qualidade da informação contida em qualquer web site, segundo três possíveis dimensões:

o Conteúdo: validade, precisão, autoridade e reputação da fonte, singularidade, completude e cobertura

o Forma: características de navegação, suporte ao usuário e utilização de tecnologias apropriadas

o Processo: integridade da informação do site e do sistema

Na tentativa de melhor ar essa realidade, algumas instituições vem realizando estudos e pesquisas para atribuir critérios de avaliação, para assim tornar as informações, oriundas da Internet, mais confiáveis. A ideia central dos critérios ou filtros para avaliação baseia-se em listas que contenham categorias e subcategorias dos problemas relacionados com a qualidade da informação na Internet.

Formulação de modelos conceituais para especificar domínios ou gêneros envolvidos em aplicações de entretenimento digital, desenvolvimento de métodos e implementação de sistemas de manipulação de enredos de narrativas e seu uso experimental em aplicações diversas;

Estudo de infraestruturas adaptáveis e inteligentes para o processamento distribuído de informações;

Estudo de técnicas e métodos que garantam a persistência de dados e informações por longos períodos de tempo, para fins de arquivamento histórico;

Page 9: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

9

Desenvolvimento de modelos, estruturas e algoritmos para construção de grandes bibliotecas digitais distribuídas, para gerenciamento da informação multimídia.

3. O Panorama em 2006

Como era o estado da arte em 2006. O que havia em nível de concepção, pesquisa, tecnologias sendo introduzidas e tecnologias já disseminadas.

4. Progressos até 2011 Como o cenário descrito no item 3 avançou até 2011. O que se tornou obsoleto? Que novas pesquisas e tecnologias surgiram com impacto nesta área? Como está o Brasil em relação ao resto do mundo?

5. Perspectivas para 2016 Quais os novos horizontes para 2016? Que novas tecnologias deverão estar disseminadas nessa época? O que é preciso para melhor a posição brasileira neste desafio?

6. Considerações Finais O que o artigo mostra? Que ideias são importantes e precisam ser consideradas aqui?

Referências

Abaixo as referências encontradas até agora pelos autores:

Prof. Dr. Marcelo Duduchi. Mercado de Trabalho - Pesquisa Científica em Computação. São Paulo , 2009 . Disponível em: http://www.metodista.br/focat/ciclo-de-eventos/arquivos-2/mercado-de-trabalho.pdf . Acesso em: 1 maio 2011.

Alencar, A. L.; Santos, J. L. C.. Protocolos e Métodos para Tratamento Automático de Dados Micro meteorológicos. Universidade Federal do Pará (UFPA), Instituto de Pesquisas da Amazônia (INPA). 2009 Disponível em: HTTP://bibliotecadigital.sbc.org.br/download.php?paper=1449 >Acesso em: 1 maio 2011.

Gaioso, R. A.. Integrate: Infra-Estrutura para Integração de Fontes de Dados Heterogêneas – Dissertação de Mestrado, Universidade Federal de Goiás – 3 de dezembro de 2007.Disponível em: http://www.inf.ufg.br/this2/uploads/files/1/ds_Rogerio.pdf. Acesso em: 1 maio 2011.

Prof. Osvaldo Alves dos Santos. Organização de Arquivos Indexados. Universidade Estadual de Maringá – UEM. 2007. Disponível em: http://www.din.uem.br/~yandre/AEDEP/organizacao-indexado.pdf Acesso em: 1 maio 2011.

Yamamoto, C. H.; Biajiz, M.; Caetano Traina Jr.. Aumento da Eficiência das Estruturas de Indexação Métricas com Uso de Conceitos da Lógica Nebulosa. Universidade Federal de Goiás (UFG). 2010. Disponível em: http://homepages.dcc.ufmg.br/~laender/download/sbbd03/paper92.pdf Acesso em: 1 maio 2011.

CHIRIGATI, Fernando Seabra. Computação em Nuvem. Rio de Janeiro, RJ. 2009. Disponível em: http://www.gta.ufrj.br/ensino/eel879/trabalhos_vf_2009_2/seabra/

Filho, J. L; Oliveira, A. P.; Silva, O. C.. Ontologia e Sistemas de Informação Geográfica. Universidade Federal de Viçosa – Departamento de Informática. 2009 Disponível em: http://ontobra.comp.ime.eb.br/artigos/Gr4.pdf

Corrêa, S.; Cerqueira, R. Computação Autônoma: Conceitos, Infra-estruturas e Soluções em Sistemas Distribuídos. Departamento de Informática – PUC-Rio. 2009. Disponível em: http://www.eventoexpress.com.br/cdsbrc/pdfs/minicurso4.pdf

Page 10: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

10

VIDOTTI, Silvana Aparecida Borsetti Gregorio; SILVA, Marcel Santos. Biblioteca digital geográfica distribuída: uma arquitetura para desenvolvimento. Informação & Informação, v. 12, p. 1-18, 2007. Disponível em: http://www.uel.br/revistas/uel/index.php/informacao/article/view/1768/1508

Marcos José de Menezes Cardoso Junior. Clio-i: Interoperabilidade entre repositórios digitais utilizando o protocolo OAI-PM. Universidade Federal de Pernambuco. Dissertação de Mestrado. 2007. Disponível em: http://www.cin.ufpe.br/~rbcp/dissertacoes/dissertacaoCARDOSO.pdf

GALINDO, Marcos. Tecnologia & memória. Rev. Inst. Estud. Bras., São Paulo, n. 50, mar. 2010. Disponível em: http://www.revistasusp.sibi.usp.br/scielo.php?script=sci_arttext&pid=S0020-38742010000100009&lng=pt&nrm=iso . Acesso em 6 maio de 2011.

VIGNATTI, T. Arquivamento Digital a Longo Prazo Baseado em Seleção de Repositórios em Redes Peer-to-Peer. Universidade Federal do Paraná. 2009.Disponível em: http://dspace.c3sl.ufpr.br/dspace/bitstream/1884/17956/1/VIGNATI,%20TIAGO.pdf . Acesso em 6 maio 2011.

http://msdn.microsoft.com/pt-br/magazine/ee291586.aspx

Page 11: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

11

Modelagem Computacional de Sistemas Complexos Artificiais, Naturais, Sócio Culturais e da Interação Homem-Natureza Alexandre Lemke Diego Porto Jaccottet

“O termo Computational Science, criado para contrastar com Computer Science, vem sendo usado em todo o mundo para designar modelos, algoritmos e ferramentas computacionais para solução de sistemas complexos de diferentes naturezas. Isto permite, por exemplo, estudos de desempenho de grandes sistemas computacionais, sem a necessidade de implementá-los (por exemplo, simulando o comportamento de redes de computadores com milhões de nós). Além disso, possibilita que cientistas em outros domínios do conhecimento possam investigar problemas que até recentemente não poderiam ser tratados – pelo excesso de dados manipulados, pela ausência de soluções analíticas, ou pela inviabilidade de estudá-los em laboratórios”.

(SBC, Grandes Desafios, 2006)

Page 12: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

12

Modelagem Computacional de Sistemas Complexos Artificiais, Naturais, Sócio Culturais e da Interação Homem-Natureza Alexandre Lemke Diego Porto Jaccottet

1. Introdução Qual o significado do desafio e qual o impacto originalmente esperado na ciência, tecnologia e sociedade? O texto está extenso e precisa ser mais objetivo. A complexidade deste tipo de pesquisa aumenta à medida que crescem o volume de dados e/ou os parâmetros a serem considerados. Outro fator complicador é a necessidade frequente de combinar vários í . U x í , *1+, é . “O b biológica e ambiental de doenças respiratórias requer um esforço multidisciplinar complexo de modelagem, que combina dados de Ciências Sociais e de Saúde Pública a experimentos com modelos de dinâmica dos fluidos aplicados ao fluxo de ar e substâncias inalantes (fumaça, alergênicos). Requer, ainda, modelos das propriedades de materiais, modelos biofísicos de movimentos de cilia para ejetar corpos estranhos e modelos b ó b é .”

Exemplos são estudos de genômica, de processos bioquímicos, da física de partículas, de mudanças climáticas, de fenômenos epidemiológicos ou de interações sociais com milhões de participantes (por exemplo, em comunidades digitais ou na Web). Modelagem e simulação computacionais permitem também redução de custos e avanços no setor industrial, executando experimentos virtuais em substituição à construção de uma infraestrutura física. A modelagem matemática de fenômenos se baseia em princípios básicos (por exemplo, da física, da química, da estatística ou da matemática), em que a resolução das equações é o principal complicador. Já a modelagem computacional envolve um grande conjunto de algoritmos e técnicas de simulação, manipulação de dados, mineração de dados, dentre outros, em que o modelo é um dos produtos da própria pesquisa, sendo interpretado como um processo computacional que filtra, transforma, aglutina e gera dados. Isto envolve freqüentemente cooperação entre cientistas da Computação e de outros domínios. Normalmente, na modelagem computacional há incertezas sobre o próprio modelo, pois esses envolvem um grande número de parâmetros que devem ser explorados e ajustados.

Já outro exemplo, na área de estudos globais do meio ambiente, mostra a necessidade de integrar diferentes modelos – mudanças climáticas, sistemas humanos e naturais, desenvolvimento sócio-econômico e emissões de concentração de gases e poluentes.

Esta área tem atraído atenção crescente, por causa dos benefícios econômicos e sociais a ela associados. Vários fatores vêm contribuindo para avanços neste tipo de pesquisa. Um deles é a crescente disponibilidade de dados coletados sobre fenômenos naturais ou artificiais, graças à disseminação do uso de sensores, cujas redes envolvem um sem-número de desafios de pesquisa. Outro fator é a evolução no hardware e em sistemas de software, que estão permitindo cálculos de grande complexidade, graças à adoção de processamento paralelo e grades computacionais – o que se costuma classificar como computação em larga escala. Avanços científicos em outras áreas do conhecimento, desde as ciências exatas e engenharias até as ciências humanas e sociais, vêm igualmente permitindo refinamento nos modelos e algoritmos. Se todos estes fatores impulsionam a pesquisa em modelagem computacional de sistemas complexos, também trazem problemas para o seu desenvolvimento, pelo volume de dados gerados e pela complexidade crescente do processamento demandado. Sistemas de busca na Web, como o Google, demandam algumas centenas de milhares de computadores trabalhando simultaneamente para conseguir responder a todas as consultas em um tempo aceitável, gerando assim demanda de pesquisa em simulação do desempenho de redes. Estudos

Page 13: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

13

sobre o funcionamento das células do corpo humano prevêem uma possibilidade de 1018

doenças distintas. Todos esses exemplos exigem pesquisa de ponta em arquiteturas avançadas de alto poder computacional. Desta forma, ao mesmo tempo que a Computational Science permite estudos antes impossíveis em vários domínios, os avanços destes últimos geram desafios de pesquisa em Computação.

2. Tópicos Relacionados ao Desafio Os tópicos abaixo foram identificados em 2006 como relacionados a este desafio. Ainda são os mesmos? Ou mudaram? Que novos aspectos podem/devem ser considerados nesta área? Detalhar cada um deles em subseções. Usar figuras e tabelas para ilustração.

Seria interessante ilustrar cada um dos tópicos com figuras, tabelas, series históricas. Usar imagens de bom padrão e cores claras. O texto não pode ficar "invisivel" nas figuras.

Processamento em tempo real de altíssimas taxas de fluxos de dados provindos de milhares de sensores – por exemplo, em estudos de catástrofes naturais (por exemplo, enchentes) ou sistemas de evacuação urbanos em face de desastres artificiais (por exemplo, acidentes nucleares). Isto exige pesquisa em, por exemplo, distribuição do processamento, novas arquiteturas de bancos de dados, suporte de rede para comportar este fluxo;

Criação de novos tipos de métodos de extração de requisitos, algoritmos e mecanismos de coleta e processamento de dados que capturem variáveis relativas a interações sociais e socioculturais;

O Brasil está repleto de cenários marcados pela diversidade cultural e também por problemas de inclusão social e digital. Micro sistemas socioculturais online representados pelas redes sociais na Web podem ter um papel dominante na influencia da adoção e uso das tecnologias de informação e comunicação. Eles podem significar uma oportunidade para a inclusão sóciodigital através de redes sociais inclusivas (RSI) promovendo o acesso ao conhecimento. Este acesso quase necessariamente passa pela busca de informação no sistema.

Nos últimos anos, com o avanço da tecnologia Web, surgiu uma categoria de software denominada „S w S ‟ (Social Software). Este software introduziu novas oportunidades de interação e troca originando grandes volumes de dados e informação de usuários. Isto possibilitou o surgimento de micro sistemas sócio-culturais online. Entende-se que sistemas sócio-culturais emergem de complexas interações e relações entre atores sociais que compartilham e desenvolvem uma cultura comum, e os micro sistemas são parte deste todo. Estas interações e relações sociais são mediadas também por software social como as Redes Sociais na Web.

A maior parte da informação disponível na Web e também nas SNS está em formatos que não podem ser interpretados por máquinas, como textos pouco estruturados ou livres. As dificuldades enfrentadas pelos usuários para obter informação no ambiente Web, especialmente aqueles em processo de alfabetização digital, podem ser explicadas principalmente pela sobrecarga de informação apresentada nos sistemas, e também por problemas relacionados com a contextualização do significado dos termos utilizados na busca e no conteúdo. Conclusão Nos dias atuais o mundo contemporâneo é caracterizado por diversos problemas sociais e ambientais. Soluções tecnológicas que cooperem na minimização destes incluem o acesso e uso de maneira facilitada à informação contida na mídia digital, podendo ser uma oportunidade de inclusão sócio-digital e de formação da consciência ambiental das pessoas. Para isso necessitamos desenvolver aplicações que não introduzam barreiras para o acesso, que contribuam para a formação de uma cultura digital respeitando a diversidade. As Redes Sociais Inclusivas na Web (RSI) têm sido desenvolvidas com este foco e configuram-se como micro sistemas sócio-culturais complexos (Desafio 2 da SBC).

Definição de estruturas de armazenamento para registrar os modelos computacionais e os fatores associados à sua sintonia e execução em um ambiente paralelo e distribuído;

Page 14: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

14

O uso de agregados (clusters) de computadores [Navaux and DeRose 2003], amplamente utilizados na computação , v b fi ã v á interconexões, ao mesmo tempo em que a utilização de chips multi-core como nós nesses agregados criam um ambiente paralelo multi-nível. Com tantos núcleos de processamento operando de maneira concorrente e considerando o movimento mundial rumo a um desenvolvimento tecnológico sustentável, torna-se imperativo desenvolver sistemas paralelos que, além de prover alto desempenho, endereçando fi SBC, am fazê-lo com um baixo consumo de energia elétrica, contribuindo, assim, para o melhor aproveitamento dos recursos naturais do planeta.

O trabalho que foi desenvolvido no grupo [Alves 2009], teve como objetivo avaliar diferentes compartilhamentos de memória cache, modelando e aplicando cargas de trabalho sobre as diferentes , fi b fi v b fl ê compartilhamento da memória cache em processadores multi- . ó fi b fatores para decisão de escolha por determinada carga de trabalho, foi escolhido o conjunto de aplicações paralelas NAS-NPB para ser utilizada como carga de trabalho real entre os diversos experimentos. Uma vez que esse benchmark apresenta diversas aplicações relacionadas a métodos é â ã ífi o desempenho de computadores paralelos. Esses aplicativos são formados por kernels e problemas de ã â fl í computacionais (CFD - Computational Fluid Dynamics) derivados de importantes aplicações das classes aerofísicas, de maneira que as simulações de CFD reproduzem grande parte dos movimentos de dados e computação encontrada em códigos CFD completos [Jin et al. 1999].

O benchmark utilizado neste estudo foi a versão NPB-OpenMP 3.3 que possui as seguintes aplicações: BT (Block Tridiagonal), CG (Conjugate Gradient), MG (Multigrid), EP (Embarassingly Parallel), SP (Scalar Pentadiagonal), LU (Lower and Upper triangular system), IS (Integer Sort), FT (Fast Fourier Transform), UA (Unstructured Adaptive) e DC (Data Cube). Todas as aplicações executam operações de ponto-fl de precisão dupla (64 bits), foram implementados em linguagem Fortran ou C e paralelizado utilizando OpenMP.

Figura xx. Experimento base para o estudo sobre o compartilhamento de memórias cache L2.

Desenvolvimento de ferramentas para a construção colaborativa de modelos, apoio à sua execução e modificação adaptativa em tempo real, para que tal execução leve em conta mudanças ocorridas no mundo real enquanto o modelo é executado;

Page 15: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

15

Criação de novos algoritmos e técnicas em visualização científica, para permitir capturar de forma visual a complexidade dos objetos modelados e de suas interações – por exemplo, ajudando a entender a dinâmica de um tornado ou a evolução da erosão causada pela ocupação humana inadequada em uma região;

SiVIEP

De uma forma geral o SiVIEP é um sistema que propõe a visualização de objetos 3D de modelos geológicos e de engenharia da Petrobras como, por exemplo, modelos de simulação, poços, arranjo submarino e instalações em plataformas, sob diferentes escalas e diferentes níveis de detalhe (Figura 1). Além de proporcionar a interação do usuário com os objetos 3D de tais modelos, o sistema realiza a integração de tais modelos.

Figura xx - Instalação dos Poços

A Petrobras, até o desenvolvimento do SiVIEP, ainda não possuía uma ferramenta de visualização integrada estendida a todos esses modelos que a mesma possui. Também não possuía uma biblioteca de visualização padrão, onde a empresa possa compartilhar a mesma com os seus parceiros de desenvolvimento. O que existe são diversas aplicações independentes em uso atualmente cada uma localizada em diferentes etapas do processo de trabalho. O SiVIEP atende a necessidade da empresa de integrar tais etapas, o que permite uma visão gerencial integrada dos modelos pertencentes a estas etapas. Esta necessidade é atendida pelo sistema juntamente com recursos de realidade virtual.

Pesquisa sobre o impacto, em engenharia de software, resultante da necessidade da colaboração entre cientistas da Computação e cientistas dos demais domínios;

Page 16: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

16

Tratamento dos problemas de aumento na dimensionalidade (número crescente de variáveis em um problema) e escalabilidade, que contribuem para tempos de processamento exponencial;

Utilização de processamento paralelo envolvendo recursos heterogêneos como nas grades (grids) computacionais;

Introdução Os altos custos que envolvem a aquisição de supercomputadores dedicados e a constante melhoria nos projetos de computadores pessoais e na estrutura das redes locais levaram a idéia de se utilizar computadores pessoais independentes interconectados em rede como plataforma para executar aplicações paralelas e distribuídas. Todo o dia uma grande quantidade de usuários estão insaciáveis por utilizar uma rede mundial de computadores, constituída por diversos dispositivos heterogêneos tanto ao nível de arquitetura quanto ao nível de sistemas, de maneira a utilizar e compartilhar esses recursos computacionais de uma forma transparente e eficiente.

Governos, empresas e organizações de pesquisa estão trabalhando em associação para criar redes de supercomputação, e que disponibilizarão estes recursos computacionais agregados de um grupo para qualquer computador conectado. As empresas e universidades que investiram nos últimos anos em clusters de alta performance de computação, estão dando o próximo passo para a futura computação em grades computacionais (grid computing), e os pesquisadores estão trabalhando para criar uma interface padronizada de Web para que diversas pessoas em várias áreas distintas possam utilizar a supercomputação em grade como um serviço público tradicional, semelhantes aos sistemas elétricos e/ou água/esgoto, sem se preocupar em como os recursos estarão disponibilizados para o mesmo.

John MacCarthy do MIT em 1961 já previa o que hoje temos como gr . “S que eu imagino, se tornarem os computadores do futuro, então a computação poderá algum dia ser organizada como um serviço público, assim como a telefonia o é... Esse serviço poderá se tornar a base v ú ”

Figura 1:A evolução da computação de alto desempenho.

A Internet é formada por sistemas totalmente heterogêneos, fracamente acoplados e geograficamente distribuído. Pense na quantidade de máquinas que estão ociosas nesse momento. Os sistemas em cluster são caracterizados em uma interligação física localizada, construídos para resolver os problemas de uma forma mais rápida possível por meio de aplicações paralelas e distribuídas. E isso já foram explicados em artigos posteriores.

Já começam a ser consideradas que algumas aplicações já não podem ser mais resolvidas dentro de um ambiente de cluster e podem necessitar o uso de recursos em localidades remotas. O uso dos ciclos fracamente acoplado de computadores dispersos em uma Wan pode representar um ambiente muito interessante para processamento de alto desempenho. Com isso um usuário acessaria via estação de trabalho uma aplicação dentre um conjunto de aplicações disponíveis e submeter suas tarefas para serem executados nesse ambiente. Seria de responsabilidade do próprio sistema cuidar de questões como sincronização de tarefas, disponibilidade de recursos (processadores, armazenamento, compartilhamento de dados), transferências de informações, protocolos de comunicação, troca de mensagens e segurança, fossem resolvidos de forma transparente ao usuário. O sistema seria visto pelo usuário como um supercomputador virtual, capaz de executar inclusive tarefas concorrentemente. Esses recursos poderiam ser utilizados para prover muito mais do que simples serviços de comunicação, e-mail eletrônico ou transferência de arquivos; eles teriam o potencial de fornecer um ambiente computacional simples no qual ciclos de processamento, comunicação e até mesmos dados seriam

Page 17: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

17

compartilhados através de estações de trabalhos espalhados em prédios, estados e até mesmo entre continentes.

Uma experiência de integração de processamento distribuído é o projeto SETI@home (http://setiathome.ssl.berkeley.edu/), uma continuação do projeto da NASA de busca de inteligência extraterrestre. Usando um software que pode ser baixado pela Internet, um microcomputador pode analisar sinais do rádio telescópio de Arecibo. Atualmente, existem 4 milhões de assinantes em 224 países, criando um computador virtual com uma performance de 20 Tflops.

Um outro exemplo são as famosas redes peer-to-peer, como Emule (Edonkey), Kazaa, Gnutella, em que se compartilham arquivos por exemplo, mas sem nenhum controle de acesso e não interoperam entre si. Com a evolução dessas aplicações elas acabaram por inter-operar e haverá uma convergência de interesses entre computação ponto a ponto, Internet e computação em Grade.

A Computação em Grade é próxima geração da Internet – são protocolos adicionais construídos sobre a tecnologia da Internet. Qualquer recurso que esteja na Grade, também está na Rede.

Grid Computing

O Grid Computing é um novo conceito que explora as potencialidades das redes de computadores, com o objetivo específico de disponibilizar camadas virtuais que permitem a um usuário ter acesso a aplicações altamente exigentes, bem como aderir a comunidades virtuais de grande escala, com uma grande diversidade de recursos de computação e de repositórios de informações.

A diferença existente entre a computação distribuída e computação em grade de dá pelo fato de que a computação distribuída é um conceito que vem dos anos 80 e 90, e consiste na possibilidade de resolver um determinado problema computacional através da utilização de diferentes recursos distribuídos . ã b í “C ã G ” que existe uma infra-estrutura física e uma infra-estrutura lógica (software) que permita coordenar os trabalhos que vão ser processados e garantir a sua qualidade de serviço.

O Grid é um caso particular da computação distribuída, uma vez que os Grids são orientados essencialmente para aplicações que precisam de uma grande capacidade de cálculos, ou enormes quantidades de dados transmitidos de um lado para o outro, ou as duas.

O nome Grid foi idealizado baseado nas malhas de interligação dos sistemas de energia elétrica (power-grids), em que um usuário utiliza a eletricidade sem ao menos saber em que local ele foi gerada, sendo totalmente transparente aos seus usuários.

Figura 2:Visão de um Grid Computacional TeraGrid.

O surgimento das Grids Computacionais nasceu da comunidade de Processamento de Alto Desempenho (PAD). O conceito foi apresentado pelos pesquisadores Ian Foster e Carl Kesselman, sendo composto por uma infra-estrutura de hardware e software que permite-nos acesso a grandes capacidades computacionais geograficamente distribuídas, de forma confiável, consistente, econômica e persistente. Na verdade o conceito é antigo, mas com uma nova dinâmica, em que se pode utilizar a capacidade de computação (ex. Storage/CPU) sem ter que se preocupar de onde vem, como é mantida, fazendo uma metáfora às redes elétricas.

Chamamos de Organização Virtual (VO) quando temos participantes que desejam compartilhar recursos para poder concluir uma tarefa. Além disso, o compartilhamento esta além de apenas troca de documentos, isto pode envolver acesso direto a software remoto, computadores, dados, sensores e outros recursos.

I F G á : “C coordenados e resolução de problemas em organizações virtuais multi- â ” “G C ã à execução de aplicações paralelas que acoplam recursos heterogêneos distribuídos, oferecendo acesso consistente e barato aos recursos, independente de sua

Page 18: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

18

posição física. A tecnologia de Grids Computing possibilita agregar recursos computacionais variados e dispersos em um único ́ supercomputador virtual´, acelerando a execução de várias aplicações paralelas. Grids se tornaram possíveis nos últimos anos, devido a grande melhoria em desempenho e redução de custo, tanto de redes de computadores quanto de micr ”.

A computação em grade está gerando especulações não somente na área científica, mas também na empresarial (IBM, HP/Compaq, Oracle, Sun e Fujitsu), pois irá permitir a redução de custos e tempo, aumento de produtividade, compartilhamento de recursos e informações, dentre outras possibilidades. Com sua expansão, pode-se chegar, no final, em algo como a formação de um Grid Global, uma rede distribuída global de colaborações entre seus participantes, capaz de prover recursos talvez inatingíveis por um cluster isolado. E isto já está sendo feito em diversos países do mundo, inclusive no Brasil.

Grids são construídos como um grupamento de serviços básicos independentes. Um aspecto essencial dos serviços de Grid é que esses estão disponíveis uniformemente através dos ambientes distribuídos na Grid. Os serviços são agrupados em um sistema integrado, também chamado de middleware. Exemplos de ferramentas atuais de Grid incluem Globus, Legion, OpenGrid, AppLeS.

Figura 3: Diversos Centros de Supercomputação interligados, formando um cluster de clusters (Projeto TeraGrid).

O Grid permite também o uso de técnicas de programação paralela por passagem de mensagens. O b MPI (“M P I ”) á ív G vé v ã MPICH-G2 (versão portátil do MPI para o Globus). O padrão MPI define uma biblioteca de rotinas que ã , ã “ ” é transferência de dados entre dois programas concorrentes e a operaçã “ v ” é b dados do sistema no espaço de memória da aplicação; existem ainda operações coletivas envolvendo múltiplos processos. Mas que devido a alta latência provocada na comunicação entre processos, as aplicações devem ser construídas com uma granularidade bem projetada de tal forma que se comuniquem o mínimo possível. Então, as aplicações mais adequadas ao Grid são as que possuem tarefas independentes (bag of tasks), pois as tarefas não dependem da execução de outras e podem ser executadas em qualquer ordem.

O Grid Computing é um desafio bem maior do que formas mais simples de computação paralela e distribuída. Hoje, a maioria dos projetos de Grid permanecem localizados nos centros de supercomputação e laboratórios universitários. Os centros de pesquisa são ligados a conexões em rede cerca de 20 vezes mais rápidas do que as conexões de banda largas normais, são equipadas com sistemas de armazenamento capazes de lidar com vastos arquivos de dados e com computadores de alta performance. O Grid Computing é um conceito sobre o qual existe ainda uma grande expectativa e que poderá evoluir em diferentes direções, mas que é já hoje entendido como a próxima geração da Web para a comunidade científica.

Internet x Grid x Cluster

A internet nasceu no início da década de 70, e somente a partir de 1995, com o aparecimento dos serviços www, foi que se tornou tão popular, saindo dos meios militares e acadêmicos. Seu objetivo era a interligação de diferentes ambientes computacionais e geograficamente dispersos. Os web sites desenvolvidos pela indústria sempre foram interoperáveis em relação usuário-site, por meio de aplicações criadas neste contexto, em que o usuário dispõe de um menu de serviços fechados. O que ocorre em um ambiente de Grid é o inverso, onde o usuário tem de submeter suas aplicações para serem resolvidas dentro do ambiente por ele montado.

Um ambiente de cluster constitui em um sistema formado por hardware e software conectados em um local apenas, servindo a usuários que estão trabalho somente em um projeto, usado exclusivamente para resolver os problemas computacionais de uma determinada organização. Por outro lado, um Grid presta serviços de uma forma geograficamente distribuída. Em um cluster, os recursos são gerenciados por uma entidade central, e os computadores agem como se fosse um único dispositivo. Nas

Page 19: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

19

G , “ ã v ” ã visão de uma imagem única do sistema. Ou seja, o usuário tem consciência dos diversos serviços disponíveis e que deverá requisitá-los para sua utilização. Portanto, os Grids são mais heterogêneos, complexos e distribuídos.

Para o Grid Computing, as aplicações leves são as ideais pois estas requisitam relativamente menos das redes. Mesmo tendo máquinas com uma alta conexão, estas redes com baixo fluxo de dados constitui uma espécie de gargalo ao requisito fundamental para aplicações pesadas. A multiplicidade das velocidades das diversas redes implica em alguns pontos de gargalo, e que compromete a performance do nosso supercomputador virtual.

P G x C , ê P B yy . “S compartilhamento de recursos gerenciado por um único sistema global sincronizado e centralizado, então é um cluster. Em um cluster, todos os nós trabalham cooperativamente em um objetivo comum e o objetivo é a alocação de recursos executada por um gerente centralizado e global. Em Grid, cada nó, possuí seu próprio gerente recursos e política de alocação".

Benefícios de um Grid

1. Organizações podem agregar recursos - a computação em Grid permite que as organizações possam agregar recursos com toda a infraestrutura dos ITs, não importando localização global. Isso elimina situações onde um site esteja sendo executado com sua capacidade máxima, enquanto outros tenham ciclos disponíveis.

2. Poderosa plataforma de suporte a Organizações Virtuais - organizações podem melhorar dramaticamente sua qualidade e velocidade de produtos e serviços disponibilizados, enquanto os custos de IT são reduzidos por habilitar a colaboração transparente dos recursos compartilhados

3. Acesso distribuído a diversos tipos de recursos - permite que empresas acessem e compartilhem bases de dados de forma remota. Isto é essencialmente benéfico para as ciências da saúde ou comunidades de pesquisa, onde volumes grandiosos de dados são gerados e analisados durante todo dia.

4. Colaboração entre centro de pesquisas - possibilita a larga dispersão das organizações para que facilmente possam colaborar em projetos pela criação da habilidade do compartilhamento de tudo, desde aplicações a dados, até projetos de engenharia, etc.

5. Melhor utilização de largura de banda - pode-se criar a mais robusta e resistente infraestrutura de informações.

6. Aproveitamento de recursos ociosos – pode-se aproveitar os ciclos de processamento idle disponíveis dos PCs desktops que se encontram em várias localidades pelo planeta. Por exemplo, os computadores que se encontram tipicamente ociosos durante a noite de uma empresa em Tókio pode ser utilizado durante o dia para operações na América do Sul.

Desafios operacionais e de pesquisa a serem vencidos

o Localização dos recursos;

o Reserva de recursos;

o Capacidade para adaptar- se a mudanças no ambiente;

o Criação e escalonamento das tarefas;

o Autonomia de cada grupo participante para definir suas próprias políticas de segurança;

o Recursos requisitados podem estar em diferentes localidades;

o Qualidade de serviço exigida por cada aplicação.

Page 20: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

20

Para se utilizar um sistema em Grid são necessários diversos protocolos, padrões e ferramentas de software. Para desenvolver padrões comuns de processamento a Universidade do Sul da Califórnia, o Laboratório Nacional de Argonne e a Universidade de Chicago através do Projeto Globus (http://www.globus.org/) estão desenvolvendo um conjunto de especificações técnicas e ferramentas de software para Grid Computing, comandados pelo pesquisador Ian Forster.

A padronização da tecnologia de Grid já vem ocorrendo a bastante tempo, sendo que, devido ao uso de diversas empresas, os esforços passaram a ter uma prioridade muito maior nesses últimos três anos.

Principais Projetos de Grid

Globus

O projeto Globus foi iniciado em 1997, e é considerado o padrão de facto para a computação em Grid. Seus objetivos de baseiam no desenvolvimento e promoção de protocolos padrões para permitir interoperabilidade entre infraestruturas. Obteve uma grande atenção por parte da mídia, inclusive atraindo a atenção de empresas (exemplo: IBM).

O Globus Toolkit é um conjunto de ferramentas de código aberto baseados por bibliotecas escritas em C e que atualmente só rodam sobre plataforma Unix, desenvolvidos por Ian Forster, cientista sênior do Laboratório Nacional Argonne, Carl Kesselman, diretor do Centro para Tecnologias de Grade do Instituto de Ciências da Informação, da Universidade do Sul da Califórnia e Steve Tuecke da U. of Chicago, financiados principalmente pelo governo americano, com subvenção do Departamento de Energia, da Fundação Nacional de Ciência, da Nasa e da Agência de Projetos de Pesquisa Avançada da Defesa, e tem como objetivo facilitar a computação em grade por meio de APIs e SDKs. Atualmente na versão 3.x, o que aproximadamente representa a terceira geração do sistema e incluem serviços e bibliotecas para monitoração, descobrimento e gerenciamento de recursos, tais como segurança e gerenciamento de arquivos. Tendo sido a solução de maior impacto na comunidade da computação de alto desempenho. O Globus e os protocolos definidos em sua arquitetura tornaram-se um padrão de facto como infra-estrutura para computação em grid. Os ramos de pesquisa atuais são: Gerenciamento de Recursos, Gerenciamento e Acesso a Dados, Ambientes de Desenvolvimento de Aplicações, Serviços de Informação e Segurança.

Inicialmente, pode-se usar Globus apenas para agendar a execução em múltiplas máquinas. – Posteriormente, pode- se adicionar uma biblioteca para detecção e correção de falhas e finalmente, pode-se utilizar os serviços Globus de distribuição de arquivos.

Legion

Legion é um sistema de grade computacional que foi desenvolvido pela Universidade de Virginia. Um dos pioneiros em computação em grade, o desenvolvimento do Legion começou em 1993. Em 2001, seus idealizadores fundaram a Avaki, uma empresa que atualmente desenvolve e comercializa sistemas que utilizam a tecnologia do Legion.

O Legion foi desenvolvido utilizando-se o paradigma de orientação a objetos. Em Legion, todos os elementos da Grade são representados por objetos, sejam eles dados ou objetos reais, tais como microscópios, telescópios e outros equipamentos. Objetos comunicam-se por chamadas de métodos assíncronas, e as interfaces são definidas por um tipo de IDL. As classes possuem responsabilidades de sistema como: criação de objetos, ativação/desativação e agendamento da execução.

Legion se destaca pela sua preocupação com o suporte à aplicações paralelas. O Legion possui uma implementação das bibliotecas MPI (Message Passing Interface) e PVM (Parallel Virtual Machine). Para utilizar um programa escrito em MPI ou PVM no Legion basta recompilá-lo utilizando as bibliotecas fornecidas pelo Legion. Isso permite que a migração da infra-estrutura antiga para a infra-estrutura do Legion seja praticamente instantânea.

Page 21: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

21

Além das bibliotecas, Legion fornece suporte nativo a algumas linguagens de programação paralela. É possível utilizar as linguagens MPL (Mentat Programming Language, uma extensão de C++ para programação paralela), BFS (Basic Fortran Support) e Java.

Por fim, aplicações legadas que não utilizem nenhuma das bibliotecas ou linguagens acima podem ser encapsuladas dentro de objetos Legion. Basta o usuário registrar o programa legado com o comando legion_register_program e o sistema constrói um objeto Legion que encapsula o programa legado e, automaticamente, ele se torna elegível para ser executado pelo sistema. Isso garante que qualquer programa possa ser executado no ambiente do Legion. Se o programa realizar algum tipo de comunicação, basta que o programador escreva um adaptador para o programa legado que converta as chamadas a biblioteca de comunicação à chamadas a métodos de comunicação do Legion.

Conclusão

Podemos traduzir então que, um Grid Computacional resume-se em:

o Computadores em diferentes localidades;

o Rede de grande área;

o Apropriados para computação intensiva, alto-desempenho;

o Ambiente colaborativo;

o Grande quantidade de dados;

o Diferentes organizações;

o Permitem compartilhar, agregar e escolher recursos computacionais dos mais variados tipos:

supercomputadores

dispositivos especiais - telescópios, radares, etc

sistemas de armazenamento

bancos de dados

computadores comuns

As dificuldades encontradas são muitas, e os estudos são incessantes nessas áreas, destacando-se:

o Localização dos recursos;

o Reserva de recursos;

o Capacidade para adaptar-se a mudanças no ambiente;

o Criação e escalonamento das tarefas;

o Autonomia de cada grupo participante para definir suas próprias políticas de segurança;

o Recursos requisitados podem estar em diferentes localidades;

o Qualidade de serviço exigida por cada aplicação.

Page 22: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

22

No futuro bem próximo as aplicações baseadas na web vão usufruir os benefícios das grades computacionais, teremos então uma evolução natural dos sistemas localizados sendo acessíveis mundialmente e o aluguel de recursos computacionais ociosos, principalmente aqueles relacionados a processamento massivo.

Os grids computacionais surgiram da idéia de se compartilhar recursos de computadores que estejam ociosos. Desta forma, houve o empenho de alguns pesquisadores em trabalhar com a computação distribuída geograficamente. A idéia dos grids é justamente poder utilizar o poder de processamento, armazenamento e outros recursos computacionais ao redor do mundo. Assim, tem-se alguns projetos com estes objetivos, e dentre eles estão o Condor, Legion, Set@home, MyGrid, OurGrid. Uma vez que Grid é uma nova área de pesquisa, o objetivo deste artigo é mostrar algumas características sobre os grids computacionais, e apresentar alguns projetos importantes nesta área.

Estudos em interfaces multimodais extensíveis para permitir o entendimento dos fenômenos modelados e facilitar a configuração dinâmica dos modelos; e

o O desenvolvimento de sistemas emergentes auto-organizáveis (SEAOs) constitui-se em um grande fi b w . R v fi ã estes sistemas é difícil, visto que seu comportamento não pode ser descrito linearmente e sua . N , é v fi SEAOs que utiliza v fi ¸ ˜ b b ´ı . E ´ b v v SE O, b b ¸ ˜ v fi ¸ ˜ v . T b ¸ ˜ ˜ ara descrever este SEAO e indicam que a mesma ideia pode ser aplicada a outros sistemas similares.

o A consideração do contexto, visto pelo lado do sistema (em termos da percepção de características do ambiente e do usuário) e visto pelo lado usuário (em termos de suas preferências, relações de trabalho, relações pessoais, etc.) pode introduzir novas formas de interação entre usuários e sistemas e entre usuários entre si [Winograd 2001] [Greenberg 2001].

o As indicações sonoras e visuais podem ser utilizadas de forma complementar para o provimento de informações. A tecnologia para a produção de sons está bastante desenvolvida e existe um grande conhecimento acerca da natureza e da percepção dos sons. O desafio que se estabelece é o da integração desse conhecimento e dessa tecnologia para a definição de interfaces homem-máquina multimodais que sejam úteis e utilizáveis.

o http://csbc2009.inf.ufrgs.br/anais/pdf/semish/st01_04.pdf

Integração de algoritmos, estruturas de dados e modelos criados por diferentes disciplinas usando metodologias próprias.

Numa era digital, informações antigamente armazenadas em diversas mídias se tornam gradualmente digitais. Alguns exemplos são livros eletrônicos, registros públicos, ou dados de pacientes em hospitais. Em paralelo, novas tecnologias produzem um volume cada vez maior de informações. Redes de sensores permitem medir um grande número de parâmetros ambientais, por exemplo para o controle de processos de produção. A Internet armazena informações sobre milhares de usuários, além de manter repositórios de vídeo, áudio e outros tipos de dados. Satélites geram imagens da terra no volume de petabytes [Meyer et al. 2003]. Gera-se um volume de dados produzidos e disponíveis em organizações, empresas e em domínio público que cresce exponencialmente. O IDC estimou que em 2007 o volume de informação produzida mundialmente (255 EB) ultrapassou, pela primeira vez, o espaço disponível para seu armazenamento (246 EB) [IDC 2007].

b ã ã fi . O v ´ fi ˆ ã , á diretamente

Page 23: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

23

fi Gestão da Informação em grandes volumes de dados multimídia distribuídos da G D fi P C ão no Brasil nos Próximos 10 Anos, anunciados em 2006 pela Sociedade Brasileira de Computação.

˜ s massivas de dados por razões diversas, tais como capacidade de armazenamento ou tempo de processamento. Com o objetivo de transpor tais barreiras, modelos algorítmicos para dados massivos foram recentemente propostos [Prokop 1999, Aggarwal 2007, Vitter 2007].

Os algoritmos tradicionais foram projetados em um modelo no qual a memória RAM é a única memória com acesso uniforme. Um acesso diferente aos dados de entrada freqüentemente os torna inviáveis na prática. Isso motiva o estudo de novos modelos computacionais que consideram essa realidade, bem como novas abordagens algorítmicas para tornar o processamento de dados massivos viável.

http://csbc2009.inf.ufrgs.br/anais/pdf/semish/st01_02.pdf

Tratamento dos problemas de aumento na dimensionalidade (número crescente de variáveis em um problema) e escalabilidade, que contribuem para tempos de processamento exponencial;

Na ciência da computação, em especial nas áreas de Engenharia de Software e Banco de Dados, existem técnicas que podem ser adaptadas para fornecer o apoio necessário ao gerenciamento de experimentos científicos em larga escala. Especificamente, técnicas de engenharia de requisitos, linhas de produto, mineração de dados, controle de versões e rastreabilidade são de extrema valia para esse fim. Essas técnicas podem ser vistas como formas de implementação das funcionalidades necessárias, descritas anteriormente. Entretanto, não foram encontrados na literatura técnica trabalhos relacionados que façam uso dessas técnicas no apoio à gerência dos experimentos científicos. Esse apoio foi obtido por meio da aplicação das técnicas previamente apresentadas ao contexto em questão. A contribuição do trabalho pode ser vista como complementar aos esforços que vêm sendo realizados nas pesquisas de SGWfC. Os resultados preliminares, em sua maioria, estão vinculados à etapa da composição de experimentos científicos e à infra-estrutura de apoio, e foram aplicados nos domínios de engenharia do petróleo e bioinformática. O foco principal deste trabalho está no segundo Grande Desafio da SBC (2006), é : “O b v é , v , , , x modelos computacionais para todos esses domínios e ”. Ex í exemplos concretos dos modelos computacionais mencionados no segundo desafio.

Gerência de Experimentos Científicos em Larga Escala Um experimento é uma das formas utilizadas pelos cientistas para apoiar a formulação de novas teorias. Como o workflow científico representa a definição da orquestração de seqüências de processos que manipulam dados de modo a construir uma simulação, ele é o principal recurso do experimento científico. Entretanto, neste contexto, um experimento se caracteriza pela composição e execução de diversas variações de um workflow. Essas variações incluem a mudança de dados de entrada, parâmetros, programas ou ainda a combinação delas (Ogasawara et al. 2008, Oliveira et al. 2008). Conforme mencionado anteriormente, os SGWfC se limitam a gerenciar a execução de um workflow científico de forma isolada do experimento ao qual ele faz parte. , v “ ” w k w ã v w k w então versões do workflow sem o conhecimento da sua razão de existência. Contudo, para representar e apoiar o desenvolvimento do experimento científico, é necessário o registro das variações dos workflows associados a um experimento. O conceito de versões é importante, mas muitas vezes o resultado final do experimento será obtido com resultados de variações dos workflows, não havendo uma única versão final representativa do experimento.

Desenvolvimento de ferramentas para a construção colaborativa de modelos, apoio à sua execução e modificação adaptativa em tempo real, para que tal execução leve em conta mudanças ocorridas no mundo real enquanto o modelo é executado;

Page 24: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

24

Nos últimos anos, avanços na tecnologia de aquisição de dados diminuíram o intervalo de tempo de coleta de dados. Conseqüentemente, as instituições têm armazenadas grandes quantidades de dados como a série de tempo e clima remoto detecção de imagens. Os modelos computacionais para filtrar, transformar, fundir e analisar dados das mais diversas áreas são complexas e desafiadoras. A complexidade aumenta ainda mais quando se combinam vários domínios do conhecimento. Exemplos são pesquisa em mudanças climáticas, a produção de bicombustíveis e os problemas ambientais. Uma possível solução para o problema é a associação de vários computacional técnicas. Assim, este documento apresenta uma estrutura para analisar, acompanhar e visualizar o clima e dados de sensoriamento remoto por meio de métodos que empregam com base na teoria dos fractais, mineração de dados e técnicas de visualização. Os experimentos iniciais mostrou que a informação e o conhecimento descoberto a partir deste quadro pode ser empregado para monitorar as culturas de cana de açúcar, ajudando os empreendedores agrícolas tomar decisões para se tornarem mais produtivos. A cana de açúcar é o principal fonte para a produção de etanol no Brasil, e tem uma importância estratégica para o economia do país e garantir a auto-suficiência brasileira nessa fonte, importante de energia renovável.

Pesquisa sobre o impacto, em engenharia de software, resultante da necessidade da colaboração entre cientistas da Computação e cientistas dos demais domínios;

Page 25: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

25

3. O Panorama em 2006

Como era o estado da arte em 2006. O que havia em nível de concepção, pesquisa, tecnologias sendo introduzidas e tecnologias já disseminadas. A integração de tecnologias no contexto educacional a partir dos conceitos de modelagem e modelagem computacional demanda a investigação sistemática para se concluir sobre suas reais possibilidades de aplicação no processo de ensino aprendizagem. Os resultados da avaliação do Módulo Educacional Crescimento Celular Baseado na Síntese Protéica parecem revelar que a utilização da modelagem computacional em sala de aula representa uma promissora estratégia na medida que os estudantes e avaliadores, público-alvo deste tipo de iniciativa, foram positivos em relação a este tipo de material didático. Para finalizar, é importante assinalar que a partir dos resultados desta avaliação o módulo educacional foi reestruturado possibilitando o estabelecimento de novos direcionamentos no desenvolvimento desta investigação. Foi implementado, na linguagem Visual Basic 6, um programa computacional para a análise do Golpe de Aríete em adutoras, utilizando-se do Método das Características e das equações características de equipamentos normalmente encontrados nos sistemas hidráulicos. Procurou-se desenvolver um aplicativo que possibilite ao usuário visualizar o comportamento das ondas de sobrepressão e subpressão decorrentes do fenômeno transitório, além de verificar a influência da chaminé de equilíbrio e do tanque de alimentação unidirecional (TAU) como dispositivos de alívio do golpe de aríete. Aplicou-se o modelo computacional na análise dos transientes hidráulicos gerados pelo desligamento do conjunto moto-bomba, e na avaliação da eficiência da chaminé de equilíbrio e do tanque de alimentação unidirecional como mecanismos de atenuação dos picos de pressão. A validação do modelo se deu através da comparação dos resultados das simulações com os dados obtidos nos testes realizados utilizando-se o CTran, software desenvolvido pela Fundação Centro Tecnológico de Hidráulica da Escola Politécnica da Universidade de São Paulo. De acordo com a análise estatística, o programa desenvolvido apresentou resultados bastante satisfatórios na análise do golpe de aríete, possuindo uma interface de fácil utilização e visualização dos resultados, fato de fundamental importância para que projetistas e estudantes compreendam o comportamento do fenômeno.

4. Progressos até 2011 Como o cenário descrito no item 3 avançou até 2011. O que se tornou obsoleto? Que novas pesquisas e tecnologias surgiram com impacto nesta área? Como está o Brasil em relação ao resto do mundo? Giovanni Abdelnur Ruggiero. Estudo Numerico do Efeito da Pluma do Rio Amazonas na Dinâmica da Porção Oeste do Oceano Atlântico Equatorial. 2008. Orientador: Ivan Dias Soares.

Raquel da Fontoura Nicolette. Inferência estatística para modelos estado-espaço não-lineares e não-gaussianos de dinâmica populacional. 2008. Orientador: Fernando Kokubun.

Fábio Dall Cortivo. Reconstrução de Termo Fonte em Ótica Hidrológica com Série de Fourier. 2009.Orientador: Mario Rocha Retamoso.

Jeison luiz Ferreira Vieira. MPnetCDF - Uma Proposta de Paralelização do NetCDF. 2009. Orientador:Silvia Silva da Costa Botelho.

Leandro Cavalheiro Vergara. Otimização geométrica de corpos circulares submetidos a intenso fluxo de calor. 2009. Orientador: Luiz Alberto Oliveira Rocha.

Emanuel Estrada. TatuBot - Desenvolvimento de um Robô de Inspeção de Dutos. 2010. Orientador:Silvia Silva da Costa Botelho.

Page 26: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

26

Mateus das Neves Gomes. M C D v C ’Á O Conversão da Energia das Ondas do Mar em Energia Elétrica. 2010. Orientador Claudio Rodrigues Olinto

Robert Luis Lara Ribeiro. Modelagem Computacional de um Fotobiorreator Tubular e Compacto para o Cultivo de Microalgas. 2010. Orientador Jeferson Avila Souza

Silvana Letícia Pires Iahnke. Energia das Ondas: Estado da Arte e Desenvolvimento de um modelo de Simulação Numérica para o Princípio de Galagmento. 2010. Orientador: Liércio André Isoldi

5. Perspectivas para 2016 Quais os novos horizontes para 2016? Que novas tecnologias deverão estar disseminadas nessa época? O que é preciso para melhor a posição brasileira neste desafio? Paralelismo como fator chave na resolução de algu fi b ã , especialmente na construção de sistemas escaláveis para processamento distribuído e de alto desempenho para grandes volumes de dados.

Sistemas de e-Gov em seus vários níveis, da infra-estrutura de hardware e plataforma de software às suas interfaces de usuário, devem ser tratados como instrumentos de transformação profunda da sociedade. Não se trata de colocar mais serviços disponíveis na Internet, mas fazer com que sua presença na Internet beneficie o conjunto dos cidadãos, promovendo o processo de disseminação da Tecnologia da Informação e Comunicação (TIC) e contribuindo para o desenvolvimento sócio-econômico e cultural do país. Portanto, o cidadão comum e suas organizações são os parceiros mais importantes para a definição não somente do conteúdo, mas também das formas de interação a serem implementadas por meio de sistemas computacionais e suas interfaces. Em linhas gerais o Grande Desafio da Computação nesse cenário de Brasil está em estabelecer sistemas computacionais e métodos que sustentem a formação de uma cultura digital em nossa sociedade. Em outras palavras, o Grande Desafio da Computação nesse cenário de Brasil está nas interfaces de tais sistemas: interfaces tecnologia-sociedade; interfaces sistema computacional-usuário final. São elas que representam o sistema e é através delas que a interação pode ou não ocorrer. Do ponto de vista de design, isso significa ampliar o foco da interface propriamente dita (materializada num produto) para a interação (processo tornado possível via esse produto).

6. Considerações Finais O que o artigo mostra? Que ideias são importantes e precisam ser consideradas aqui?

No contexto de Brasil, estamos falando na extensão de sistemas computacionais ao cidadão comum, em sua diversidade, respeitando suas diferenças. O design para todos, as interfaces flexíveis e ajustáveis são apenas alguns desafios que a própria área de IHC (Interação HumanoComputador) nos coloca. Se esse já é um desafio em escala global, ganha novas proporções no cenário de uma população com a diversidade e os problemas da nossa (analfabetismo funcional, só para citar um exemplo). Além disso, vivemos um momento de convergência de mídias (Internet, TV, telefone celular) cujo gargalo será, sem dúvida, possibilitar o acesso.

Este só se tornará possível com o trabalho sobre os desafios das interfaces, em particular a interface desses sistemas com o cidadão. Essa visão de futuro tem implicações diversas, grande parte delas de competência de uma Sociedade Brasileira de Computação considerar. Do ponto de vista metodológico implica buscar novos modelos de processos de design e desenvolvimento de software, que dêem conta de pensar as interfaces de tais sistemas segundo uma visão sóciotécnica. Do ponto de vista de formação de nossos profissionais, envolve pensar o currículo de forma alinhada às necessidades que essa realidade nos coloca: formar Cientistas da Computação, sim, mas principalmente antenados e comprometidos com esse tipo de responsabilidade social.

Page 27: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

27

Referências

Abaixo as referências encontradas até agora pelos autores:

Obs: Precisam ser reformatadas para o formato da ABNT.

1- EMANUEL ESTRADA. TATUBOT - DESENVOLVIMENTO DE UM ROBÔ DE INSPEÇÃO DE DUTOS. 2010. ORIENTADOR: SILVIA SILVA DA COSTA BOTELHO. http://mirabeli.meteo.furg.br/aulas/PPGMC-d/ESDEstrada2009.pdf 2- RAQUEL DA FONTOURA NICOLETTE. INFERÊNCIA ESTATÍSTICA PARA MODELOS ESTADO-ESPAÇO NÃO-LINEARES E NÃO-GAUSSIANOS DE DINÂMICA POPULACIONAL. 2008. ORIENTADOR: FERNANDO KOKUBUN. http://mirabeli.meteo.furg.br/aulas/PPGMC-d/RFNicollete2008.pdf 3- MATEUS DAS NEVES GOMES. MODELAGEM COMPUTACIONAL DE UM DISPOSITIVO COLUN D’ÁGU OSCIL NTE P R CONVERSÃO D ENERGI D S ONDAS DO MAR EM ENERGIA ELÉTRICA. 2010. ORIENTADOR CLAUDIO RODRIGUES OLINTO http://mirabeli.meteo.furg.br/aulas/PPGMC-d/MGomes2010.pdf 4- MODELAGEM DE SISTEMAS COMPUTACIONAIS COMPLEXOS: EM DIREÇÃO A UMA FUNDAMENTAÇÃO CIENTÍFICA E APLICAÇÕES TECNOLÓGICAS http://www.inf.ufrgs.br/~buriol/papers/Lamb_SEMISH07.pdf 5- EPIDEMIO – SISTEMA COMPUTACIONAL WEB INTEGRADO SOBRE EVENTOS EPIDEMIOLÓGICOS http://200.201.81.50/~jorge/ARTIGOS,%20LIVROS%20e%20CAP%CDTULOS %20PUBLICADOS/ARTIGOS/EPIDEMIO.pdf 6- UMA ABORDAGEM EVOLUTIVA MULTIOBJETIVO PARA O PROBLEMA DE CONTROLE DE EPIDEMIAS http://www.iprj.uerj.br/emc/emc2010/files/artigos/XIIEMC_0107_03.pdf 7- MOVIMENTO UNIDIMENSIONAL DA ÁGUA EM PERFIS DE SOLO HIDRAULICAMENTE HETEROGÊNEO http://www.iprj.uerj.br/emc/emc2010/files/artigos/XIIEMC_0055_02.pdf 8- CÁLCULO DE DOSE EM ORGÃOS SADIOS, DEVIDO A FÓTONS, NO TRATAMENTO DE RADIOTERAPIA PARA CÂNCER DE PRÓSTATA, UTILIZANDO MODELAGEM COMPUTACIONAL E O FANTOMA EM VOXEL. http://www.iprj.uerj.br/emc/emc2010/files/artigos/XIIEMC_0115_02.pdf 9- MODELAGEM DE UM SISTEMA DE INFORMAçãO PARA RECUPERAçãO DE VíDEOS POR MEIO DE METADADOS TEXTUAIS http://www.iprj.uerj.br/emc/emc2010/files/artigos/XIIEMC_0036_02.pdf 10- DETECÇÃO DE ANTINEUTRINOS PROVENIENTES DE REATORES NUCLEARES TÉRMICOS http://www.iprj.uerj.br/emc/emc2010/files/artigos/XIIEMC_0109_02.pdf

Page 28: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

28

Impactos para a Área da Computação da Transição do Silício para Novas Tecnologias

Evandro Brasil da Fonseca Vagner Alves dos Santos

“Há a percepção de que a Lei de Moore já está atingindo seus limites, pois a tecnologia de produção de circuitos está se aproximando dos limites físicos do átomo. O aumento em velocidade de processamento vem sendo obtido a partir da miniaturização e empacotamento de cada vez mais componentes em um chip. Isto, no entanto, aumenta a quantidade de calor e o perigo da interferência entre componentes. Já existem diversas pesquisas para o desenvolvimento de novas tecnologias que substituirão ou trabalharão complementarmente ao silício. As novas propostas – por exemplo, computação quântica ou baseada em fenômenos biológicos – irão requerer mudanças radicais na forma como concebemos e trabalhamos na Computação. O objetivo deste desafio é analisar quais as mudanças pelas quais devem passar a pesquisa e o desenvolvimento em Computação como conseqüência da transição para novos tipos de paradigma de processamento”.

(SBC, Grandes Desafios, 2006)

Page 29: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

29

Impactos para a Área da Computação da Transição do Silício para Novas Tecnologias Evandro Brasil da Fonseca Vagner Alves dos Santos

1. Introdução Qual o significado do desafio e qual o impacto originalmente esperado na ciência, tecnologia e sociedade? Precisa examinar as alternativas que surgiram: multicore, computação ótica, computação 3d, computação quântica, ...As figuras estão um pouco feias, precisamos melhorá-las. Em 2001 a Intel anunciou a criação do menor transistor do mundo, medindo apenas 20 nanômetros. A notícia teve uma boa repercussão, principalmente entre a comunidade científica. O tamanho dos transistores está diretamente ligado à velocidade e custo dos circuitos eletrônicos. Isto é, quanto menores, mais rápidos e baratos eles se tornam. A Intel anunciou também, que pretende conseguir produzir circuitos com estes transistores por volta de 2007 e lançar os primeiros produtos no mercado a partir de 2012. Mas qual seria a grande diferença para os processadores atuais? A verdade é que quanto menores forem os transistores, mais estruturas são possíveis de serem adicionadas ao processador, fazendo com que ele processe mais instruções por ciclo e ao mesmo tempo possa operar a freqüências mais altas (quanto menor um transistor, mais rápida é sua mudança de estado). As possibilidades realmente são muitas. Com transistores de 20 nanômetros os f b ã “ ã ” para manter a lei de Moore por mais uns 15 anos. Porém após isso virá a velha pergunta: Depois virá a velha "E agora"? Existem muita idéias e promessas com novas tecnologias como. Computação quântica, computadores de DNA, transistores de grafeno entre outras. Todas elas possuindo seus prós e contras.

2. Tópicos Relacionados ao Desafio Os tópicos abaixo foram identificados em 2006 como relacionados a este desafio. Ainda são os mesmos? Ou mudaram? Que novos aspectos podem/devem ser considerados nesta área? Detalhar cada um deles em subseções. Usar figuras e tabelas para ilustração.

Todos os tópicos relacionados continuam sendo verdadeiros desafios a serem estudados, em especial no Brasil . Porém, em pesquisa nos principais simpósios da SBC (p.e, CSBC), e nos Seminários específicos da área, como os SEMISH, pouco foram os trabalhos relacionados a este desafio. Inclusive, durante o II Seminário sobre Grande Desafios da Computação no Brasil, um dos artigos aceitos tratava da necessidade de reestruturação e reformulação do conteúdo deste Grande Desafio, conforme [Martins, 2009].

Desenvolver: ver se o Palazzo consegue o artigo referente a este conteúdo.

Tem esse aqui do Reis:

http://www.inf.pucminas.br/sbc2010/anais/pdf/semish/st01_03.pdf

Page 30: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

30

Desenvolver pesquisa em Engenharia de Software para permitir capturar requisitos em todos os níveis de abstração, desde os níveis mais baixos de desempenho e consumo de energia, até as abstrações necessárias à automação crescente do processo de desenvolvimento de software;

Definir conceitos mais abrangentes de desenvolvimento baseado em componentes, que levem em consideração também características não funcionais, como desempenho, consumo de energia e confiabilidade;

XXXVII Seminário Integrado de Software e Hardware (SEMISH), foi dedicada aos Grandes Desafios da SBC, mas tendo em vista a relação destes desafios científicos com a Computação Verde. O SEMISH foi x C SBC 2010, “Computação Verde: Impactos Científicos e Tecnológicos”. Dentro deste tema, foram apresentados alguns trabalhos no âmbito do 3º desafio, Impactos para a Área da Computação da Transição do Silício para Novas Tecnologias, como [Stéfano et. al. 2010], que alia arquiteturas paralelas com Green Computing, e [Reis, 2010], com o tema Redução de Consumo pela Otimização de Componentes.

Desenvolver novas técnicas de teste e verificação de software na presença de falhas permanentes e transitórias, e que considerem as interações entre processadores não convencionais e processadores baseados em silício;

Projetar mecanismos em que a implementação de tarefas dos sistemas operacionais e middleware possam alternar entre software e hardware, minimizando e controlando o consumo de energia, num contexto de carga variável de trabalho;

Projetar técnicas de compilação que permitam a compiladores mapear automaticamente fragmentos de código para módulos altamente otimizados de hardware;

Combinar eficiência energética com os requisitos de alto desempenho em sistemas paralelos e heterogêneos;

Desenvolver novas linguagens que explorem o paralelismo de forma eficiente no contexto de sistemas massivamente paralelos e heterogêneos, onde o consumo de energia é uma restrição importante a ser considerada;

Integrar os vários níveis de paralelismo, desde o paralelismo on-chip (multi-core), o paralelismo multi-thread, até o paralelismo inter-nós (clusters, grids);

Prover suporte ao desenvolvimento de sistemas escaláveis, através de monitoração e depuração;

Investigar novos modelos de computação, bem como novas arquiteturas e máquinas capazes de implementá-los;

Investigar a possibilidade e as perspectivas da utilização de mecanismos biológicos para a resolução de problemas;

Criar linguagens e métodos para o desenvolvimento de programas em máquinas que implementam modelos não convencionais de computação.

3. O Panorama em 2006

Como era o estado da arte em 2006. O que havia em nível de concepção, pesquisa, tecnologias sendo introduzidas e tecnologias já disseminadas.

a. Lei de Moore perdendo velocidade, pelos limites físicos do átomo; b. Sem substituto à altura para o silício, a questão é o início da tecnologia muticore; c. Início das pesquisas com máquinas computacionais biológicas; [Wagner, 2006]

Page 31: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

31

Estes são alguns pontos em nível de concepção, em 2006. Podemos observar que, atualmente, não foram grandes os avanços implementados com relação a este desafio. Demanda muito mais pesquisas na área, para o cumprimento deste grande desafio.

4. Progressos até 2011 Como o cenário descrito no item 3 avançou até 2011. O que se tornou obsoleto? Que novas pesquisas e tecnologias surgiram com impacto nesta área? Como está o Brasil em relação ao resto do mundo? Por volta de 2012 a Intel estará lançando seus processadores com transistores de 0,02 mícron. O que realmente não está muito distante. Atualmente contamos com máquinas multicores de 0,045 mícron ou 45 nanômetros que atingem um desempenho próximo aos 4Ghz. Com a vinda de processadores de 20nm (nanômetros) essa velocidade poderá dobrar. Partindo do principio que quanto menores as medidas de fabricação de um transistor, menores serão as temperaturas do mesmo, pois este apresentará menor resistência e conseqüentemente um menor aquecimento além de podermos dobrar a quantidade de transistores de um processador sem alterarmos o seu tamanho. Todos esses fatos mais uma vez garantem a lei de Moore(Figura 1 e 2). A tecnologia com estes circuitos originados do silício sem dúvidas foi um grande avanço de nossa ciência. Foi através deste procedimento que conseguimos ter a mão todos esses aparatos tecnológicos ao nosso redor. Com o tempo conseguimos aumentar gradativamente a quantidade de transistores dentro de uma pequena área do Circuito Impresso, primeiramente foram 10 transistores dentro de uma pequena área, depois 100 á , 1000, 10 000… SLSI(S L Scale Integration)(Figura2) que tem pra mesma área inicial uma quantidade que varia entre 1 milhão e 10 milhões de transistores. O problema é que já estamos encontrando nosso limite para o que podemos produzir com este material e o componente que mais se destaca é o grafeno.

Page 32: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

32

Década de 60 Cerca de 20 mícrons (do tamanho de uma bactéria)

Final da década de 70 3 mícrons (do tamanho de um vírus)

Final da década de 80, 486: 1 mícron

Final da década de 90, Pentium III coppermine:

0.18 mícron

2012 0.02 mícron (algumas dezenas de átomos)

FIGURA 3: Avanço dos transistores de silício

5. Perspectivas para 2016 Quais os novos horizontes para 2016? Que novas tecnologias deverão estar disseminadas nessa época? O que é preciso para melhor a posição brasileira neste desafio? O grafeno é uma nova forma na combinação do carbono. Descoberta em 2004 e que é considerado um dos tópicos mais quentes na física atual. Os átomos individuais de carbono no grafeno estão dispostos em uma estrutura hexagonal, o que gera uma folha plana. Se essas folhas forem enroladas elas resultarão nos famosos nanotubos de carbono.

Figura 4: Folha

Page 33: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

33

Figura 5: Nanotunotubos

O Grafeno se caracteriza por uma alta condutividade térmica e elétrica e por combinar uma alta elasticidade e rapidez com uma extrema dureza, o que o situa como o material mais resistente do mundo. Só para termos idéia, um transistor normal mede 45 nanômetros, um átomo mede 0,1 nanômetro. O transistor de grafeno mede 1 nanômetro. Apenas 10 vezes maior que um átomo e 45 vezes menor que um transistor normal. Nas fitas de grafeno, graças às suas dimensões em escala nanométrica, o confinamento quântico faz o material se comportar como um semicondutor, tornando-o adequado para a criação de dispositivos eletrônicos. Mas, quando as fitas têm largura a partir de 1 micrômetro, o grafeno funciona como um condutor. Um condutor excepcional transmitindo a corrente elétrica 100 vezes mais rápido que qualquer material conhecido. Por ser o material de carbono mais fino possível, com apenas um átomo de espessura, o grafeno é ideal para a construção de eletrodos transparentes, necessários para as telas sensíveis ao toque. A comunidade científica está muito animada com as possibilidades do grafeno, e é possível que testemunhemos uma revolução na tecnologia que temos hoje assim que o grafeno começar a ser fabricado em escala comercial.

6. Considerações Finais O que o artigo mostra? Que ideias são importantes e precisam ser consideradas aqui?

Page 34: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

34

Referências

Abaixo as referências encontradas até agora pelos autores:

http://www.culturadigital.br/maira/files/2010/07/artigo_inova__o_3.pdf

http://www.lac.inpe.br/~rafael.santos/Docs/SeminariosUnifesp/2009/desafios-1x2.pdf

http://www.revista.inf.br/sistemas07/artigos/edic7anoIVagosto2007-artigo05.pdf

http://www.coinfo.cefetpb.edu.br/professor/ilton/hardware/novo/complementar/futuro.pdf

http://www.ifba.edu.br/dtee/ads/semanasbc/docs/gdc.pdf

http://www.dpi.inpe.br/gilberto/present/grandes_desafios_gilberto.ppt

http://www.gta.ufrj.br/rebu/arquivos/SBC-Grandes.pdf

http://www.ic.unicamp.br/~cmbm/desafios_SBC/LeilaRibeiro.pdf

http://www.fateczl.edu.br/TCC/2009-2/tcc-27.pdf

http://profissionais.ws/curiosidades/grafeno-x-silicio-revolucao-em-nossa-tecnologia.html

Martins, C. A. (2009). Impactos na área da computação causados pela heterogeneidade de modelos de arquitetura, materiais e princípios físicos utilizados na implementação de sistemas de computação. In: II SEMINÁRIO SOBRE GRANDES DESAFIOS NA COMPUTAÇÃO NO BRASIL;

Stéfano, D. K. M.; Marco, A. Z. A.; Lima, J. V. F.; Nicolas, B. M. ; Philippe, O. A. N. (2010) Eficiência Energética em Computação de Alto Desempenho: Uma Abordagem em Arquitetura e Programação para Green Computing. In: XXXVII SEMINÁRIO INTEGRADO DE SOFTWARE E HARDWARE (SEMISH).

Reis, R. (2010) Redução de consumo pela Otimização de Componentes. In: XXXVII SEMINÁRIO INTEGRADO DE SOFTWARE E HARDWARE (SEMISH).

Wagner, F. R. Impactos para a área de Computação da Transição do Silício para novas tecnologias. Computação Brasil. Porto Alegre, p.6, set/out/nov. 2006

Page 35: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

35

Acesso Participativo e Universal do Cidadão Brasileiro ao Conhecimento

Fábio Fischer Marília Garcia Baltar

“A Tecnologia da Informação introduziu uma revolução na comunicação entre pessoas e sua forma de trabalho. Através de redes de computadores, todos podemos nos comunicar e compartilhar os mais diversos recursos (hardware, dados e software, e também informação visual e sonora), independentemente da localização ou de presença física simultânea. Esses novos tipos de interação são facilitados pela disponibilidade das redes de comunicação com banda larga e latência reduzida, associada aos dispositivos móveis e à computação ubíqua. Tal disponibilidade, no entanto, não é sinônimo de facilidade de uso e acesso universal. Existem barreiras tecnológicas, educacionais, culturais, sociais e econômicas, que impedem o acesso e a interação. O objetivo deste desafio é, portanto, vencer essas barreiras, por meio da concepção de sistemas, ferramentas, modelos, métodos, procedimentos e teorias capazes de endereçar, de forma competente, a questão do acesso do cidadão brasileiro ao conhecimento.”.

(SBC, Grandes Desafios, 2006)

Page 36: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

36

Acesso Participativo e Universal do Cidadão Brasileiro ao Conhecimento Fábio Fischer Marília Garcia Baltar

1. Introdução Qual o significado do desafio e qual o impacto originalmente esperado na ciência, tecnologia e sociedade?

Esse desafio tem como principal objetivo diagnosticar as principais barreiras tecnológicas, educacionais, culturais, sociais e econômicas que impedem que o cidadão brasileiro possa obter meios de acesso qualificados ao conhecimento, interagindo de forma passiva e ativa com este conhecimento disponibilizado.

Através do apontamento destas barreiras, espera-se apontar os principais pontos dentro da gama de sistemas computacionais que devem ser estendidos de forma a contemplar todos os cidadãos brasileiros, respeitando suas diferenças, incentivando o desenvolvimento de novas interfaces flexíveis e adaptáveis visando principalmente diminuir a diferença das condições de acesso entre as várias classes sociais existentes.

Muito bom!

2. Tópicos Relacionados ao Desafio Os tópicos abaixo foram identificados em 2006 como relacionados a este desafio. Ainda são os mesmos? Ou mudaram? Que novos aspectos podem/devem ser considerados nesta área? Detalhar cada um deles em subseções. Usar figuras e tabelas para ilustração.

Cada aspecto comentado precisa ser ilustrado com figuras, tabelas, séries históricas, etc.

Projeto e desenvolvimento apropriado de novas infraestruturas de hardware e de comunicação;

Experimentos com conteúdo centrado em aspectos humanos e modelagem de conteúdo, que incluam aspectos de dinâmica social e sistemas socialmente conscientes;

Criação de sistemas de BackOffice - infraestrutura interna necessária para prover serviços aos cidadãos, que pode incluir processos de longa duração, que envolvam várias entidades e questões de interoperabilidade;

Disponibilização de uma infraestrutura necessária para a interação direta do cidadão e sua comunicação com o processo a ser realizado no BackOffice;

Desenvolvimento de mecanismos ágeis para busca de dados e para armazenamento do conteúdo sendo gerado continuamente pelo cidadão;

Projeto e implementação de estruturas de ontologia flexíveis e expansíveis, que possibilitem interoperabilidade entre áreas do conhecimento e interação entre pessoas de diferentes culturas e vocabulários;

Criação de plataformas de aplicativos de e-learning que permitam a integração eficiente de ferramentas de comunicação para poderem ser usadas em conjunto com a finalidade de permitirem a prática do aprendizado eletrônico;

Page 37: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

37

Definição de formas de garantir a administração adequada dos direitos autorais, em particular, e da propriedade intelectual, em geral, de modo a permitir uma ampla variedade de experimentos nas áreas de produção, administração e utilização do conhecimento.

Projeto e construção de novos dispositivos para permitir acessibilidade universal, por exemplo ajudando usuários com deficiências a interagir com sistemas de software e hardware.

3. O Panorama em 2006

Como era o estado da arte em 2006. O que havia em nível de concepção, pesquisa, tecnologias sendo introduzidas e tecnologias já disseminadas.

Pesquisas realizadas em 2006 revelam que o número de computadores em uso no Brasil estava em torno de 40 milhões, o numero de usuários ativos de internet girava em torno de 13 milhoes.

A TV digital teve sua implantação regularizada pelo Decreto 5.820/2006.E teve em 2007 a primeira transmissão comercial.

Gráficos - tabelas ...

4. Progressos até 2011 Como o cenário descrito no item 3 avançou até 2011. O que se tornou obsoleto? Que novas pesquisas e tecnologias surgiram com impacto nesta área? Como está o Brasil em relação ao resto do mundo?

Conforme pesquisa realizada anualmente pela Fundação Getulio Vargas (FGV), atualmente o número de computadores em uso no país é de 85 milhões, o que significa que quatro de cada nove brasileiros têm um equipamento para uso doméstico ou corporativo.É um crescimento considerável, porém em comparação com países desenvolvidos, como os Estados Unidos, o número de computadores em uso no Brasil ainda é baixo. Nos Estados Unidos há cerca de 330 milhões de computadores em uso. Enquanto a taxa de penetração no Brasil é de 44%, nos Estados Unidos chega a 106%, o que significa que há mais computadores em uso nos Estados Unidos do que habitantes.

Assim como no número de computadores em uso, em termos de conectividade podemos afirmar que o ritmo de crescimento da internet brasileira é intenso. Pesquisas mostram que o número de usuários ativos gira em torno dos 43 milhões.

A TV Digital atualmente atinge 46% da população brasileira.

Alguns projetos surgiram desde o lançamento deste desafio e outros já existentes ganharam um destaque maior nos últimos anos, como o Programa GESAC, lançado em 2004 pelo Governo Federal, desenvolvido pelo Ministério das Comunicações através do Departamento de Serviços de Inclusão Digital – DESID, visa principalmente promover a inclusão digital, oferecendo serviços gratuitos, como acesso à internet, recursos digitais, capacitação e oficinas. O GESAC em conjunto com o Ministério da educação teve como mérito a junção entre a formação presencial e à distância.

Outro projeto que tem sido muito debatido é o Programa Nacional de Banda Larga (PNBL) que tem como base o barateamento do serviço de internet banda larga, visando principalmente atingir a população com baixa renda. O PNBL, que teve suas bases definidas pelo Decreto 7.175/2010 de uma forma confusa, pois o mesmo também trata alteração da estrutura administrativa do próprio Poder Executivo.

Page 38: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

38

5. Perspectivas para 2016 Quais os novos horizontes para 2016? Que novas tecnologias deverão estar disseminadas nessa época? O que é preciso para melhor a posição brasileira neste desafio?

6. Considerações Finais O que o artigo mostra? Que ideias são importantes e precisam ser consideradas aqui?

Referências

Abaixo as referências encontradas até agora pelos autores:

Obs: Precisam ser reformatadas para o formato da ABNT.

Adelice Cadete Abreu Cadete Abreu, Irajane Cantanhede Nunes Cantanhede Nunes, Josecleide Sampaio da Rocha Sampaio Rocha, Rafaela Castro Cutrim Castro Cutrim, Rosyanne Almeida Vieira. POLÍTICAS PÚBLICAS PARA ACESSO AS TECNOLOGIAS DE INFORMAÇÃO: UMA VISÃO SOBRE A DESIGUALDADE SOCIAL. <http://dci.ccsa.ufpb.br/enebd/index.php/enebd/article/view/176>

SAMPAIO, Rafael Cardoso; MAIA, Rousiley Celi Moreira; MARQUES, Francisco Paulo Jamil Almeida. Participação e deliberação na internet: um estudo de caso do Orçamento Participativo Digital de Belo Horizonte. Opin. Publica, Campinas, v. 16, n. 2, Nov. 2010 . Available from <http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0104-62762010000200007&lng=en&nrm=iso>. access on 01 Apr. 2011. doi: 10.1590/S0104-62762010000200007.

Lívia Barletta Giacomini. O Reflexo Online das Novas Tecnologias na Comunicação: uma análise de sua inserção política, algumas ferramentas e a problemática da exclusão digital. <http://www.relem.info/index.php/relem/article/view/44>

Adilson Cabral, Eula D. T. Cabral. INCLUSÃO DIGITAL PARA A INCLUSÃO SOCIAL: PERSPECTIVAS E PARADOXOS, <http://seer.ufrgs.br/index.php/debates/article/view/12520>

M. Cecília C. Baranauskas, Heiko H. Hornung, M. Cecília Martins. Design Socialmente Responsável: Desafios de Interface de Usuário no Contexto Brasileiro., <http://www.lbd.dcc.ufmg.br:8080/colecoes/semish/2008/007.pdf>. acessos em 31 mar. 2011.

MATTOS, Fernando Augusto Mansor de; CHAGAS, Gleison José do Nascimento. Desafios para a inclusão digital no Brasil. Perspect. ciênc. inf., Belo Horizonte, v. 13, n. 1, abr. 2008 . Disponível em <http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1413-99362008000100006&lng=pt&nrm=iso>. acessos em 31 mar. 2011. doi: 10.1590/S1413-99362008000100006.

BRANCO, Sergio. A lei autoral brasileira como elemento de restrição à eficácia do direito humano à educação. Sur, Rev. int. direitos human., São Paulo, v. 4, n. 6, 2007 . Disponível em <http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1806-64452007000100007&lng=pt&nrm=iso>. acessos em 31 mar. 2011. doi: 10.1590/S1806-64452007000100007.

BRASIL. Projeto de Lei n. 415/2011, de 15 de fevereiro de 2011. Altera a Lei nº 9.998, de 17 de agosto de 2000, que institui o Fundo de Universalização dos Serviços de Telecomunicações - FUST para garantir o acesso gratuito à banda larga pela população de baixa renda.

BRASIL. Projeto de Lei n. 1481/2007, de 3 de julho de 2007. Altera a Lei nº 9.394, de 20 de dezembro de 1996, e a Lei nº 9.998, de 17 de agosto de 2000, para dispor sobre o acesso a redes digitais de informação em estabelecimentos de ensino.

BOHADANA, Estrella; VALLE, Lílian do. O quem da educação a distância. Rev. Bras. Educ., Rio de Janeiro, v. 14, n. 42, dez. 2009 . Disponível em <http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1413-24782009000300011&lng=pt&nrm=iso>. acessos em 31 mar. 2011. doi: 10.1590/S1413-24782009000300011.

Page 39: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

39

Desenvolvimento Tecnológico de Qualidade: Sistemas Disponíveis, Corretos, Seguros, Escaláveis, Persistentes e Ubíquos

Bruno Andretti Duarte Marcos Guilherme Peglow

“A Tecnologia da Informação está cada vez mais presente em nosso quotidiano. Não é preciso ir muito longe para buscar exemplos. Vários eletrodomésticos e elevadores, por exemplo, têm controle via software; carros, tratores, aviões, celulares, sistemas de controle de tráfego e salas de cirurgia também dependem desta tecnologia. Enquanto alguns desses exemplos correspondem a sistemas relativamente simples – um forno de microondas – , outros custam muito caro e envolvem milhões de linhas de código e hardware sofisticado. Se esta ubiqüidade traz conforto, também acarreta problemas. Como dependemos desses sistemas, eles precisam estar sempre disponíveis e não apresentarem falhas; devem funcionar da forma prevista e ser escaláveis e seguros. Este desafio visa, desta forma, a pesquisa em ambientes, métodos, técnicas, modelos, dispositivos e padrões de arquitetura e de projeto capazes de auxiliar os projetistas e desenvolvedores de grandes sistemas de software e hardware a atingirem esses objetivos”.

(SBC, Grandes Desafios, 2006)

Page 40: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

40

Desenvolvimento Tecnológico de Qualidade: Sistemas Disponíveis, Corretos, Seguros, Escaláveis, Persistentes e Ubíquos Bruno Andretti Duarte Marcos Guilherme Peglow

Precisamos avançar urgentemente.

1. Introdução Qual o significado do desafio e qual o impacto originalmente esperado na ciência, tecnologia e sociedade?

2. Tópicos Relacionados ao Desafio Os tópicos abaixo foram identificados em 2006 como relacionados a este desafio. Ainda são os mesmos? Ou mudaram? Que novos aspectos podem/devem ser considerados nesta área? Detalhar cada um deles em subseções. Usar figuras e tabelas para ilustração.

Desenvolvimento e avaliação de modelos e ferramentas de modelagem de sistemas de software com base teórica sólida;

Desenvolvimento e adaptação de tecnologias e instrumentos em geral de apoio à implementação e à avaliação de software fidedigno por construção;

Desenvolvimento de ferramentas de apoio ao processo de implementação e evolução de software;

Especificação e análise de novas técnicas e algoritmos de segurança de dados e sistemas, incluindo técnicas criptográficas e protocolos seguros de comunicação;

Construção de mecanismos e ferramentas visando a tolerância a falhas e disponibilidade permanente; e

Considerar a necessidade de ubiquidade no projeto e desenvolvimento de sistemas, incluindo fatores como ambientes distintos de trabalho e variações em requisitos.

3. O Panorama em 2006

Como era o estado da arte em 2006. O que havia em nível de concepção, pesquisa, tecnologias sendo introduzidas e tecnologias já disseminadas.

4. Progressos até 2011 Como o cenário descrito no item 3 avançou até 2011. O que se tornou obsoleto? Que novas pesquisas e tecnologias surgiram com impacto nesta área? Como está o Brasil em relação ao resto do mundo?

5. Perspectivas para 2016

Page 41: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

41

Quais os novos horizontes para 2016? Que novas tecnologias deverão estar disseminadas nessa época? O que é preciso para melhor a posição brasileira neste desafio?

6. Considerações Finais O que o artigo mostra? Que ideias são importantes e precisam ser consideradas aqui?

Referências

Abaixo as referências encontradas até agora pelos autores:

(?) Nada foi recebido até o presente momento,

Precisamos avançar urgentemente.

Page 42: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

42

As Ações Propostas em 2006

Luiz Antônio Moro Palazzo

Multidisciplinaridade – a evolução da pesquisa e desenvolvimento no século XXI aponta para equipes multidisciplinares como sendo uma das formas mais comuns de obter resultados científicos.

Integração com a indústria – a pesquisa de boa qualidade reverte em benefícios sociais e econômicos.

Transformação da fuga de cérebros em vantagem – vários pesquisadores brasileiros estão sendo atraídos por melhores condições de trabalho no exterior.

Estabelecimento de um centro para discussão de pesquisa – os presentes constataram que v “b ”, como o organizado, são muito raros.

”.

(SBC, Grandes Desafios, 2006)

Page 43: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

43

As Ações Propostas em 2006

Multidisciplinaridade – a evolução da pesquisa e desenvolvimento no século XXI aponta para equipes multidisciplinares como sendo uma das formas mais comuns de obter resultados científicos. Desta forma, recomenda-se duas ações: (a) sensibilizar os pesquisadores em Computação para os problemas inerentes à pesquisa multidisciplinar, como estabelecimento de vocabulário comum e entendimento de diferenças metodológicas na pesquisa em cada ; (b) v v “joint venture” áreas, que visem a formação de profissionais e cientistas que possam trabalhar neste novo mundo, com ênfase em multi e interdisciplinaridade. Exemplos de aplicações multidisciplinares que poderiam ser usadas neste tipo de formação seriam meio ambiente, saúde pública, violência urbana, agropecuária, e-learning, entretenimento digital, telemedicina, história, dentre outros. Tal multidisciplinaridade deve ocorrer não apenas entre a Computação e outros domínios científicos, mas também dentro da Computação. Por exemplo, especialistas em hardware precisam cooperar com especialistas em redes, em bancos de dados, em interação humano-computador.

Integração com a indústria – a pesquisa de boa qualidade reverte em benefícios sociais e econômicos. Neste sentido, a principal ação considerada foi aproximação com a indústria para efeitos do desenvolvimento tecnológico de qualidade e a indicação de novas áreas com o potencial de se transformarem em mercados emergentes.

Transformação da fuga de cérebros em vantagem – vários pesquisadores brasileiros estão sendo atraídos por melhores condições de trabalho no exterior. Eles podem ser usados como contato para aumentar a cooperação em pesquisa do Brasil com o resto do mundo – por exemplo, auxiliando a promoção de congressos internacionais no Brasil, facilitando a vinda de professores visitantes estrangeiros, dentre outras possibilidades.

Estabelecimento de um centro para discussão de pesquisa – os presentes constataram que v “b ”, , ã raros. A maioria dos congressos e seminários em todo mundo segue um padrão básico de apresentação de artigos e discussões em torno de temas específicos. A ação proposta é a criação de um centro para encontros científicos à semelhança de Dagstuhl ou Oberwolfach na Alemanha. Estes centros foram criados para oferecer a cientistas da computação condições de desenvolver pesquisa de ponta. Uma das atividades mais conhecidas de Dagstuhl, por exemplo, são as conferências de até uma semana, em Computação, com no máximo 40 participantes, para discutir e desenvolver ciência de ponta em nível internacional. Cada conferência é proposta com até 3 anos de antecedência a um comitê científico e os participantes pagam apenas os custos de transporte para o local. As acomodações em Oberwolfach servem propósito semelhante nas áreas de Matemática e Teoria da Computação. (ver, por exemplo, www.dagstuhl.de ). .

Page 44: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

44

Meio Caminho Andado

Luiz Antônio Moro Palazzo

“Os desafios propostos (em 2006) exigem cooperação dentro da Computação e com várias outras áreas do conhecimento. Cada um deles engloba um grande conjunto de tópicos de pesquisa de ponta e está centrado em algum aspecto importante da Informática. Várias áreas de pesquisa em Computação aparecem na descrição de todos esses desafios – redes de computadores, gerenciamento de dados, desenvolvimento de software, projeto de algoritmos e estruturas de dados, design de interfaces e novos dispositivos e arquiteturas de computadores são algumas das questões a serem abordadas com maior ou menor ênfase em todos os itens. (...) a Computação permeia hoje todas as atividades científicas. A SBC espera, assim, que esta iniciativa contribua também para o avanço da ciência brasileira em todas as frentes, influenciando várias outras áreas de pesquisa no País. Relatórios produzidos em todo o mundo apontam para o papel fundamental que a Computação desempenha no progresso científico, tecnológico, econômico e social de uma nação. A busca pela excelência científica em Computação, com ênfase na visão em longo prazo, deverá desta forma ter impacto social e econômico duradouro”.

(SBC, Grandes Desafios, 2006)

Page 45: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

45

Meio Caminho Andado

Panorama do "Meio Caminho Andado". Tecnologias emergentes. Principais obstáculos ainda por vencer. Sugestões para os próximos cinco anos.

Page 46: Grandes Desafios da Pesquisa em Computação no Brasil: …infocat.ucpel.tche.br/disc/tac/docs/TAC-V4.pdf · 2 Sumário 1. Apresentação: Os Grandes Desafios Luiz Antônio Moro Palazzo

46

Bibliografia