151
São Paulo Regional Analysis Center – SPRACE Abril 2008 Projeto Temático Centro Regional de Análise de São Paulo: Participação nos Experimentos DZero e CMS Universidade de São Paulo (USP) Universidade Estadual Paulista (UNESP) Universidade Federal do ABC (UFABC)

Scientific Project (2008)

Embed Size (px)

Citation preview

Page 1: Scientific Project (2008)

São Paulo Regional Analysis Center – SPRACE Abril 2008

Projeto Temático Centro Regional de Análise de São Paulo: Participação nos Experimentos DZero e CMS

Universidade de São Paulo (USP) Universidade Estadual Paulista (UNESP) Universidade Federal do ABC (UFABC)

Page 2: Scientific Project (2008)

2

Índice

I.  RESUMO ................................................................................................................................. 6 

II.  SUMMARY .............................................................................................................................. 7 

III.  INTRODUÇÃO ....................................................................................................................... 8 

Física de Altas Energias ................................................................................................. 8 

Participação no Fermilab .............................................................................................. 9 

Participação no CERN ................................................................................................... 9 

As Iniciativas de Grid................................................................................................... 10 

Pesquisas em Redes Ópticas Avançadas ................................................................. 11 

Breve Histórico e Produção Científica do Grupo ...................................................... 11 

Principais Resultados Obtidos ..................................................................................... 12 

IV.  A FÍSICA DE ALTAS ENERGIAS EM ACELERADORES ....................................................... 16 

Introdução .................................................................................................................... 16 

Principais Desafios ....................................................................................................... 17 

Modelo Padrão ............................................................................................................ 18 Interações fortes ........................................................................................................... 18 Quark Top ....................................................................................................................... 19 Física Eletrofraca ........................................................................................................... 19 

Bóson de Higgs ............................................................................................................ 19 

Física Além do Modelo Padrão .................................................................................. 21 Supersimetria .................................................................................................................. 21 Dimensões Extras ........................................................................................................... 22 Nova Dinâmica na Região de 1 TeV ......................................................................... 24 Novos Bósons de Gauge ............................................................................................. 24 

V.  OS EXPERIMENTOS DZERO E CMS .................................................................................... 25 

O Experimento DZero .................................................................................................. 25 Sistema de Rastreamento Central (CT) .................................................................... 26 Sistema de Calorímetros .............................................................................................. 28 Sistema de Múons ......................................................................................................... 28 

Page 3: Scientific Project (2008)

3

Sistema de Detectores de Prótons Frontais .............................................................. 29 

O Experimento CMS ..................................................................................................... 30 Sistema de Rastreamento ........................................................................................... 31 Calorímetro Eletromagnético ..................................................................................... 33 Calorímetro Hadrônico ................................................................................................ 34 Sistema de Múons ......................................................................................................... 35 

VI.  ANÁLISES FÍSICAS ............................................................................................................... 38 

Introdução .................................................................................................................... 38 

Análises Físicas no DZero. ........................................................................................... 38 O Processo de Análises dos Dados ............................................................................ 38 Análise em Dimensões Extras Universais: Resultados parciais ................................ 40 

Análises Físicas no CMS .............................................................................................. 43 O Sistema de Software do CMS ................................................................................. 43 Participação nos grupos de análise no CMS ........................................................... 47 

VII.  PROCESSAMENTO DE DADOS .......................................................................................... 50 

O SPRACE e o Processamento no CMS ...................................................................... 50 

Infra-Estrutura Física ..................................................................................................... 51 Espaço físico e recursos computacionais ................................................................. 51 Infra-estrutura de rede elétrica ................................................................................... 51 Infra-estrutura de rede de dados ............................................................................... 52 Infra-estrutura de processamento e armazenamento de dados ........................ 59 

Infra-Estrutura de Software .......................................................................................... 61 Elemento de Computação ......................................................................................... 64 Nós de Trabalho ............................................................................................................ 65 Elemento de Armazenamento ................................................................................... 65 Nós de Armazenamento do dCache ....................................................................... 66 

VIII.  COLABORAÇÕES E PARCERIAS ....................................................................................... 67 

Nacionais ...................................................................................................................... 67 DFNAE/UERJ: Departamento de Física Nuclear e Altas Energias ......................... 67 Projeto Giga: Rede Nacional de Ensino e Pesquisa ................................................ 68 Projeto KyaTera: TI no Desenvolvimento da Internet Avançada .......................... 71 

Internacionais............................................................................................................... 74 OSG: Open Science Grid ............................................................................................. 74 CHEPREO: ....................................................................................................................... 78 

Page 4: Scientific Project (2008)

4

Center for High Energy Physics Research & Education Outreach ........................ 78 UltraLight: Ultrascale Information System for Data Intensive Research ................ 79 EELA: E-infrastructure shared between Europe and Latin America ...................... 83 

IX.  PROJETOS INDUZIDOS ........................................................................................................ 86 GridUNESP ....................................................................................................................... 86 Grid Educacional .......................................................................................................... 89 Um Cartaz em Cada Escola ....................................................................................... 93 MasterClass .................................................................................................................... 95 

X.  PEDIDOS ASSOCIADOS E COMPLEMENTARES ............................................................... 96 

XI.  CRONOGRAMA DE EXECUÇÃO ...................................................................................... 97 

XII.  ORÇAMENTO FINANCEIRO: JUSTIFICATIVAS .................................................................. 98 

Introdução .................................................................................................................... 98 

Justificativas técnicas para o orçamento de hardware ........................................ 101 

Justificativa Detalhada .............................................................................................. 103 Aumento do poder de processamento .................................................................103 Aumento da capacidade de armazenamento ...................................................104 Aquisição de equipamento de rede adequado ..................................................105 Aquisição de servidores de apoio ...........................................................................106 Ampliação da capacidade de backup ................................................................106 Equipamentos, partes e peças auxiliares para o datacenter ............................107 Equipamentos auxiliares para apoio à pesquisa ..................................................109 

Serviços de Terceiros no Exterior – M&O .................................................................. 109 

XIII.  RESUMO DO ORÇAMENTO SOLICITADO ......................................................................113 

XIV.  DESCRIÇÃO DA EQUIPE ..................................................................................................117 

XV.  RESULTADOS DE AUXÍLIOS ANTERIORES ........................................................................121 Projeto Temático da FAPESP .....................................................................................121 Jovem Pesquisador em Centros Emergentes da FAPESP .....................................121 ProINFRA 01/2005 do MCT/FINEP/CT-INFRA ............................................................121 Projetos de Difusão e Popularização da Ciência e Tecnologia do CNPq ........121 Visita, Estágio, Curso ou Intercâmbio do CNPq .....................................................122 Visita, Estágio, Curso ou Intercâmbio do CNPq .....................................................122 

XVI.  MÉTRICA E AVALIAÇÃO ..................................................................................................123 

Page 5: Scientific Project (2008)

5

XVII.  CARTAS DE APOIO AO PROJETO ..................................................................................124 

APÊNDICES .....................................................................................................................................131 

Projetos de Iniciação Científica ............................................................................... 132 Fundamentos da Física Experimental de Altas Energias ......................................133 Bases Experimentais da Física de Altas Energias ...................................................135 Computação em Física Experimental de Altas Energias .....................................137 

Projetos de Pós-Doutorado ....................................................................................... 139 A Física de Quarks Pesados no CMS ........................................................................140 Busca por Supersimetria no CMS ..............................................................................143 Busca por Dimensões Extras no CMS .......................................................................146 Busca por Dimensões Extras de Randall-Sundrun ..................................................149 

Projetos de Treinamento Técnico ............................................................................. 151 Administração dos Sistemas de Processamento e de Armazenamento ..........152 Administração de Rede e de Infra-Estrutura Computacional ............................154 

Page 6: Scientific Project (2008)

6

I. Resumo A Física de Altas Energias tem por objetivo investigar a natureza dos constituintes

elementares da matéria e as interações fundamentais. Os aceleradores de partículas têm desempenhado um papel fundamental nestas investigações, sendo o Tevatron do Fermilab e o Large Hadron Collider do CERN os mais potentes já construídos.

Reconhecendo a importância da participação de pesquisadores do Estado de São Paulo nos experimentos que são realizados nestes aceleradores, foi criado em 2003, com o apoio da FAPESP, o Centro Regional de Análise de São Paulo (São Paulo Regional Analysis Center – SPRACE), o qual congrega os pesquisadores de instituições paulistas atuando nas colaborações DZero do Fermilab e Compact Muon Solenoid (CMS) do CERN.

Para dar suporte aos pesquisadores e contribuir para o processamento, armazenamento e análise dos dados produzidos nesses experimentos, foi implantado um centro de computação que conta atualmente com mais de um Teraflop de poder de processamento. O SPRACE iniciou suas operações de processamento de dados para o DZero em março de 2004, associado ao Distributed Organization for Scientific Analysis and Research (DOSAR). Integrou-se em seguida ao SAMGrid, o sistema de processamento distribuído do experimento DZero e, em 2005, tornou-se parte do Open Science Grid (OSG), consórcio americano de universidades, laboratórios nacionais e centros de computação, formando com estes um grande grid computacional de mútiplos propósitos. Através da infra-estrutura de middleware do OSG, o SPRACE vem participando ativamente das atividades de processamento de dados do experimento DZero e atuando como uma Tier-2 da estrutura computacional hierárquica do experimento CMS, em preparação para a entrada em operação do LHC em 2008.

Os membros do SPRACE participam da análise física dos dados produzidos pelo DZero associados ao grupo de “Novos Fenômenos” da colaboração, o qual procura por sinais de Física Além do Modelo Padrão. Em particular, estamos investigando a possibilidade de existência de novas dimensões espaciais através do estudo da produção de três léptons isolados. Estamos também nos preparando para a análise de dados do CMS, onde iniciamos investigação neste mesmo tema.

O ensino e a divulgação científica tem sido uma preocupação constante do SPRACE. Vimos elaborando um conjunto de cursos de formação na área e disponibilizando o material didático na web, permitindo o acompanhamento dos cursos à distância. O projeto “Estrutura Elementar da Matéria: Um Cartaz em Cada Escola” permitiu que se levasse a todas as escolas do segundo grau do País informação sobre os constituintes da matéria e suas interações, provendo também um Fórum de Discussão onde estudantes e professores de todo o país possam trocar conhecimentos.

O SPRACE tem interagido e gerado competência nas áreas com as quais se relaciona. Temos desempenhado um importante papel na formação de recursos humanos não apenas em Física de Altas Energias, mas também em redes ópticas de alta velocidade, processamento de alto desempenho e, acima de tudo, na arquitetura Grid de computação distribuída. Por iniciativa do SPRACE, está sendo implantado na Unesp o primeiro “Campus Grid” da América Latina que contará com oito centros de processamento e armazenamento de dados distribuídos pelo Estado de São Paulo e interligados através da arquitetura grid.

Page 7: Scientific Project (2008)

7

II. Summary High Energy Physics investigates the elementary constituents of matter and the

fundamental interactions. Particles accelerators, like the Tevatron at Fermilab and the Large Hadron Collider at CERN, are among the most complex and sophisticated scientific instruments ever built and they have been playing a fundamental role on these investigations.

The São Paulo Regional Analysis Center (SPRACE) was implemented in 2003, with financial support from FAPESP, to provide the necessary means for the participation of high energy physics researchers from the State of São Paulo in these experiments.

SPRACE congregates members of the DZero Collaboration at Fermilab and of the Compact Muon Solenoid (CMS) Collaboration at CERN. The SPRACE computing center provides more than one Teraflop of computing power and it have been contributing for the processing, storage and analysis of the data produced by these experiments. SPRACE initiated its operations in March 2004, associated with the Distributed Organization for Scientific Analysis and Research (DOSAR). It was integrated soon after to the SAMGrid, the distributed processing system of the DZero experiment. In 2005, SPRACE became part of the Open Science Grid (OSG), a consortium of universities, national laboratories and computing centers, which share a grid infrastructure over research networks via a common middleware. By means of the Open Science Grid, SPRACE is actively participating in the Monte Carlo generation and data reprocessing of the DZero experiment and it has become a Tier-2 in the hierarchical computing structure that is being used by the CMS experiment in preparation for the start of LHC's operation this year.

The members of SPRACE are working in the physical analysis of the data produced by DZero. We are associated to the New Phenomena group which is dedicated to the search of new physics beyond the standard model. In particular, we are investigating the possible existence of extra spatial dimensions through the study of isolated lepton production. We are also preparing ourselves for the CMS data analysis.

SPRACE has a strong commitment to teaching and outreach activities. We are elaborating a set of courses in high energy physics and related subjects. This didactic material is available on the web and allowing students to use its content in distance learning. Our outreach project “The Elementary Structure the Matter: A Poster in Each School” has distributed to all high schools in Brazil a poster explaining the essential knowledge on this so important yet missing subject. This project is also providing a site and a discussion forum on the web to answer questions of teachers and students.

SPRACE is also leveraging competences in different research areas by sharing some of the expertise generated by high energy physics spin-offs like high-speed networks, high performance computing, and grid architecture. SPRACE inspired and leads the GridUNESP project which is deploying the first “Campus Grid” in Latin America, composed of eight data processing and storage centers distributed all over the State of São Paulo and interconnected through the grid architecture.

Page 8: Scientific Project (2008)

8

III. Introdução Física de Altas Energias

A Física de Altas Energias tem por objetivo a investigação dos constituintes fundamentais da matéria e a compreensão das forças básicas que atuam entre eles. Ela é uma das áreas da ciência de maior tradição no Brasil e seu surgimento coincide com o início da pesquisa científica em Física no Brasil na década de 1930, com a formação, por Gleb Wataghin, do grupo experimental de raios cósmicos da Universidade de São Paulo. Muitas gerações de físicos se formaram na área desde então, dentre os quais podemos destacar Marcello Damy, Cesar Lattes, José Leite Lopes, Paulus Pompéia, Roberto Salmeron, Mario Schenberg, Jorge André Swieca e Jayme Tiomno. Dentre as pesquisas de maior repercussão internacional, na área experimental, estão os trabalhos pioneiros sobre os chuveiros penetrantes e a descoberta dos mésons π, os quais contaram com a participação decisiva de Cesar Lattes. O prêmio Nobel de Física de 1950 foi concedido ao pesquisador Cecil Frank Powell, chefe do grupo da Universidade de Bristol, responsável por esta descoberta.

Atualmente a Física Experimental de Altas Energias utiliza os mais complexos aparatos científicos jamais construídos, os aceleradores de partículas. Desde a década de 1980 o Brasil participa dos experimentos mais relevantes da área, os quais são realizados em aceleradores localizados nos EUA e Europa.

Além de sua contribuição para a ciência básica, a Física de Altas Energias é responsável, direta ou indiretamente, por uma série de importantes avanços tecnológicos, entre os quais podemos citar: a World Wide Web, originalmente desenvolvida no CERN para compartilhar dados e informações entre físicos; o tratamento do câncer através de feixes de partículas; a construção de magnetos supercondutores que permitiram o desenvolvimento dos aparelhos de ressonância magnética; o desenvolvimento de circuitos integrados avançados e instrumentos de aquisição e processamento de dados; e a utilização de técnicas e aparatos inovadores que posteriormente vieram a ser tornar padrão, tais como as fibras ópticas.

O objetivo principal desse projeto é possibilitar a participação do grupo do Centro Regional de Análise de São Paulo (São Paulo Regional Analysis Center – SPRACE)1 no experimento DZero do Tevatron no Fermi National Accelerator Laboratory (Fermilab) e no Compact Muon Solenoid (CMS) do Large Hadron Collider (LHC) no CERN.

Tratam-se dos dois principais experimentos de Física de Altas Energias da atualidade: o Tevatron vem tomando dados, em seu segundo Run, desde março de 2001 e o Large Hadron Collider deverá injetar seu primeiro feixe nos próximos meses. O presente projeto permitirá que o Estado de São Paulo esteja representado nesse experimento que deverá dominar o cenário científico durante a próxima década e trazer importantes contribuições para nosso conhecimento acerca dos constituintes fundamentais da matéria e suas interações. Desde a possível descoberta do bóson de Higgs, passando pela investigação de partículas supersimétrica até a exploração dimensões extras, a pesquisa de fronteira na área certamente passará pelo LHC.

1 http://www.sprace.org.br/

Page 9: Scientific Project (2008)

9

Participação no Fermilab Desde 1999 nosso grupo faz parte da Colaboração DZero do Fermilab, situado

nas proximidades de Chicago, EUA. O Fermilab, fundado em 1967, é operado por um consórcio de universidades norte-americanas e financiado pelo Departamento de Energia (DOE). Ele tem um orçamento de aproximadamente US$ 350 milhões de dólares anuais, sendo responsável por 40% de todos os gastos dos EUA com a área. O Tevatron do Fermilab é o acelerador de partículas com maior energia em operação atualmente, possuindo 6,3 km de circunferência e colidindo prótons contra antiprótons a uma energia de 2 TeV. Seu objetivo é reproduzir as condições extremas existentes no início do Universo em seu primeiro décimo de bilionésimo de segundo após a grande explosão inicial, o Big Bang.

O detector DZero tem por objetivo identificar a trajetória, energia, momento e demais características das partículas produzidas na aniquilação próton-antipróton. Com a forma de um cilindro de 14 metros de diâmetro e 20 metros de comprimento, o detector pesa 18,5 mil toneladas e possui 250 mil canais de eletrônica de coleta de dados. A colaboração internacional que trabalha com o detector DZero é formada por 670 físicos pertencentes a 84 instituições de 20 países. Desde maio de 1999 o nosso grupo paulista faz parte dessa colaboração trabalhando em hardware, software, e agora, em análise de dados.

Participação no CERN

O CERN, fundado em 1954 por um consórcio de 12 países europeus, é o maior laboratório de física de partículas do mundo e conta atualmente com 20 países membros. Seu acelerador, o Large Hadron Collider (LHC), iniciará suas operações em 2008 colidindo prótons com prótons a uma energia de 14 TeV. Quatro detectores compõem o aparato experimental que irá investigar as reações produzidas no LHC. Desses quatro detectores, dois deles têm propósito geral e capacidade de investigar todo e qualquer aspecto da Física envolvida nessas reações: o Atlas (A Toroidal LHC ApparatuS) e o CMS (Compact Muon Solenoid). Os demais experimentos têm um foco bastante específico e um objeto de investigação limitado. O LHCb (LHC beauty) visa estudar apenas a física do quark bottom (ou beauty) com o intuito de fazer medidas precisas da violação de CP e estudar decaimentos raros, enquanto o Alice (A Large Ion Collider Experiment) tem o objetivo de analisar colisões envolvendo íons pesados visando o estudo do plasma de quarks e glúons.

A partir de 2002 nosso grupo tornou-se membro da colaboração Compact Muon Solenoid (CMS), que projetou, construiu e opera um dos detectores instalados no anel do LHC. Com 21 metros de comprimento e 15 metros de diâmetro, pesando 12,5 mil toneladas e contando com um campo magnético de 4 Tesla, o CMS tem como objetivo investigar de forma ampla e exaustiva as interações fundamentais da natureza na escala de 1 TeV. O item mais destacado de sua agenda é a busca pelo bóson de Higgs. O mecanismo que prediz a existência dessa partícula é, no Modelo Padrão, o responsável pela geração de massa das partículas elementares.

A colaboração CMS envolve mais de 2 mil pesquisadores pertencentes a 182 instituições de 39 países. Colaborações desse porte requerem excelente interconexão entre os diferentes grupos, além de capacidade de processamento e análise da

Page 10: Scientific Project (2008)

10

enorme quantidade de dados que será produzida. O CMS produzirá a cada segundo uma quantidade de dados equivalente ao de 10 mil Enciclopédias Britânicas. Estima-se que em uma década esse conjunto de dados atinja a marca de Exabyte (1 bilhão de gigabytes).

O tratamento do enorme volume de dados que será produzido no CERN requereu a criação de um conceito revolucionário de computação distribuída de alto desempenho: o Grid. Os experimentos do LHC adotaram um modelo hierárquico de Grid onde centros regionais espalhados pela Europa, Américas e Ásia são integrados, formando um ambiente único de processamento.

De forma análoga ao que ocorreu com a World Wide Web, cuja ubiqüidade vem promovendo uma revolução em todos os setores da sociedade, espera-se que os reflexos dos Grids computacionais se façam sentir muito além da Física de Altas Energias. Recursos empregados em projetos dessa natureza são amplamente compensados pelos ganhos que trazem em forma de geração de inovação tecnológica e de competências em diversas áreas, propiciando condições excepcionais para o treinamento de profissionais em tecnologia da informação e áreas correlatas.

As Iniciativas de Grid

A Física de Altas Energias tem liderado internacionalmente as iniciativas na área de Grids computacionais. O alcance dessa nova arquitetura tem atingido diretamente diversas outras áreas da ciência que requerem grande poder de processamento de dados. Por exemplo, o Open Science Grid (OSG), infra-estrutura de Grid computacional norte-americana, vem processando dados para experimentos de Astronomia e Astrofísica (Sloan Digital Sky Survey e LIGO), Nanotecnologia (nanoHUB), Análise Genômica (ANL), Bioinformática (GRASE) e outros, além da Física de Altas Energias (ATLAS, CMS).

Nosso grupo tem participado dessas iniciativas internacionais com a implantação do SPRACE. Por meio de Projeto Temático da FAPESP, foi implantado um cluster de computadores que conta hoje com 240 processadores, representando um poder computacional de mais de 1 Teraflop e 20 Terabytes de capacidade de armazenamento.

O cluster do SPRACE tem se dedicado ao processamento remoto dos dados da Colaboração DZero realizado juntamente com o WestGrid do Canadá, CCIN2P3 da França, GridKa da Alemanha e com o GridPP e PPARC, da Inglaterra. O SPRACE está integrado ao Open Science Grid (OSG)2 e ao Worldwide LHC Computing Grid (WLCG)3 como um centro regional de classe Tier 2 do CMS, operando em conjunto com seus congêneres americanos de Caltech, Florida, MIT, Nebraska, Purdue, UC San Diego e Wisconsin e associado ao Tier 1 do Fermilab.

O Programa de Integração da Capacidade Computacional da Unesp (GridUNESP) foi inspirado no SPRACE, e tem sido coordenado pelo nosso grupo. O GridUNESP visa atender à demanda de docentes, pesquisadores e grupos de pesquisa cujos projetos científicos requerem grande capacidade de processamento e

2 http://www.opensciencegrid.org/ 3 http://lcg.web.cern.ch/LCG/

Page 11: Scientific Project (2008)

11

armazenamento de dados. Esse programa está implantando centros de processamento locais, interligados pela arquitetura Grid. Essa estrutura de computação distribuída possibilitará também a agregação dos recursos já existentes, racionalizando sua utilização e aumentando a potencialidade do parque computacional da Unesp.

Pesquisas em Redes Ópticas Avançadas O SPRACE associou-se ao Projeto KyaTera4, parte do Programa de Tecnologia da

Informação no Desenvolvimento da Internet Avançada (TIDIA), com uma proposta de trabalho onde são buscadas novas soluções para o problema do monitoramento e escalonamento de recursos de rede associado ao gerenciamento de redes ópticas controladas pelos próprios usuários. Essa proposta envolve também pesquisadores da Escola Politécnica da USP, da Faculdade de Engenharia Elétrica e de Computação da Unicamp e da Unesp. Esse trabalho vem sendo desenvolvido em estreita colaboração com o projeto UltraLight5, financiado pela National Science Foundation (NSF) e liderado pelo California Institute of Technology (Caltech). Como resultado imediato desse trabalho, podemos antever a inclusão do Brasil nesse ambicioso projeto de controle e manipulação da infra-estrutura óptica, de escala mundial, garantindo assim a transferência dessas novas tecnologias.

O SPRACE vem participando dos Bandwidth Challenges da conferência SuperComputing que busca atingir recordes de velocidade de transmissão de dados para um único sistema. Nosso grupo, em 2004, foi capaz de transferir por uma hora, de forma sustentada, dados a uma velocidade de 2,93 Gbps, recorde de transmissão entre os hemisférios norte e sul. Em 2005, pelo segundo ano consecutivo, o grupo internacional de Física de Altas Energias venceu esse desafio com uma transferência sustentada, envolvendo várias instituições ao redor do mundo, de 101 Gbps.

Breve Histórico e Produção Científica do Grupo O nosso grupo de Física Experimental de Altas Energias teve seu início em 1999,

com a entrada na Colaboração DZero de um pesquisador da Unesp e de um pós-doutorando da Fapesp. A partir de 2005 o grupo também se engajou no experimento CMS do CERN.

Em outubro de 2003 foi aprovado pela Fapesp um Projeto Temático para a implementação do São Paulo Regional Analysis Center. Esse projeto permitiu a aquisição do cluster computacional do SPRACE. Em julho de 2004 foi aprovado um projeto Jovens Pesquisadores em Centros Emergentes, que permitiu que mais dois pós-doutores, com grande experiência internacional, se unissem ao grupo.

É importante ressaltar que um dos “Jovens Pesquisadores” foi contratado, em agosto de 2006, como Professor Adjunto pela Universidade Federal do ABC, tendo recentemente assumido o cargo de Pró-Reitor de Pós-Graduação. Em dezembro de 2007, outro membro do grupo foi contratado como Professor Colaborador no IFT/Unesp.

Nosso grupo tem gerado significativa produção científica. Desde 2005 foram publicados mais de 80 artigos em revistas internacionais arbitradas, todas classificadas

4 http://www.kyatera.fapesp.br/ 5 http://ultralight.caltech.edu

Page 12: Scientific Project (2008)

12

como “Qualis A” pela Capes e com excelente fator de impacto. Esses artigos deram origem a mais de 1700 citações, conforme o banco de dados SPIRES, do Stanford Linear Accelerator Center (SLAC). A lista completa dos artigos publicados pode ser encontrada no link abaixo 6.

Finalmente, é importante ressaltar que nosso grupo de Física Experimental de Altas Energias é um dos poucos grupos brasileiros a participar das grandes colaborações internacionais do LHC do CERN. O fortalecimento deste grupo tem grande importância para a produção científica e inserção internacional das universidades do Estado de São Paulo.

Principais Resultados Obtidos Desde novembro de 2003, quando se iniciou o projeto do SPRACE, financiado

pelo Temático da FAPESP (Processo 03/04519-9), foram alcançadas importantes realizações, o que nos fez atingir todos os objetivos propostos inicialmente. Dentre elas, vale à pena mencionar:

1. Foi implantada a infra-estrutura física (rede óptica, rede elétrica, ar condicionado, etc.) do datacenter do SPRACE no Centro de Ensino e Pesquisa Aplicada (CEPA) do Instituto de Física da USP;

2. A primeira etapa do cluster do SPRACE foi adquirida, instalada, configurada, testada e entrou em operação no dia 23 de março de 2004 com a realização da primeira simulação de Monte Carlo para o DZero. O tempo recorde de implantação do nosso sistema foi mencionado em sessão plenária da conferência Computing in High Energy Physics de 2004, em Interlaken, Suíça por Amber Boehnlein;

3. O cluster do SPRACE, conforme o projeto inicialmente proposto, foi ampliado em duas etapas subseqüentes atingindo um total de 86 nós com um total de 240 núcleos de processamento;

4. O SPRACE teve uma participação destacada nos reprocessamentos de dados, com clusters dos EUA, Canadá e Europa, e na produção de dados de Monte Carlo da colaboração DZero;

5. O SPRACE tornou-se em 2005 um site do Open Science Grid e passou a atuar como uma Tier 2 dentro da estrutura hierárquica de processamento do LHC;

6. Participamos do Computing, Software, & Analysis Challenge 2006 da Colaboração CMS do CERN em preparação para o processamento de dados do LHC;

7. Foi aprovado projeto “Jovem Pesquisador em Centro Emergente” pela FAPESP que permitiu o financiamento de três pesquisadores atuando junto ao projeto;

8. Um dos membros do grupo (Eduardo Gregores) foi enviado pela colaboração DZero para implantar o cluster de processamento do grupo da University of Science and Technology da China em Hefei, capital da província de Hanui;

9. O SPRACE promoveu o treinamento e participação em eventos realizados no Brasil e no exterior, de diversos de seus membros, sempre com financiamento externo ao projeto:

6 http://tinyurl.com/37wqhs

Page 13: Scientific Project (2008)

13

• Pan-American Advanced Studies Institute (PASI), "Grid Computing and Advanced Networking Technologies for e-Science”, Mendoza, Argentina, de 15 a 22 de maio de 2005 – financiamento National Science Foundation (NSF);

• UltraLight Summer Workshop Tutorial, Miami, Flórida, de 8 a 10 de junho de 2005 – financiamento CHEPREO Project;

• Grid Summer Workshop 2005, South Padre Island, Texas, de 11 a 15 de julho de 2005 – financiamento da University Texas at Brownsville e NSF;

• CERN School of Computing 2006, Helsinki, Finland, de 21 de agosto a 01 de setembro de 2006 – financiamento da European Union (Marie Curie program);

• LISHEP Advanced School on Collider Physics, Rio de Janeiro, 26 a 31 de março de 2006 – financiamento do comitê organizador;

• The Hadron Collider Physics Summer School – Fermilab, 9 a 18 agosto de 2006 – financiamento CNPq e comitê organizador;

• 2nd Southeastern CMS Physics Analysis Workshop, Miami, EUA, de 7 a 9 fevereiro de 2007 – finaciamento projeto CHEPREO;

• BELIEF-EELA e-Infrastructures Conference, Rio de Janeiro, 25 a 28 junho de 2007 – financiamento EELA Project;

• 2nd EELA Workshop e 3rd EELA Tutorial for Users and Administrators, Rio de Janeiro, 24 a 30 de junho de 2006 – financiamento EELA Project;

• 1st EELA Grid School, Ilha de Itacuruçá, Rio de Janeiro, de 4 a 15 de dezembro de 2006 – financiamento: CTI / USP;

• 7th IEEE International Symposium on Cluster Computing and the Grid (CCGrid'07), Barra da Tijuca, Rio de Janeiro, de 14 a 17 de maio de 2007 – financiamento Sociedade Brasileira de Computação (SBC);

• Workshop de Pesquisa & Desenvolvimento do Projeto GIGA / RNP, LNCC, Petrópolis, Rio de Janeiro, de 3 a 6 de setembro de 2007 – financiamento Projeto GIGA;

• 19th Symposium on Computer Architecture and High Performance Computing (SBAC-PAD'07), Gramado, Rio Grande do Sul, de 24 a 27 de outubro de 2007 – financiamento do próprio participante;

• Short-Term Training (STT), CERN, Genebra, Suíça, várias visitas – financiamento High Energy Physics Latinamerican-European Network (HELEN);

• Florida International Grid School 2008, Miami, de 23 a 25 de janeiro de 2008 – financiamento do projeto CHEPREO.

10. O SPRACE recebeu as seguintes doações: • Seis servidores de processamento Infoserver 1252 através de convênio de

cooperação científica e tecnológica que foi assinado com a Itautec Philco S.A – valor estimado R$ 82.300,00;

• Um switch Cisco Catalyst 3750G-24TS-24 com 24 portas 10/100/1000 e 4 small form-factor pluggable (SFP) uplinks do Prof. Harvey Newman do Caltech – valor estimado US$ 14.200,00;

• Um GBic de curto alcance do Prof. Harvey Newman do Caltech – valor estimado de US$ 1.300,00;

• Um GBic de longo alcance do Prof. Harvey Newman do Caltech – valor estimado de US$ 5.100,00.

Page 14: Scientific Project (2008)

14

11. Foram estabelecidas várias colaborações nacionais e internacionais: • Giga/RNP; • Kyatera/FAPESP; • Distributed Organization for Scientific Analysis and Research – DOSAR; • Open Science Grid – OSG; • Center for High Energy Physics Research, Education and Outreach –

CHEPREO; • E-Infraestructure shared between Europe and Latin America – EELA2; • Ultrascale Information System for Data Intensive Research – UltraLight.

12. O SPRACE participou de vários desafios de transmissão de dados (Bandwidth Challenges) tendo batido o recorde de velocidade de transmissão entre os Hemisférios Norte e Sul com uma taxa sustentada de 2,93 Gbps em 2004;

13. Foram promovidos vários eventos científicos, entre eles: • VI DOSAR Workshop; • I Brazilian LHC Computing Workshop; • I Workshop do SPRACE; • CMS Tutorial.

14. O grupo do SPRACE participa da análise física de dados buscando evidência de dimensões extras nos eventos do DZero e está iniciando a análise das conseqüências do modelo de Randall-Sundrun na escala de 1 TeV, o que será estudado com a ajuda dos dados do LHC;

15. O SPRACE foi o idealizador e coordenador do GridUNESP, onde o conceito de computação de alto desempenho em grid foi empregado para implantar o primeiro Campus Grid da América Latina. Este projeto teve o maior orçamento aprovado (R$ 4,4 milhões) pelo MCT/FINEP/CT-INFRA dentre todos os projetos concedidos pelo PROINFRA de 2005;

16. O projeto “Estrutura Elementar da Matéria: Um Cartaz em Cada Escola”, implementado pelo SPRACE, elaborou e distribuiu cartazes para todas as escolas do Ensino Médio do país contendo informação sobre os constituintes da matéria e suas interações, além de manter um Fórum de Discussão para estudantes e educadores;

17. Os pesquisadores do SPRACE foram co-autores de mais de 80 artigos científicos publicados em revistas internacionais arbitradas, tendo recebido mais de 1700 citações conforme o SPIRES/SLAC, com fator h igual a 22;

18. Os pesquisadores principais do projeto SPRACE foram convidados pela Editora da UNESP a escrever o livro “Da Internet ao Grid: A Globalização do Processamento” (ISBN: 9788571397378), volume da série Novas Tecnologias da “Coleção Paradidáticos”7;

19. Além da webpage do projeto, foi implantada ferramenta colaborativa do tipo Wiki que tem servido como repositório de informação. O site contém inventário completo do cluster, descrição detalhada da infra-estrutura física, instruções e logbook da operação do cluster, agenda de reuniões e relação de tarefas, etc.;

7 http://www.editoraunesp.com.br/titulo_view.asp?IDT=757

Page 15: Scientific Project (2008)

15

20. O SPRACE foi objeto de matéria em diversos órgãos da imprensa, entre eles: • Folha de São Paulo; • Revista INFO Exame; • Science Grid This Week; • Revista Pesquisa da FAPESP; • Revista Siga.

Page 16: Scientific Project (2008)

16

IV. A Física de Altas Energias em Aceleradores Introdução

O Modelo Padrão das interações eletrofraca e forte tem descrito com grande sucesso a física das partículas elementares. Até o presente, as predições teóricas deste modelo estão de acordo com diversos resultados experimentais obtidos em aceleradores de partículas, desde o descobrimento dos bósons vetoriais W e Z, até os testes de precisão do Large Electron Pósitron (LEP), que corroboraram o modelo em um nível de precisão de 1 por mil. Além disso, as descobertas do quark top e do neutrino do tau, ambas no Fermilab, confirmaram a existência de três, e apenas três, gerações fermiônicas. Mais recentemente, o LEP2 e o Run II do Tevatron testaram os acoplamentos tríplices γWW e ZWW e nenhum desvio em relação ao Modelo Padrão foi observado.

Apesar de bem sucedido, um aspecto fundamental do Modelo Padrão precisa ser ainda devidamente elucidado: o mecanismo da quebra espontânea da simetria eletrofraca, responsável pela geração de massa dos férmions e bósons de gauge do modelo. Em sua versão mínima, esse mecanismo prevê a existência de uma partícula escalar neutra, o bóson de Higgs. Tanto o Run II do Tevatron como o LHC têm como um de seus objetivos prioritários a busca por esta partícula. A descoberta do bóson de Higgs, ou de um mecanismo similar para a quebra de simetria eletrofraca, significará um grande passo para um entendimento mais profundo da natureza.

O Modelo Padrão em sua versão mínima não deve ser encarado, no entanto, como a teoria final. Ele tem um número excessivo de parâmetros arbitrários, o que parece indicar nossa ignorância do processo de geração de massas e da estrutura de sabor. Também deixa de lado problemas cruciais da cosmologia, como a geração da assimetria matéria-antimatéria e natureza da matéria e energia escuras, além de não incluir uma descrição da interação gravitacional.

É natural então considerá-lo como um modelo efetivo, válido apenas até uma dada escala de energia a partir da qual uma nova física deve, necessariamente, se manifestar. Do ponto de vista teórico, ao considerarmos o Modelo Padrão como uma teoria efetiva, o setor escalar apresenta problemas de instabilidade às correções radiativas: o surgimento de divergências quadráticas nas correções de massa do bóson de Higgs. Desta forma, para que a quebra de simetria ocorra na escala eletrofraca, é preciso um ajuste muito preciso de parâmetros do modelo na escala em que a nova física se faça presente. Para contornar esse problema aparecem as teorias supersimétricas e teorias envolvendo dimensões extras. De qualquer forma esperamos obter indícios de uma nova física já na escala de 1 TeV. Em outras palavras, a investigação desta escala é de grande importância: ou haverá o completo entendimento do Modelo Padrão inclusive do setor de quebra de simetria ou, por outro lado, aparecerão indícios de uma física além do Modelo Padrão capaz de resolver alguns dos problemas que não encontram explicação neste modelo.

O Tevatron, agora operando em sua segunda fase, com luminosidade muito mais alta, permite que seus experimentos restrinjam os vínculos sobre o bóson de Higgs e obtenham alguma indicação desta física nova, tal como a supersimetria, dimensões extras, leptoquarks, novos bósons vetoriais massivos, entre outros.

Page 17: Scientific Project (2008)

17

O LHC foi especificamente projetado para escrutinar minuciosamente a física na escala de TeV. Seus principais objetivos são8: elucidar o mecanismo da quebra da simetria eletrofraca, em particular a busca pelo bóson de Higgs; estudar eventos na escala de 1 TeV em busca de fenômenos não explicados pelo Modelo Padrão; e finalmente fazer medidas de precisão dos parâmetros do Modelo Padrão. A seguir detalhamos os principais desafios que teremos pela frente ao explorar essa escala de energia assim como os aspectos da física a ser estudada, com especial ênfase no CMS.

Principais Desafios As principais características do LHC são a alta energia e luminosidade que

permitirão uma produção abundante de vários processos do Modelo Padrão e a exploração de um novo território de energia. Essa energia e luminosidade, no entanto, representam um grande desafio para os experimentos. Na Figura 1 vemos a seção de choque para vários processos em função da energia para um acelerador hadrônico. Notamos que para processos de grande momento transversal (pT) a produção de jatos é dominante. A produção de um bóson de Higgs de 150 GeV, por exemplo, é quase 5 ordens de grandeza menor do que a produção de pares de jatos com pT > 100 GeV. Dessa forma, é praticamente impossível a detecção de um bóson de Higgs decaindo em jatos. O fato de um jato poder ser erroneamente identificado como um elétron ou fóton, somado a esta grande taxa de produção, requer que os detectores tenham uma grande capacidade de identificação de partículas e excelente resolução de energia. Por exemplo, é exigida uma capacidade de rejeição de jatos de 1 por mil e uma resolução de massa para objetos decaindo em léptons e fótons da ordem de 1%.

Figura 1: Seção de choque para vários processos do Modelo Padrão.

8 CMS Physics Technical Design Report Volume II: Physics Performance,

http://doc.cern.ch//archive/electronic/cern/preprints/lhcc/public/lhcc-2006-021.pdf .

Page 18: Scientific Project (2008)

18

Podemos notar também que a seção de choque de processos de QCD cresce mais rapidamente com a energia do acelerador do que a de processos eletrofracos. Dessa forma, para vários processos de interesse, a razão sinal-background será menor no LHC em relação ao Tevatron, apesar do número de eventos do sinal ser maior; estratégias para diminuir o background precisam ser cuidadosamente elaboradas.

A alta luminosidade do LHC, 100 vezes maior do que a do Tevatron, leva à produção de 20 eventos por interação. Esse efeito de pile-up deve ser tratado com cuidado na especificação do detector, especialmente em termos do tempo de resposta e resistência a radiação. Do ponto de vista da física, esses efeitos afetam principalmente a resolução de massa do calorímetro para partículas leves, a resolução do momento transversal faltante e a efetividade de certas ferramentas como, por exemplo, a capacidade de se vetar jatos.

Finalmente, fica evidente que é crucial um sistema de seleção eficiente, capaz de reduzir a taxa de eventos produzidos de 109 Hz para uma taxa de eventos armazenados de 100 Hz, preservando uma alta eficiência para os processos de interesse físico.

Modelo Padrão

Interações fortes Nos detectores do LHC serão estudados vários aspectos da interação forte, da

física de íons pesados à física difrativa. No CMS, em particular, será de especial interesse o estudo da física de jatos e da física de quarks b. Os processos envolvendo jatos estarão presentes de maneira avassaladora. Essa presença proporcionará um melhor entendimento da física de jatos em alto pT , essencial para qualquer estudo que se faça no CMS.

De um lado os dados devem ser corrigidos para incluir efeitos dos detectores e a energia deve ser calibrada para a reconstrução de jatos, utilizando simulações completas do detector. Por outro lado as previsões teóricas, principalmente no que se refere ao processo de hadronização, devem ser aprimoradas e comparadas com os dados. É necessário o estudo detalhado de algoritmos de jatos, a calibração de energia dos jatos, correções de NLO e o efeito do trigger. Nosso grupo está envolvido em alguns estudos relativos à física de jatos, principalmente no que se refere à produção de bósons de gauge associada a jatos.

Outros tipos de processo que precisam ser bem estudados são os chamados underline events, definidos como tudo que acompanha uma dada reação, excluindo-se o processo duro. No Tevatron, estudos mostram que a densidade de partículas nos underline events corresponde ao dobro da densidade nos eventos de minimum bias, ou seja, aqueles em que não ocorre o espalhamento duro. No LHC é previsto uma fração ainda maior e entender esses eventos é essencial para se estudar os processos duros.

A física do quark b será explorada em profundidade no CMS. Uma grande ênfase será dada na capacidade de se identificar jatos provenientes do quark b. Além do estudo da física envolvendo hádrons e mésons com quarks b, a identificação de jatos provenientes destes quarks é importante em vários processos para se diminuir o background. Exemplos importantes são o decaimento do Higgs em b’s, o quark top e alguns cenários de supersimetria que predizem uma abundância da produção de quarks da terceira geração.

O estudo da estrutura de sabor é de grande importância para a física de altas energias, envolvendo questões como a violação de CP e o entendimento da assimetria matéria e anti-matéria. Aproximadamente 1012 pares de quarks b devem ser produzidos

Page 19: Scientific Project (2008)

19

no CMS. Esta grande produção aliada à qualidade de determinação dos vértices de decaimento dos mésons permitirá estudos precisos da violação CP e a detecção de decaimentos raros dos mésons B. Vale lembrar que estes decaimentos raros, como aqueles que envolvem troca de corrente neutra, podem revelar indícios de uma física além do Modelo Padrão.

Quark Top O objetivo da física do top no LHC é conseguir determinar com precisão as

propriedades do quark mais pesado do Modelo Padrão, medindo sua taxa de produção e explorando todos os canais de decaimento. Entre as variáveis a serem medidas com grande precisão estão a seção de choque de produção de pares, a massa do top e propriedades de spin.

O quark top decai em W + b sendo que o decaimento do W em léptons ou quarks determinará as características do evento. O CMS será capaz de reconstruir a massa do top em vários canais de decaimento: (i) canais de dileptons, em que a perda de energia devido à presença de dois neutrinos no estado final exige uma estratégia bastante sofisticada; (ii) canal semileptônico, considerado o canal preferencial para esses estudos; (iii) canal hadrônico, em que a presença de vários jatos no estado final dificulta a separação do sinal sendo essencial a identificação de jatos provenientes do quark b. Os erros na determinação da massa serão dominados por erros sistemáticos quando a luminosidade acumulada for suficientemente alta. Um método baseado na identificação de J/Ψ, provenientes do decaimento do quark b, pode ajudar a diminuir o erro sistemático em eventos com decaimento semileptônico.

Também é missão do CMS estudar as correlações de spin na produção de pares de top, assim como eventos com a produção simples do quark top. Ademais, a grande produção de top’s no CMS permitirá o estudo de decaimentos raros em que ocorre mudança de sabor por correntes neutras. Esse tipo de processo é previsto em várias extensões do Modelo Padrão, como na supersimetria.

Física Eletrofraca A produção de bósons de gauge com o decaimento em léptons é um processo

bem entendido e terá uma grande seção de choque no LHC. Esses processos serão bastante úteis para muitos propósitos, como servir de monitoramento para a luminosidade e como uma ferramenta de calibração dos detectores.

A grande produção de bósons de gauge permitirá uma medida mais precisa da massa do W, uma quantidade fundamental no Modelo Padrão, que poderá ser medida com precisão da ordem de 10 MeV para uma luminosidade de 10 fb-1.

No LHC será possível a produção de pares de bóson de gauge em um maior número do que no Tevatron, possibilitando um estudo dos acoplamentos tríplices e quárticos entre eles. Estes acoplamentos são totalmente determinados pela estrutura de gauge do Modelo Padrão; qualquer desvio em relação aos valores previstos será um indício de uma nova física.

Bóson de Higgs A capacidade de detectar o bóson de Higgs do Modelo Padrão foi colocada

como um requisito essencial na análise de desempenho dos detectores propostos para o LHC, no início da década de 90. Apesar da massa do bóson de Higgs não ser estabelecida pelo Modelo Padrão, uma vez que ela seja determinada experimentalmente todas as suas demais propriedades são preditas pelo modelo. Por

Page 20: Scientific Project (2008)

20

exemplo, as larguras parciais de decaimento e a largura total do Higgs são univocamente determinadas em função de sua massa (vide Figura 2).

Figura 2: Razões de ramificação e largura total do bóson de Higgs.

Alguns limites superiores para sua massa podem ser obtidos através de

considerações teóricas. Se for exigido que o Modelo Padrão seja fracamente interagente até a escala de Grande Unificação (da ordem de 1016 GeV), é possível estabelecer um limite superior para sua massa de aproximadamente 190 GeV. Para uma nova física se manifestando já na escala de TeV é possível estimar um limite para a massa do Higgs de aproximadamente 700 GeV.

Experimentalmente, hoje dispomos apenas do limite inferior imposto pelo LEP que é de 114,4 GeV. A partir dos dados de precisão do setor eletrofraco, onde o valor da massa do Higgs entra no cálculo das correções radiativas para vários observáveis, é possível estimar que o Higgs deva ser mais leve do que 160 GeV com 95% de confiança. Na Figura 3 é mostrado χ2 em função da massa do Higgs, sendo a faixa amarela excluída experimentalmente pela procura direta no LEP.

Figura 3: χ2 do fit global em função da massa do Higgs, considerando o Modelo Padrão.

Page 21: Scientific Project (2008)

21

Para massas um pouco superiores ao limite imposto pelo LEP e inferiores a 135 GeV, o canal predominante de decaimento é em um par bb . No entanto, este canal é virtualmente impossível de ser separado do background da QCD. Por ser um canal relativamente livre de background o canal γγ , mesmo sendo muito pequeno, é o mais promissor para estabelecer a existência de um Higgs com massa entre 115 e 130 GeV. Já um Higgs mais pesado, com valores da massa entre 130 e 800 GeV, sua descoberta deverá depender do decaimento em 4 léptons ( * 4→ →H ZZ l ).

O principal mecanismo de produção do Higgs no LHC é através da fusão de glúons ( →gg H ) que é mediada por loops dos quarks pesados. Para valores grandes da massa do Higgs o mecanismo de fusão de bósons de gauge passa a ser relevante ( → + →/qq qq WW ZZ qqH ), podendo ser uma boa alternativa graças à possibilidade de se identificar dois jatos na região frontal, diminuindo assim o background. Para valores pequenos da massa do Higgs (MH < 2MZ), a produção associada ( → /qq WH ZH ) com o decaimento leptônico dos bósons de gauge oferece uma alternativa interessante graças à presença de léptons extras no estado final.

Caso o bóson de Higgs não venha a ser descoberto no LHC, isto será uma forte indicação de que a quebra da simetria eletrofraca ocorre através de processos fortemente acoplados que deverão se manifestar na produção em excesso de pares de bósons vetoriais (WW e ZZ).

Física Além do Modelo Padrão

Supersimetria A supersimetria na escala eletrofraca é fortemente motivada pela necessidade

de se resolver o problema de ajuste fino dos parâmetros, já que nesses modelos as correções quadráticas para a massa dos escalares se cancelam.

Modelos supersimétricos, apesar de terem sido propostos há mais de 25 anos, não apresentam até o momento nenhuma evidência experimental. Uma característica de todos estes modelos é a duplicação do espectro de partículas existentes, ao se associar férmions a bósons e vice-versa. Portanto, mesmo o Modelo Padrão Supersimétrico Mínimo (MSSM), extensão mínima do conteúdo de partículas do Modelo Padrão, prevê a existência de várias novas partículas (gluinos, squarks, charginos, neutralinos, sléptons, etc.) que deverão ser buscadas pelos experimentos do LHC.

Uma característica importante de modelos supersimétricos é a possível conservação da paridade R. Para modelos que respeitam essa simetria, os decaimentos de partículas supersimétricas envolvem cascatas que sempre contêm a partícula supersimétrica mais leve (LSP). Espera-se que a LSP interaja muito fracamente, o que deve levar a uma grande quantidade de TE no estado final. O resto da cascata deve conter uma grande quantidade de jatos e léptons, particularmente jatos oriundos de quarks b ou de léptons τ.

O MSSM se caracteriza por conter a parametrização mais geral possível dos termos de quebra de supersimetria, acarretando em um enorme número de parâmetros livres. Hipóteses sobre como a quebra de supersimetria é transmitida vinculam esses parâmetros, diminuindo o número de parâmetros livres.

Vários modelos mais restritivos, como o mSUGRA (minimal Supergravity Grand Unification) e GMSB (Gauge-Mediated Supersymmetry Breaking) têm sido estudados. Em mSUGRA assume-se a unificação dos parâmetros soft na escala de grande unificação, diminuindo o número de parâmetros livres para 5. Nesses modelos, a LSP é naturalmente

Page 22: Scientific Project (2008)

22

uma partícula neutra com massa na escala eletrofraca, sendo um candidato natural para a matéria escura fria, se considerarmos conservação de paridade R. Já o GMSB assume que as interações de gauge do Modelo Padrão sejam responsáveis pela quebra da supersimetria e permite explicar de forma natural porque os efeitos da corrente neutra com troca de sabor (FCNC) são pequenos.

O MSSM prevê a existência de 3 bósons de Higgs neutros (h, H, A) e um par carregado (H±), número mínimo para gerar massa para todos os quarks. Os vínculos neste caso são menos restritivos que no Modelo Padrão, sendo necessários dois parâmetros para determinar o espectro de massa. Os parâmetros usualmente escolhidos são a massa do bóson de Higgs pseudo-escalar (MA) e a razão entre os valores esperados do vácuo dos campos de Higgs que se acoplam aos quarks tipo up e down (tan β).

Figura 4: Contorno de descoberta de 5σ para vários canais de busca dos bósons de

Higgs supersimétricos. Nenhuma destas partículas foi observada até o presente, mas boa porção do

espaço dos parâmetros já foi excluída experimentalmente. A busca dos bósons de Higgs supersimétricos poderá ampliar a região de exclusão no espaço dos parâmetros

tan×AM β como pode ser visto na Figura 4. Quando se leva em conta todos os possíveis canais de decaimento, com uma luminosidade integrada de 100 fb-1, pode se excluir todo o plano tan×AM β com 95% de nível de confiança.

Dimensões Extras Teorias com dimensões extras – além das três espaciais e do tempo – existem na

literatura desde a tentativa pioneira de Kaluza e Klein de unificar o eletromagnetismo com a gravidade no começo do século XX. Atualmente, teorias de superstrings requerem a existência dessas dimensões. Acreditava-se que essas dimensões estariam compactadas em uma escala muito pequena, sendo irrelevantes para a fenomenologia na escala de energia que os aceleradores são capazes de explorar.

Page 23: Scientific Project (2008)

23

Recentemente surgiram alguns modelos de dimensões extras com o objetivo de tratar o problema da hierarquia de escalas, onde é possível testar a existência dessas dimensões extras em aceleradores. Vários cenários foram propostos em que seus efeitos podem se manifestar na escala de 1 TeV. Alguns deles são:

• Grandes Dimensões Extras: No modelo de Grandes Dimensões Extras (ou ADD, dos autores Arkani-Haned, Dimopoulos e Dvali), as dimensões extras podem ser grandes (escala de até milímetro), mas só a gravidade pode se propagar nas dimensões extras (ou em linguagem técnica, no bulk). Estes modelos com grandes dimensões extras supõem a existência de uma torre de estados de grávitons massivos. Estas partículas podem ser produzidas em espalhamento de quarks e glúons, dando origem a um momento transversal faltante, já que elas interagem apenas gravitacionalmente. Portanto, estados finais do tipo jatos + TE e fóton +

TE são as assinaturas a serem investigadas para estas partículas. Os experimentos do LHC, com uma luminosidade integrada de 100 fb-1, deverão ser capazes de detectar sinais da escala DM fundamental da teoria da ordem de 8 TeV.

• Modelo de Randall-Sundrun: Neste outro cenário a escala de compactação é pequena e só a gravidade se propaga no bulk, onde há uma supressão exponencial da escala de Planck, aliviando o problema da hierarquia de escalas e levando a conseqüências fenomenológicas na escala de 1 TeV. No cenário mais estudado, de tipo I, também chamado RSI, as partículas do Modelo Padrão, assim como nos modelos ADD, não podem se propagar nas dimensões extras. O efeito de dimensões extras no LHC se manifesta pela produção dos modos KK (torres de Kaluza Klein) do gráviton cujos acoplamentos (ao contrário de ADD) são suprimidos apenas pela escala de TeV. No caso de RSI esses modos são pesados e podem ser observados como ressonâncias em seus decaimentos em dois férmions ou dois fótons. O alcance do CMS é estimado em até 4 TeV para uma luminosidade integrada de 60 fb-1.

• Dimensões Extras Universais: Aqui, todas as partículas do Modelo Padrão podem se propagar nas dimensões extras, criando estados excitados (torres de Kaluza Klein) para todas as partículas. O modelo mais simples prevê estados pesados para todas as partículas, com um espectro de massa degenerado, sendo essa degenerescência quebrada por correções radiativas. A conservação de momento nas dimensões extras leva a conservação de uma quantidade multiplicativa, chamada paridade KK. A conservação dessa paridade faz com que todas as partículas excitadas decaiam na partícula excitada mais leve que é estável. Como ocorre na supersimetria, tem-se aqui um candidato a matéria escura. A fenomenologia é bastante similar à SUSY: existem parceiros excitados pesados para cada partícula do Modelo Padrão e o decaimento final leva a uma partícula neutra estável que escapa a detecção. No entanto a grande degenerescência do espectro de massa leva a decaimentos de partículas não muito energéticas, representando um desafio para sua detecção.

Page 24: Scientific Project (2008)

24

Nova Dinâmica na Região de 1 TeV Caso o bóson de Higgs leve sugerido pelos dados do LEP não exista, deverá

então existir outro mecanismo responsável pela quebra da simetria eletrofraca, cuja dinâmica deverá, necessariamente, se manifestar na escala de 1 TeV. Independentemente dos detalhes deste mecanismo, seu efeito deverá aparecer no acoplamento dos bósons de gauge longitudinalmente polarizados. As amplitudes de espalhamento destas partículas violarão a unitariedade na região de TeV e alguma nova dinâmica deverá surgir para sanar este problema.

Novos Bósons de Gauge Modelos de superstrings, grand unified theories (GUT), quebra dinâmica de

simetria e little Higgs supõem a existência de um grupo de gauge U(1) adicional. Isto leva naturalmente à existência de novos bósons ′W e ′Z . O limite inferior atual para a massa do ′Z , dependendo do modelo, é da ordem de 600-900 GeV e o Run II do Tevatron será capaz de explorar uma região de massa para essas partículas de até 1 TeV. Os experimentos do LHC devem ser sensíveis a massas de até 5 (6) TeV para ′Z ( )′W , assumindo acoplamentos do Modelo Padrão e 100 fb-1 de luminosidade.

Page 25: Scientific Project (2008)

25

V. Os Experimentos DZero e CMS O Experimento DZero

O DZero9 foi proposto em 1983 para observar as colisões próton-antipróton produzidas pelo Tevatron, com foco no estudo de fenômenos a grandes momentos transversais. Na primeira fase de operação, entre 1992 e 1996 (Run I), o Tevatron operou com 6 agrupamentos (bunches) de prótons e de antiprótons, com um intervalo entre cruzamentos de 3.500 ns e energia de centro de massa de 1,8 TeV. Aproximadamente 120 pb-1 de dados foram armazenados durante o Run I, permitindo ao DZero apresentar um ótimo desempenho, o que resultou no descobrimento do quark top e na determinação de sua massa, na medida precisa da massa do bóson W, na análise detalhada dos acoplamentos dos bósons de gauge, em estudos mais precisos da produção de jatos, e na melhoria dos limites para modelos além do Modelo Padrão, como a produção de leptoquarks e de partículas supersimétricas.

Após a conclusão do novo injetor principal, em março de 2001 o Tevatron passou a operar, em sua segunda fase inicial (Run-IIA), com 36 bunches de prótons e de antiprótons, com um intervalo entre cruzamentos de 396 e energia de centro de massa de 1,96 TeV. A luminosidade acumulada pelo Tevatron durante o Run II atingiu até o momento 3,7 fb-1.

Figura 5: Luminosidade integrada do Tevatron durante o Run II.

O detector DZero (vide Figura 6) é formado por três grandes sub-detectores: o

sistema de rastreamento central, capaz de determinar a trajetória e o momento de todas as partículas carregadas; o sistema de calorímetros, onde elétrons, fótons e jatos depositam toda sua energia; e o sistema de múons, capaz de determinar a trajetória destas partículas. Para tirar proveito das melhorias do Run II do Tevatron, o detector DZero também passou por atualizações. O sistema de rastreamento foi totalmente substituído, passando a contar com dois subsistemas imersos em um campo magnético solenoidal de 2 Tesla: o Silicon Microstrip Tracker (SMT) e o Central Fiber Tracker (CFT). O

9 DZero Collaboration, Nuclear Instruments and Methods in Physics Research, A565, 463 (2006)

Page 26: Scientific Project (2008)

26

sistema de calorímetros e o sistema de múons também foram aperfeiçoados, e um novo sistema de detecção foi incorporado, o Forward Proton Detector (FPD), o qual contou com importante contribuição do grupo brasileiro. Este detector de prótons frontais foi incorporado na linha do feixe do Tevatron com a função de medir o momento de prótons e antiprótons a pequenos ângulos, para o estudo da física difrativa.

Além desses sub-detectores, existe uma série de sistemas subsidiários, com as funções de organização de dados, de monitoramento e de controle, e o sistema de software do DZero, que desempenha tanto funções de tomada de dados como reconstrução e posterior análise dos dados.

Figura 6: Visão transversal do detector DZero.

Sistema de Rastreamento Central (CT) Uma excelente capacidade de rastreamento na região central do detector é

necessária, por exemplo, para os estudos da física do quark top onde a identificação do quark b é essencial. O CT consiste nos subsistemas SMT e CFT, ambos imersos no campo magnético. O CT rodeia a tubulação de berílio do feixe do DZero, cujas paredes têm espessura de 0,5 mm, diâmetro externo de 38 mm, e comprimento de 2,4 m. Os detectores podem localizar o vértice da interação primária com uma resolução de aproximadamente 35 μm ao longo da linha do feixe e também podem identificar jatos de quarks b com uma resolução melhor que 15 μm para partículas com momento transversal maior que 10 GeV/c. A alta resolução da posição do vértice permite uma boa medida do momento transversal de léptons, da energia transversal de jatos, e da energia transversal faltante (transverse missing energy). Um corte transversal do CT pode ser visto na Figura 7.

Page 27: Scientific Project (2008)

27

Figura 7: Corte transversal do sistema de rastreamento central no plano x-z.

Silicon Microstrip Tracker (SMT) O SMT fornece capacidade de rastreamento e localização de vértice sobre

quase toda cobertura dos sistemas de calorímetros e de múons. O design do detector, da eletrônica e do sistema de resfriamento é em grande parte ditado pelo ambiente do acelerador. A largura da região de interação (25 cm) determina a escala da largura do dispositivo. A longa região de interação levou a um design de módulos na forma de barril intercalados por discos no centro e conjuntos de discos nas regiões frontais (vide Figura 8) de modo a garantir boa resolução para baixos ângulos de espalhamento. Dessa forma, os vértices de partículas produzidas a baixos ângulos são reconstruídos tridimensionalmente pelos discos, e os vértices de partículas produzidas a altos ângulos são medidos nos barris e no CFT.

Figura 8: Design dos discos e dos módulos na forma de barril do SMT.

Central Fiber Tracker (CFT) O CFT consiste em fibras cintiladoras montadas sobre oito cilindros de apoio

concêntricos, ocupando o espaço radial localizado entre 20 e 52 cm do centro da tubulação do feixe. Para acomodar os discos frontais do SMT, os dois cilindros mais internos têm largura de 1,7 m enquanto os seis cilindros mais externos têm largura de 2,5 m. O cilindro mais externo fornece uma cobertura para a região de pseudo-rapidez |η| ≤ 1,7. Cada cilindro sustenta uma camada dupla de fibras orientadas ao longo da direção do feixe (z) e uma segunda camada dupla de fibras num ângulo em ± 3o. A luz

Page 28: Scientific Project (2008)

28

proveniente das fibras cintiladoras é medida em contadores de fótons de luz visível (Visible Light Photon Counters). O pequeno diâmetro das fibras (835 μm) possibilita ao CFT uma resolução de aproximadamente 100 μm para a camada dupla de fibras, uma vez que a localização das fibras é conhecida com precisão de 50 μm.

Sistema de Calorímetros O sistema de calorimetria foi projetado para medir a energia de elétrons, fótons

e jatos, auxiliar na identificação de elétrons, fótons, jatos e múons e medir o balanço de energia transversal dos eventos. O sistema é dividido em três partes: o calorímetro central (CC – Central Calorimeter) e os calorímetros dos extremos norte e sul (End Calorimeter North – ECN e End Calorimeter South – ECS).

Figura 9: Calorímetro central e os dois calorímetros dos extremos norte e sul. O CC tem cobertura para |η| ≤ 1,0 enquanto os ECN e ECS estendem essa

cobertura para |η| ≈ 4,0. Cada calorímetro possui uma seção eletromagnética, que se encontra mais próxima à região de interação, seguida por seções hadrônicas finas e grossas, como podemos ver na Figura 9. O material ativo dos calorímetros é o argônio líquido e cada um dos três calorímetros (CC, ECN e ECS) é mantido a uma temperatura de aproximadamente 90 K. Placas absorvedoras são usadas em diferentes locais. A seção eletromagnética utiliza placas finas (3 mm no CC e 4 mm nos ECN e ECS), feitas de quase puro urânio reduzido. As seções hadrônicas finas são feitas de placas de 6 mm de uma liga de urânio-nióbio. As seções hadrônicas grossas são placas de 47 mm feitas de cobre (no CC) ou de aço inoxidável (nos ECN e ECS).

Sistema de Múons A versão atualizada do sistema de múons do DZero para o Run II é formada

pelos sistemas central e frontal de múons. O sistema central original do Run I foi mantido, e é composto por tubos de arrasto proporcionais (Proportional Drift Tubes – PDT), e contadores de cintilação montados ao redor de um magneto toroidal, oferecendo cobertura para |η| ≤ 1,0. O sistema frontal de múons foi completamente substituído, estendendo a cobertura do detector para |η|≈ 2,0. O novo sistema frontal utiliza mini-tubos de arrasto (Mini Drift Tubes – MDT), que substituíram os PDTs do Run I, trigger scintilation counters, que suportam o ambiente de alta radiação, e uma blindagem para a tubulação do feixe.

Page 29: Scientific Project (2008)

29

Durante o Run I, um conjunto de contadores de cintilação, denominado cosmic cap, foi instalado no topo e nas laterais superiores das camadas externas dos PDTs do sistema central de múons. Para o Run II, essa cobertura foi estendida para as laterais inferiores e para o fundo dos PDTs do detector. Esses contadores são rápidos o suficiente para reduzir o ruído proveniente de raios cósmicos. Contadores de cintilação adicionais foram instalados nos PDT´s localizados entre o calorímetro e o magneto toroidal para auxiliar na identificação de múons e na rejeição do ruído de eventos fora de sincronia. Diagramas das câmaras de arrasto e dos contadores de cintilação podem ser vistos nas Figuras 10 e 11 respectivamente.

Figura 10: Diagrama expandido das câmaras de arrasto.

Figura 11: Diagrama expandido dos contadores de cintilação.

Sistema de Detectores de Prótons Frontais O sistema de detecção de prótons frontais (Forward Proton Detector – FPD) é

formado por espectrômetros (vide Figura 12) que fornecem o momento e o ângulo dos prótons (ou antiprótons) espalhados a baixíssimos ângulos, a partir da determinação de sua trajetória através dos magnetos do acelerador. A posição da partícula espalhada é determinada pela sua passagem através de redes de fibras cintilantes instaladas em Roman Pots, recipientes de aço inoxidável que contêm os espectrômetros, munidos de fotomultiplicadoras multicanais. Os Roman Pots possibilitam que o detector opere fora da área de vácuo do acelerador, mas, ao mesmo tempo, atinja uma distância de apenas 8 desvios padrão da espessura do feixe.

Page 30: Scientific Project (2008)

30

Figura 12: Esquema geral do FPD. Os Roman Pots são movidos por um mecanismo de posicionamento acionado

remotamente, e podem ser levados próximo ao feixe assim que o mesmo estiver estabilizado. A posição dos Roman pots é medida por um codificador magnético (encoder) e também por um Linear Variable Displacement Transducer. Os espectrômetros de dipolo são formados por duas estruturas, chamados castelos, (D1 e D2) situados após os magnetos de dipolo do acelerador, a aproximadamente 58 metros do ponto de interação, cada um deles abrigando somente um Roman Pot. Os espectrômetros de quadrupolo (A1, A2, P1, P2) são compostos por 16 Roman pots, localizados em 4 castelos em ambos os lados do ponto de interação, após as lentes magnéticas de quadrupolo do acelerador, com P (A) detectando (anti)prótons.

O detector é constituído de fibras cintiladoras montadas em estruturas plásticas cujo sinal é conduzido para 7 fotomultiplicadoras multianodo (MAPMT) e de uma barra cintiladora conectada a uma fotomultiplicadora rápida (L0PMT). Cada detector possui 6 planos com fibras em 3 direções distintas, perfazendo 112 canais por detector e um total de 2016 canais para o sistema como um todo.

O Experimento CMS O Compact Muon Solenoid - CMS10 é um dos experimentos do Large Hadron

Collider que vêm sendo implantados no CERN. O LHC deverá entrar em operação em 2008, colidindo prótons a uma energia de centro de massa de 14 TeV. O CMS é um experimento de propósito geral, projetado para estudar extensivamente a Física na escala do TeV. A escolha principal a ser feita no projeto de um detector dessa natureza é a configuração do campo magnético, utilizado para a medição do momento de partículas carregadas através da medida de seu raio de curvatura. No CMS, foi feita a opção por se utilizar um campo magnético gerado por um solenóide supercondutor de 13 m de comprimento e 5,9 m de diâmetro interno. A supercondutividade obtida através do uso de hélio líquido, mantendo-o a uma temperatura de 4,2 K, permite a passagem de uma corrente de 19,5 kA pelo solenóide, resultando em um campo de 4 Tesla na região interna ao mesmo. A geometria do solenóide reflete-se no projeto de todo o detector, dando-lhe o formato cilíndrico característico e levando a uma divisão natural da geometria em “barril” (barrel) e “tampas” (endcaps).

O detector CMS é formado por quatro sistemas: o Sistema de Rastreamento, o Calorímetro Eletromagnético, o Calorímetro Hadrônico e o Sistema de Múons, dispostos de forma concêntrica nessa ordem. O Sistema de Rastreamento e o Sistema de Múons são detectores de trajetória, com o primeiro determinando a trajetória de todas as

10 CMS Collaboration, Physics Technical Design Report Volume I: Detector Performance and

Software, CERN/LHCC 2006-001, 2006.

Page 31: Scientific Project (2008)

31

partículas carregadas, e o segundo determinando apenas a trajetória dos múons, que são essencialmente o único tipo de partícula carregada que consegue atravessar ambos os calorímetros. O Calorímetro Eletromagnético mede a energia de fótons e elétrons, que depositam sua energia no sistema através de processos como produção de pares, espalhamento Compton e bremsstrahlung, dando origem a chuveiros eletromagnéticos. Já os hádrons depositam sua energia no Calorímetro Hadrônico através de interação forte residual, sendo espalhados pelos núcleos do material absorvedor do calorímetro, e dando origem a chuveiros hadrônicos. Além desses sistemas principais, existem os sistemas subsidiários usuais, com funções de organização de dados, monitoramento e controle. Em paralelo e superposto a esses sistemas, existe o sistema de software do CMS, o qual desempenha tanto funções ditas online, i.e. durante o processo de tomada de dados, como offline, i.e. durante a reconstrução e posterior análise dos dados.

Figura 13: Visão transversal do detector CMS.

Sistema de Rastreamento O Tracker ou Sistema de Rastreamento do CMS é baseado inteiramente em

detectores de estado sólido. É localizado na região mais interna do CMS (menor distância radial à linha do feixe) e, conseqüentemente, com a maior densidade de fluxo de partículas. Seu objetivo é determinar a trajetória de partículas carregadas de maneira precisa, através de elementos de detecção de posição e algoritmos de reconstrução de trajetória. Devido ao aumento do fluxo com a proximidade da região de interação, a região do Tracker é dividida em 3 sub-regiões distintas, delimitadas de acordo com a distância radial à linha do feixe e nas quais se utilizam diferentes tipos de elementos de detecção:

• Região próxima (r ≈ 10 cm): uso de detectores de pixel, com dimensões de 100 x 150 μm². A ocupação de um pixel é da ordem de 10-

4/cruzamento do LHC, onde um cruzamento é definido como o encontro de dois agrupamentos de prótons, o que ocorre com uma freqüência de aproximadamente 40 MHz;

Page 32: Scientific Project (2008)

32

• Região intermediária (20 cm < r < 55 cm): uso de detectores de microfaixa de silício, com dimensões mínimas de 10 cm x 80 μm. A ocupação é da ordem de 2-3%/cruzamento;

• Região distante (r > 55 cm): uso de detectores de microfaixa de silício, com dimensões máximas de 25 cm x 80 μm. A ocupação é da ordem de 1%/cruzamento.

A área sensível total do detector de pixel é de aproximadamente 1 m2, compreendendo cerca de 66 milhões de pixels. A área sensível total do detector de microfaixa de silício é de 200 m2, compreendendo 9,6 milhões de faixas de silício, o que indica a superioridade do detector de pixel em termos de granularidade. A organização dos sensores se dá através de um modelo de camadas concêntricas: a seção do barril apresenta 3 camadas de detectores de pixel e 10 camadas de detectores de microfaixa de silício, enquanto cada uma das endcaps apresenta 2 camadas de detectores de pixel e 9 camadas de detectores de microfaixa de silício. Cada elemento sensor é ligado a um chip de leitura, os quais são integrados em uma placa de leitura onde os dados são armazenados à espera de uma decisão do trigger.

A reconstrução de trajetórias no Tracker é basicamente um problema de reconhecimento de padrões com presença de ruído, ineficiências, erros de medida e outliers (pontos fora da trajetória), seguido de um processo de ajuste de curva aos hits encontrados. Uma reconstrução de trajetória bem-sucedida deve possuir duas características: uma busca eficiente por hits durante a etapa de reconhecimento de padrão e uma rápida propagação dos candidatos a trajetória. A primeira tarefa é simplificada pelo arranjo de módulos sensíveis à passagem de partículas carregadas em uma estrutura praticamente hermética para uma partícula originária do centro do detector. A segunda tarefa utiliza os fatos de que o campo magnético é essencialmente constante (solenoidal) em uma grande parte do volume do Tracker e que a maior parte das estruturas de suporte está concentrada próxima aos sensores. Desse modo, pode-se aproximar a trajetória de uma partícula carregada entre as camadas de sensores como uma trajetória helicoidal.

O processo de reconstrução de trajetória pode ser dividido em 5 etapas: • Reconstrução de hit: agrupamento de faixas ou pixels. Nesta etapa, é

obtida uma estimativa da posição da partícula naquela camada, acompanhada da respectiva incerteza;

• Geração de semente: fornece candidatos iniciais a trajetória para a reconstrução completa. Uma semente define parâmetros iniciais da trajetória e erros, e pode ser obtida internamente ao Tracker ou utilizando informações de outros detectores;

• Reconhecimento de padrão: baseado em um filtro Kalman combinatório. O filtro procede iterativamente da camada da semente, começando de uma estimativa grosseira dos parâmetros da trajetória, e adicionando a informação das camadas sucessivas uma a uma;

• Resolução de ambigüidades: ambigüidades podem resultar do fato de que uma trajetória pode ser reconstruída a partir de sementes diferentes, e devem ser resolvidas para evitar contagem múltipla de trajetórias;

• Ajuste de trajetória: Para cada trajetória, o estágio de construção resulta em uma coleção de hits e em uma estimativa dos parâmetros da trajetória. Como a informação completa sobre a trajetória está disponível somente após o algoritmo alcançar a última camada, é feito um ajuste retroativo, para melhorar a precisão dos primeiros hits.

Page 33: Scientific Project (2008)

33

Figura 14: Geometria do Tracker, mostrando o Detector de Pixel e de Faixa de Silício.

Calorímetro Eletromagnético O Calorímetro Eletromagnético (Electromagnetic Calorimeter – ECAL) é um

detector projetado para medir a energia de elétrons e fótons. O ECAL é um calorímetro do tipo homogêneo, o que significa que todo seu volume é composto de material sensível à passagem de partículas, e hermético. A hermeticidade e a alta resolução do ECAL são fundamentais para maximizar a possibilidade da descoberta do bóson de Higgs através do canal H → γγ. Os elementos sensíveis utilizados no ECAL são cristais de PbWO4, em formato de pirâmide truncada com dimensões de 22×22 mm2 (face frontal), 26×26 mm2 (face anterior) e 230 mm de comprimento. O calorímetro é dividido em duas regiões principais: barril (|η| < 1,479) e endcaps (1,479 < |η| < 3,0). No barril, existem 61200 cristais agrupados em conjuntos de cinco pares chamados submódulos, que por sua vez são agrupados em módulos e supermódulos. Em cada uma das endcaps, existem 7324 cristais agrupados em conjuntos de 5×5 cristais chamados de supercristais, que por sua vez são agrupados em dois semicírculos apelidados de “Dees” (da letra “D”, correspondentes às duas metades da tampa). No total, o ECAL é composto de 74848 cristais cintiladores, perfazendo aproximadamente 10 m3 de material sensível.

Figura 15: Geometria do ECAL: os Dees e os submódulos, módulos e supermódulos.

Os cristais de PbWO4 são cristais cintiladores de alta densidade (8,3 g/cm3), cuja

principal característica é a alta taxa de emissão, com 80% da luz sendo emitida em 25 ns, um tempo comparável ao tempo entre cruzamentos consecutivos. Os cristais também apresentam um comprimento de radiação X0 e um raio de Molière Rm curtos (8.9 e 22 mm, respectivamente), o que permite construir um calorímetro compacto e de granularidade fina. O espectro de cintilação dos cristais é verde-azulado, com um máximo extenso em 420 nm. A intensidade de cintilação dos cristais apresenta uma

Page 34: Scientific Project (2008)

34

variação de -1,9% por °C a 18°C, o que implica a necessidade de manter a temperatura estável dentro de um intervalo de ± 0,05°C, a fim de manter a resolução em energia do calorímetro.

A coleta da luz emitida pelos cristais não pode ser feita com fotomultiplicadoras comuns, pois o ECAL é montado internamente ao solenóide do CMS, ou seja, imerso em um campo magnético de 4 Tesla. A solução é utilizar outros tipos de fotodetectores. Na região do barril, são utilizados fotodiodos operados em modo de avalanche, enquanto nas endcaps são empregados fototriodos a vácuo – essencialmente fotomultiplicadoras com apenas um estágio de multiplicação. Cada elemento fotodetector é montado sobre um cristal, e o arranjo fornece da ordem de 4,5 fotoelétrons/MeV, devido à baixa emissão de luz pelos cristais. O sinal dos fotodetectores é então digitalizado e transmitido através de fibra óptica para o sistema de aquisição de dados de nível imediatamente superior, onde é feita a soma de energia das torres e o sinal é armazenado à espera de uma decisão do trigger.Ao incidir sobre os cristais, elétrons e fótons geram chuveiros eletromagnéticos, eventualmente depositando toda sua energia sobre os cristais. A reconstrução dessa energia a partir dos digis, leituras obtidas dos instrumentos de medida do CMS após o processo de digitalização, envolve uma série de fatores. Em primeiro lugar, deve ser lembrado que mesmo a energia de um único elétron ou fóton que atravessa o ECAL é depositada sobre mais de um cristal. Além disso, a presença de material interno ao calorímetro dá origem a processos de bremsstrahlung e de conversão de fótons, que podem dificultar uma medida precisa da energia das partículas iniciais. A solução para esses problemas é agrupar os cristais em conjuntos chamados clusters, em um processo chamado de clusterização. Ainda assim, devido ao campo magnético, a energia que alcança o calorímetro é espalhada em φ; essa energia espalhada é agrupada construindo-se um cluster de clusters, chamado de supercluster, extenso em φ.

A reconstrução da energia é feita de maneira diferente para elétrons e fótons. No caso do fóton, o fato de ele ser uma partícula sem carga implica que ele não deixa sinal no Tracker. Então, deposições de energia no ECAL que não possam ser identificadas com trajetórias obtidas no Tracker são identificadas com fótons. Para reconstruir a energia de um fóton, faz-se a soma da energia depositada em um cluster de cristais. Para os propósitos desta reconstrução, um cluster pode ser um grupo de 5×5 cristais, ou um supercluster obtido a partir de um algoritmo de superclusterização. No caso da reconstrução da energia do elétron, busca-se a presença de superclusters em acordo com trajetórias obtidas no Tracker.

Calorímetro Hadrônico O Calorímetro Hadrônico (Hadronic Calorimeter – HCAL) é um detector

projetado para medir a energia de hádrons que o atravessam. O conjunto HCAL + ECAL forma um sistema de calorimetria completo, permitindo medidas de energia de jatos e de energia transversa faltante (EtM). A medida precisa de EtM é de vital importância para o estudo de nova física, pois a energia transversa faltante em um evento é um sinal crucial para a identificação de novas partículas como as partículas supersimétricas mais leves (Lightest Supersymmetric Particles – LSP). O HCAL também é um calorímetro hermético mas, ao contrário do ECAL, é um calorímetro de amostragem, com elementos absorvedores intercalados com elementos sensíveis à passagem de partículas. No HCAL, os elementos sensíveis são camadas de cintilador plástico enquanto os absorvedores são formados de aço inoxidável (na camada mais interna e nas duas camadas mais externas do barril) e latão (em todo o resto). As placas cintiladoras têm sua luz captada por fibras deslocadoras de onda (wavelength-shifting)

Page 35: Scientific Project (2008)

35

engastadas nas mesmas, ligadas a fibras claras de baixo comprimento de atenuação que levam o sinal óptico até o sistema de leitura.

O HCAL é dividido em duas seções principais: Hadron Barrel (HB), na região |η| < 1,4, e Hadron Endcaps (HE), na região 1,3 < |η| < 3,0. Além disso, existem duas seções especializadas: Hadron Forward (HF), na região 2,9 < |η| < 5, para medição de jatos dianteiros, discriminação do perfil lateral e aumento da hermeticidade, e Hadron Outer (HO), uma parte do calorímetro externa ao solenóide, para aumento da contenção de chuveiros centrais na região |η| < 1,26. As seções especializadas apresentam uma estrutura diferente das demais: devido à sua localização em uma região de alta radiação, o Hadron Forward não apresenta cintiladores, tendo como substitutos conjuntos de absorvedores de aço e fibras de quartzo para detecção rápida de radiação Cherenkov. O Hadron Outer apresenta apenas camadas de cintilador, sem elementos absorvedores.

Figura 16: Geometria do HCAL: Hadron Barrel e Hadron Forward. Como no ECAL, fotodetectores são responsáveis por converter a luz emitida

pelos cintiladores em sinais eletrônicos. Nas seções baseadas em placas cintiladoras (HB, HE e HO), são utilizados fotodiodos híbridos multicanal (HPDs), devido à alta intensidade do campo magnético nessas regiões. Os HPDs são uma nova classe de sensores formados por uma janela de entrada de fibra óptica sobre a qual é depositado um fotocatodo multialcalino, seguida por um espaço vazio de alguns milímetros. Nesse espaço vazio, é aplicado um campo elétrico muito intenso que acelera os fotoelétrons em direção a um diodo de silício. No HF, o campo magnético é muito menor e tubos fotomultiplicadores convencionais podem ser utilizados. O procedimento de reconstrução da energia a partir dos digis é semelhante ao do ECAL. A calibração inicial ocorre com fontes radioativas, e calibrações posteriores podem ser feitas com eventos de Física.

Sistema de Múons O Sistema de Múons é o subdetector localizado na região mais externa do CMS,

estando fora do solenóide, mas sendo permeado pelo núcleo de ferro de retorno do campo magnético. O múon é uma partícula com características peculiares: devido à sua massa de 105 MeV, o múon é pesado o suficiente para perder muito pouca energia no Calorímetro Eletromagnético, mas sua vida média de 2.2 μs é longa o bastante para permitir que ele deixe uma trajetória em um detector localizado a uma distância relativamente grande (4 a 7 m) do ponto de interação. Naturalmente, sendo um lépton, o múon praticamente não interage no Calorímetro Hadrônico, e seu momento é muito mais fácil de determinar do que o de um jato. Além disso, o múon está presente no

Page 36: Scientific Project (2008)

36

estado final de processos importantes, como H → ZZ* → 4μ, fornecendo uma assinatura clara. Finalmente, a facilidade de identificação do múon permite criar um trigger bem restritivo baseado em sua presença, o que fornece uma maneira razoável de diminuir a taxa de eventos registrados.

Assim como o Tracker, o Sistema de Múons também é um detector de trajetória. É dividido em duas regiões principais: barril (|η| < 1,2) e endcaps (|η| < 2,4). Existem três tipos de detectores a gás no Sistema de Múons:

• Drift Tubes (DT): estes detectores são utilizados na região do barril, onde o

campo magnético está praticamente todo contido na região do núcleo de ferro. Um fio central age como anodo, e a passagem do múon ioniza o gás e libera elétrons que são atraídos para o fio central. Medindo-se o tempo de vôo dos elétrons, é possível inferir a posição da partícula no plano perpendicular ao fio;

• Cathode Strip Chamber (CSC): estes detectores são utilizados nas endcaps, onde o campo magnético é mais intenso e inomogêneo. Cada um dos CSCs é formado por um plano catodo segmentado em faixas ortogonais a um plano de fios anodos, no formato conhecido como câmara proporcional de muitos fios (MWPC). A passagem do múon gera uma avalanche, a qual é relacionada a um único fio, mas induz uma carga em várias faixas do plano catodo. Desse modo, é possível localizar a partícula em ambas coordenadas do plano;

• Resistive Paralel plane Chamber (RPC): estes detectores são utilizados tanto na região do barril como nas endcaps. Os dois eletrodos são planos paralelos feitos de um plástico de alta resistividade elétrica (baquelite). Os RPCs apresentam baixa resolução espacial, mas alta velocidade de leitura, sendo utilizados apenas para o trigger.

Figura 17: Geometria do Sistema de Múons, mostrando os três tipos de detectores. O algoritmo de reconstrução do Sistema de Múons é semelhante ao utilizado no

Tracker. O mesmo código é utilizado tanto na reconstrução offline como no High-Level Trigger, mas com diferentes parâmetros para enfatizar a rapidez ou a precisão do algoritmo, conforme o caso. Com o conceito de reconstrução regional, é possível poupar tempo de CPU durante a reconstrução online, reconstruindo trajetórias apenas em regiões limitadas do detector. Novamente, surge o conceito de semente: dados

Page 37: Scientific Project (2008)

37

fornecidos pelo Level-1 Trigger que fornecem valores iniciais e erros para os parâmetros da trajetória. Durante o processo de trigger, as sementes delimitam uma região de interesse no Sistema de Múons, na qual é feita a reconstrução local. Para a reconstrução offline, o mecanismo de geração de sementes é diferente, fazendo a reconstrução local no Sistema de Múons como um todo. A reconstrução do chamado StandAlone Muon (Level 2) utiliza apenas informação do Sistema de Múons, enquanto o objeto chamado de Global Muon (Level 3) utiliza também informação do Tracker.

Page 38: Scientific Project (2008)

38

VI. Análises Físicas Introdução

Em um experimento de grande porte os dados passam por um longo processo antes de serem utilizados para a análise. A quantidade de dados gerados é enorme, sendo crucial um procedimento de seleção (Trigger) antes da gravação em fita magnética. Outro aspecto fundamental é a necessidade de padronização dos procedimentos de acesso aos dados e de análise, tendo em vista a grande quantidade de físicos participantes do experimento. É desejável um mecanismo robusto e, ao mesmo tempo, de fácil acesso para que os diversos grupos possam fazer suas análises de forma independente e padronizada.

As atividades de análise podem ser separadas em duas grandes categorias: existem as atividades ligadas a definições dos objetos físicos (elétrons, fótons, jatos, etc.) que ficam por conta de subgrupos responsáveis por definir uma padronização nas características desses objetos que serão utilizados em todas as análises, e existem os grupos de análise (grupos de Física do top, eletrofraca, Física além do Modelo Padrão etc.) em que a análise final é executada.

Aproveitando a grande experiência dos membros do grupo em fenomenologia das partículas elementares, mais precisamente na busca de alternativas ao Modelo Padrão, participamos do grupo de análise de Novos Fenômenos do DZero e estamos desenvolvendo uma análise buscando dimensões extras universais. No CMS estamos nos engajando no grupo de Supersimetria e Física Além do Modelo Padrão. Planejamos também colaborar com algum grupo de identificação de objetos físicos, ainda a ser definido.

Análises Físicas no DZero.

O Processo de Análises dos Dados Aquisição de dados A aquisição de dados começa com os Triggers dos detectores. O sistema de

Trigger do DZero é um sistema altamente flexível desenvolvido para selecionar os dados a serem gravados. Essa seleção é feita por um sistema seqüencial de três níveis. O primeiro nível processa rapidamente sinais dos detectores com base na eletrônica e é capaz de reduzir a taxa de eventos de 2,5 MHz para 1,5 KHz. O segundo nível utiliza informação do primeiro nível e forma objetos físicos simples para reduzir a taxa de eventos para cerca de 800 Hz. O terceiro nível realiza a reconstrução dos eventos em um cluster de computadores utilizando algoritmos parecidos com os que serão posteriormente utilizados na análise dos eventos. Neste trigger são aplicados algoritmos de seleção capazes de reduzir a taxa de eventos para 50 Hz. Estes eventos assim selecionados são então armazenados em fitas magnéticas.

Além de serem armazenados em sua forma bruta (informações diretas dos detectores) estes eventos são também processados (reconstruídos) para a obtenção do seu significado físico, sendo então gravados também neste formato apropriado para sua posterior análise. Os programas de reconstrução (d0reco) produzem dados do tipo Thumbnail (TMB) contendo os objetos físicos e não mais os hits nos detectores. Estes são, eventualmente, transformados posteriormente em outros formatos de dados (como o formato Root) com o objetivo de facilitar a análise dos dados e, principalmente, tornar mais rápido e homogêneo este processo.

Page 39: Scientific Project (2008)

39

Grupos de Análise Com o objetivo de tornar o processo de análise mais uniforme dentro da

colaboração existem vários grupos de análise no DZero. Esses grupos estão divididos em dois tipos: os grupos de algoritmos e os grupos de Física.

Os grupos de algoritmos são responsáveis pela definição dos objetos físicos. São eles:

• Traços e Vértices: responsável por determinar e ajustar os traços e vértices do evento.

• Calorímetro: responsável por reconstruir os objetos físicos a partir do calorímetro contendo os subgrupos: fótons/elétrons, taus, jatos e missing ET.

• Múon: responsável por reconstruir e identificar os múons. • Trigger: responsável por implantar as diversas ferramentas de filtragem

dos dados. Dentro dos grupos de Física é que são realizadas as diveras análises. São eles:

Eletrofraco, Quark b, Higgs, Novos Fenômenos, QCD e Quark Top. As análises estão baseadas nas definições dos objetos físicos, feitas pelos grupos

de algoritmos. Assim, um sinal no calorímetro identificado como sendo um elétron será considerado como um elétron por todos os diferentes grupos de análise, seja na procura de um leptoquark ou na medida da massa do quark top.

Um aspecto crucial da análise de dados é a seleção dos dados a serem analisados. A quantidade de dados gerados no DZero é enorme, sendo inviável a utilização de todos os dados para cada análise que se deseja fazer. Assim, os diferentes grupos selecionam conjuntos de dados que serão interessantes para uma dada análise. Esses dados são chamados de skimmed. Existe um grupo encarregado de coordenar a produção de arquivos com dados selecionados, chamado de Common Sample Group. Este grupo trabalha em conjunto com todos os subgrupos de análise, evitando assim a duplicação de esforços.

Acesso aos dados: SAM Além de um sistema de aquisição e seleção de dados, é fundamental a

existência de um sistema para seu armazenamento e acesso. O Sequential Access via Metadata (SAM) foi concebido no Fermilab em 1997 visando solucionar o desafio que seria o manuseio dos dados a serem obtidos pelo experimento DZero durante a década seguinte. O sistema mostrou-se estável e confiável, levando o experimento CDF a também adotá-lo. Atualmente o sistema gerencia um fluxo de dados da ordem de dezenas de Terabytes por semana, movimentados entre diversos locais nas Américas, Europa e Ásia.

O SAM é um sistema de manuseio de dados organizado como um conjunto de servidores geograficamente distribuídos que operam em conjunto para armazenar e acessar arquivos, incluindo uma caracterização exaustiva de suas características (meta dado) e um histórico completo de como esses dados foram gerados. Ele foi projetado tendo-se em vista a implantação dos seguintes objetivos:

• Prover armazenamento confiável e permanente dos dados coletados do detector e dos diversos centros de processamento espalhados ao redor do mundo, proporcionando a interface com o sistema robótico de armazenamento de dados em fitas magnéticas.

Page 40: Scientific Project (2008)

40

• Disponibilizar a distribuição dos dados armazenados para as cerca de 70 instituições de ensino e pesquisa participantes do experimento através da utilização de áreas locais de armazenamento em disco.

• Catalogar as características dos dados armazenados, tais como conteúdo, origem, status, localização, histórico do processamento, conjuntos definidos pelo usuário, etc.

• Gerenciar a distribuição dos recursos de armazenamento de modo a otimizar o seu uso e o fluxo dos dados, bem como implantar a política de administração dos dados dos experimentos.

• Entregar e transportar os dados entre os diversos servidores locais, bem como entre os servidores locais e o local de armazenamento permanente no Fermilab.

O Ambiente de Análise O ambiente computacional de análise do DZero, simplesmente chamado

Framework, é um sistema orientado a objeto que provê uma interface comum e uma determinada metodologia para fazer análise de eventos. O Framework define o caminho que o evento percorre nos programas aplicativos dos usuários. O objetivo do Framework é passar os dados do evento de um programa a outro, na ordem e configuração estabelecida pelo usuário na hora de executar o programa.

Desde 2005 a colaboração do DZero vem utilizando amplamente o CAFÉ (Common Analysis Format Environment), conjunto de ferramentas utilizado pelos diversos grupos de análise. Em uma análise típica os dados passam por processos para analisar a qualidade dos dados, selecionar objetos físicos de interesse, selecionar os eventos e, por fim, realizar a análise. Em cada um desses processos são utilizados programas desenvolvidos pelos diversos grupos de algoritmo, sendo possível selecionar os parâmetros apropriados para cada análise.

Análise em Dimensões Extras Universais: Resultados parciais Aproveitando a experiência anterior de membros do grupo em Fenomenologia

de Partículas, estamos desenvolvendo uma análise onde buscamos sinais de existência de Dimensões Extras Universais (Universal Extra Dimensions – UED)11 em colaboração com o Prof. Greg Landsberg, ex-coordenador do grupo de Novos Fenômenos (New Phenomena) do DZero e renomado especialista na procura de dimensões extras em aceleradores12. Esse tipo de modelo tem sido bastante estudado recentemente, tendo recebido atenção de teóricos trabalhando no Brasil13.

Fenomenologia do Modelo Nos modelos de UED todas as partículas podem se propagar nas dimensões

extras. Como conseqüência, cada partícula possui parceiros de Kaluza Klein (KK),

11 T. Appelquist, H. -C. Cheng e B. A. Dobrescu, Phys. Rev. D 64, 035002 (2001). 12 G. Landsberg [CDF e DZero Collaboration], eConf C040802, MOT006 (2004) [arXiv:hep-

ex/0412028] ; K. Cheung e G. Landsberg, Phys. Rev. D 65, 076003 (2002). 13 G. Burdman, B. A. Dobrescu e E. Ponton, JHEP 0602, 033 (2006); A. Alves, O. Eboli e T. Plehn,

Phys. Rev. D 74, 095010 (2006).

Page 41: Scientific Project (2008)

41

formando vários estados excitados. Devido à conservação de momento nas dimensões extras existe a conservação em nível de árvore do número de KK, definido como sendo o número do estado excitado de cada partícula. No entanto, correções no bulk (o espaço das dimensões extras) e nas branas (o espaço limitado nas nossas 4 dimensões usuais) quebram essa conservação que passa a ser apenas uma conservação multiplicativa discreta (do tipo paridade) chamada de paridade KK, (-1)n, sendo n o estado excitado de KK. Como conseqüência, a produção dos parceiros de KK do primeiro estado excitado (os mais leves) só pode ser feita em pares (n=1) e o estado mais leve (LKP) com n=1 é estável, sendo um bom candidato à matéria escura. Vemos nesses dois pontos grandes semelhanças com supersimetria.

O modelo mais popular de UED é o modelo mínimo, com apenas uma dimensão extra. O modelo mínimo pode ser determinado apenas pelos parâmetros R e λ, sendo R a escala de compactificação e λ a escala de energia a partir da qual o modelo não é mais válido. Tipicamente R fornece a escala de massa dos estados excitados e λ está ligado à diferença de massa entre os estados excitados. A fenomenologia do modelo e seus sinais experimentais serão ditados pelo espectro de massa dos estados KK. Em primeira ordem, a massa dos estados KK para o enésimo modo será dada por mn2 = n2 / R2 + m02, sendo R a escala de compactificação e m0 a massa da partícula correspondente no Modelo Padrão.

A degenerescência das massas dos estados KK é quebrada pelas correções de 1-loop, que estabelecem um ordenamento nas massas dos estados excitados. O primeiro estado excitado mais pesado é o do glúon, seguido pelos quarks, bósons W, léptons e fóton, respectivamente.

Como os acoplamentos dos estados excitados são semelhantes aos acoplamentos do Modelo Padrão, espera-se uma grande produção de pares de quarks excitados (Q1) no Tevatron do Fermilab. Após a cadeia de decaimento dos pares Q1, haveria o sinal inclusivo de missing ET acompanhado de jatos. No entanto, as massas dos estados excitados são quase degeneradas de forma que o produto do decaimento não é muito energético, resultando em um sinal difícil de ser visto no Tevatron. Um sinal mais promissor é um sinal envolvendo léptons no estado final.

Apresentamos para o grupo de Novos Fenômenos um estudo fenomenológico para o sinal de dimensões extras universais, estudando possíveis cortes que iremos efetuar para reduzir o background14. Utilizamos um programa de Pythia modificado para incluir o modelo mínimo de UED. Para o Tevatron haviam sido feitos estudos fenomenológicos para um sinal com 4 léptons no estado final, no entanto a grande degenerescência dos estados excitados leva a léptons pouco energéticos diminuindo em muito a eficiência para o sinal de 4 léptons15. Em nosso estudo preliminar verificamos que um sinal com dois léptons de mesma carga permite um alcance bem maior para o modelo. A Figura 18 resume nossos resultados, mostrando o alcance que se pode obter utilizando o sinal com dois léptons de mesmo sinal.

Uma possível fonte de background para esse sinal que não consideramos no estudo fenomenológico provém da produção de pares de jatos que podem ser identificados erroneamente como um elétron. Inicialmente estamos estudando o sinal apenas com múons, por ser um sinal mais limpo. No estudo experimental devemos levar todos os efeitos em consideração devendo utilizar simulações por Monte Carlo bem mais realistas do que as realizadas nesse estudo preliminar.

14 http://www.sprace.org.br/Twiki/Documents/UniversalExtraDimension.pdf 15 H.C. Cheng, K.T. Matchev e M. Schmaltz, Phys. Rev. D 66, 056006 (2002).

Page 42: Scientific Project (2008)

42

Figura 18: Alcance do Run II para o modelo mínimo de UED. Em azul temos o sinal

(quadrados) e o background (triângulos) para eventos com dois leptons de mesmo sinal sem efetuar cortes cinemáticos. Em vermelho temos o sinal (quadrados) e o

background (triângulos) após a realização de alguns cortes para otimização do sinal. A linha vermelha tracejada representa o alcance do Run II considerando 5 eventos como

critério de observabilidade.

Simulação de Monte Carlo Para confrontar os dados experimentais com o modelo teórico são necessárias

simulações de Monte Carlo bastante realistas. A simulação no DZero apresenta basicamente 4 etapas:

• A geração do processo físico, feita através de um programa do tipo Pythia, em que todas as partículas finais do evento são geradas com seus momentos definidos.

• A simulação da passagem dessas partículas pelo detector do DZero, estimando o sinal que cada uma delas deixaria em cada segmento do detector, é baseada no programa GEANT3. Esta etapa informa quanto cada partícula interage com cada pedaço do detector, mas ainda não é a resposta que o detector revela como saída.

• É preciso ainda a conversão do sinal depositado no detector nos sinais digitais, que são o que o detector realmente dá como saída, simulando assim exatamente o sinal registrado por um evento real.

• Finalmente, a conversão desse sinal para os objetos físicos reconstruídos. Cabe ressaltar que essa última etapa é realizada tanto nos dados reais quanto nos eventos simulados por Monte Carlo.

Todas essas etapas foram realizadas pela colaboração na produção oficial de eventos de Monte Carlo. Em especial, eventos do Modelo Padrão foram gerados à exaustão (inclusive nas máquinas do SPRACE). No entanto, para o sinal de UED foi preciso implantar todas essas etapas. Utilizamos um programa do Pythia com o modelo mínimo de UED e a partir desse programa foram gerados eventos que fizemos passar por todas as etapas a que um evento de Monte Carlo deve passar. Na Tabela 1 temos a situação preliminar dos eventos de Monte Carlo que estamos utilizando, com o

Page 43: Scientific Project (2008)

43

número total de eventos gerados, quantos destes eventos têm dois múons e quantos têm dois múons com o mesmo sinal.

Processos σ (fb) Eventos 2μ 2 μss σ 2 μss (fb)

W → νμ 1.82 x 106 4.026.329 255 177 80.0

WZ → inc 2.41 x 103 305.500 4.662 619 4.88

ZZ → 4 μ 1.22 25.250 19.951 16.019 0.77

ZZ → 2e 2μ 2.44 25.000 11.242 180 0.018

ZZ → inc 994 100.250 2.926 95 0.94

Sinal (R=300 GeV-1) 279 24.500 3.456 1.407 16

Tabela 1: Simulação completa de Monte Carlo no DZero dos processos do Modelo

Padrão e do sinal de dimensões extras utilizados em nossa análise. Mostramos a seção de choque, o número de eventos gerados, o número de eventos com dois múons, o número de eventos com dois múons de mesmo sinal e a seção de choque de dois

múons com o mesmo sinal.

Análises Físicas no CMS

O Sistema de Software do CMS O sistema de software do CMS deve ser capaz de realizar as seguintes tarefas:

• Processamento e seleção de eventos na High-Level Trigger (HLT) farm, um grupo de computadores dedicado a selecionar, dentre os 109 eventos observados por segundo, aqueles que apresentam algum interesse físico.

• Organização e envio de resultados processados para a análise. Passam pelo Trigger e são armazenados em fita magnética cerca de 100 eventos por segundo. Esses dados devem estar catalogados e acessíveis a toda a colaboração.

• Fornecimento de um conjunto de ferramentas para análise de dados padronizado, abrangente e extensível, para garantir a reprodutibilidade das análises feitas.

Assim como no DZero, esses objetivos estão naturalmente relacionados com as características de uma colaboração em escala mundial. Os grupos de pesquisa que formam a colaboração são dispersos tanto em termos geográficos como organizacionais, o que leva a uma multiplicidade de ambientes computacionais tanto em termos de hardware como de software. Tendo isso em vista, o sistema de software do CMS deve ser capaz de ser executado em todos esses ambientes, bem como de migrar entre eles. Outra característica exigida do sistema é que o mesmo apresente um grau de flexibilidade tal que possa ser adaptado tanto a avanços tecnológicos como a novas exigências de software que venham a surgir durante o tempo de vida do experimento. Finalmente, cabe ressaltar que os usuários finais do sistema de software do CMS não são especialistas em ciência da computação, mas sim especialistas em física com um conhecimento básico de programação. Isso implica que o sistema deve ser

Page 44: Scientific Project (2008)

44

fácil de usar, com uma estrutura transparente ao usuário e com uma documentação atualizada e bem estruturada.

Com esses objetivos em mente, o sistema de software do CMS foi estruturado da seguinte maneira:

• Framework (Estrutura) e Serviços. • Simulação. • Filtragem de Eventos e Reconstrução. • Calibração e Alinhamento. • Monitoramento de Qualidade de Dados. • Ferramentas de Desenvolvimento de Software e Validação.

Os três últimos itens são importantes para o processo de aquisição e validação dos dados, mas não são utilizados na análise final. Já os três primeiros itens são fundamentais no processo de análise e são detalhados a seguir.

Framework e serviços O processamento de dados do CMS é baseado em uma estrutura chamada

CMS Framework. Nessa estrutura, o conceito principal é o de Evento, um conjunto fechado contendo tanto os dados tomados durante um evento físico (determinado pelo Trigger), quanto os dados derivados destes. Todo o processamento de dados é feito através de módulos, grupos de procedimentos padronizados e encapsulados que agem sobre os dados do evento de acordo com uma ordem definida pelo indivíduo que está executando a análise. Uma característica importante dos módulos é sua incapacidade de intercomunicação, o que diminui a probabilidade de uma interação indesejada entre os módulos. Outra importante é a chamada informação de proveniência, que mantém registros da ação de cada módulo sobre o Evento dentro do próprio Evento, permitindo assim a reprodutibilidade de qualquer análise realizada. Dessa forma, um Evento pode conter objetos representando os dados brutos do detector, objetos reconstruídos, objetos de análise e também os chamados metadados, que descrevem a configuração do software utilizado para a reconstrução de cada objeto assim como as condições de calibração utilizadas em cada reconstrução.

Figura 19: Framework de Software do CMS.

Associados à Framework estão os chamados serviços, que podem ser encarados

como ferramentas que a Framework fornece ao indivíduo que realiza a análise. Existem duas categorias de serviços diferentes:

• Serviços que não têm nenhum efeito sobre resultados físicos: essencialmente, extensões de aplicativos como registros de erros e serviços utilizados para debug de programas. Estes serviços são gerenciados pelo sistema ServiceRegistry.

Page 45: Scientific Project (2008)

45

• Serviços que têm efeito sobre resultados físicos: interfaces para bancos de dados contendo as condições experimentais relativas a um dado Evento, como parâmetros de alinhamento, calibração e medidas de campo magnético. Estes serviços são gerenciados pelo sistema EventSetup.

Simulação Processos de simulação são fundamentais para um projeto do porte do CMS. As

propostas iniciais de detectores são baseadas em cálculos teóricos e simulações dos fenômenos físicos a serem observados, e em uma etapa posterior eventos completos são simulados, desde o processo fundamental até o conjunto de dados digitalizados análogo àquele que é obtido em uma tomada de dados real. Assim como no DZero, o fluxo detalhado de uma simulação passa por várias etapas. No CMS, consiste nos seguintes passos:

• Configuração e execução de um gerador de eventos de Monte Carlo para produzir arquivos de dados com eventos gerados no padrão HepMC. HepMC é um registro de eventos com orientação a objeto escrito em C++ para Geradores de Monte Carlo em Física de Altas Energias. Seu objetivo é agir tanto como uma “classe container” para armazenar eventos após sua geração, como também como uma estrutura que permita que os eventos possam ser construídos de maneira modular a partir de um conjunto de diferentes geradores. O resultado desta etapa é um conjunto de eventos contendo as partículas observadas no estado final do processo físico de interesse.

• Configuração para a simulação com GEANT4 (configuração dos detectores, cortes de Física, etc.). GEANT4 é um toolkit que fornece os processos físicos necessários para descrever interações eletromagnéticas e hadrônicas em detalhe, além de ferramentas para modelar a geometria dos detectores do CMS. O toolkit também fornece as interfaces exigidas para recuperar as informações de trajetória das partículas através desses detectores e do campo magnético.

• Execução da simulação com GEANT4, com os eventos gerados anteriormente como entrada, para produzir hits persistentes nos detectores. Esta etapa é executada totalmente dentro do arcabouço da CMS Framework.

• Etapa de digitalização (incluindo pile-up16), onde os hits são convertidos em dados digitais (digis) que correspondem à saída da eletrônica de leitura do CMS. As colisões de pile-up são simuladas separadamente do sinal de interesse, e os dois resultados são combinados posteriormente, com a parte de pile-up agindo como uma contribuição dependente da luminosidade. A etapa de digitalização inclui simulações de ruídos e cross-talk, de modo a produzir uma saída tão próxima quanto possível à saída real da eletrônica do CMS.

Os resultados obtidos a partir de simulações utilizando GEANT4 são comparados com dados reais e com resultados obtidos a partir de toolkits diferentes, como GEANT3 (o antecessor do GEANT4) e FAMOS (FAst MOnte-Carlo Simulation, um novo toolkit projetado para ser mais rápido que o GEANT4).

16 Pile-up é o fenônemo de interferência entre hits. Devido à alta luminosidade do LHC, duas

partículas podem ativar um mesmo elemento do detector em um intervalo muito curto, de modo que os sinais dos dois hits interfiram entre si.

Page 46: Scientific Project (2008)

46

Seleção e reconstrução de eventos Em média, no CMS ocorrem da ordem de 109 colisões por segundo, no entanto

serão gravados em fita eventos a uma taxa de no máximo 100 Hz. Para atingir esse fator de redução o CMS tem um sistema de seleção de eventos em duas etapas. O Level-1 Trigger reduz a taxa inicial para 100 KHz, e após o Level-1 Trigger o evento passa pelo High-Level Trigger que deve reduzir para uma taxa de 100 Hz. Note-se que 100 Hz correspondem aos dados de uma seção de choque de 10 nb, da ordem da seção de choque do processo W → e ν, de forma que o High-Level Trigger tem a função de selecionar eventos interessantes do ponto de vista físico. Dessa forma, o High-Level Trigger deve ser capaz de trabalhar com objetos reconstruídos. Eventos sem interesse são descartados em 2,2 µs, e um sinal é emitido para o Level-1 Trigger para liberar os buffers de dados. Aqui, o conceito de proveniência é utilizado, para garantir a reprodutibilidade da sequência de operações que levou ao aceite ou rejeição do evento.

Reconstrução é a operação de obter quantidades com significado físico (como o momento ou os parâmetros da trajetória de uma partícula) a partir dos dados brutos digitalizados (digis), que podem ser obtidos tanto da eletrônica do experimento como de simulações. No CMS, os mesmos algoritmos de reconstrução são utilizados no High-Level Trigger e na reconstrução offline, mas com parâmetros diferentes. Enquanto na reconstrução offline o objetivo é reconstruir os observáveis com a melhor qualidade possível, no High-Level Trigger a ênfase é dada em descartar eventos de baixo interesse o mais rápido possível. Para esse fim, o High-Level Trigger realiza a chamada reconstrução regional, reconstruindo apenas porções do detector que foram descritas como ativadas pelo Level-1 Trigger.

Na reconstrução offline, o tempo de reconstrução é um problema menor, de maneira que a ênfase é dada à acurácia da reconstrução. Em linhas gerais, o processo de reconstrução pode ser dividido em 3 etapas:

• Reconstrução local: age sobre um conjunto de digis (tanto reais como simulados), e fornece um conjunto de RecHits. RecHits são medidas de posição, no caso do detector em questão ser o Tracker ou o Sistema de Múons, ou clusters calorimétricos, no caso do dos calorímetros Eletromagnético e Hadrônico.

• Reconstrução global: age sobre um conjunto de RecHits, e fornece o resultado final de um subsistema completo. Por exemplo, RecHits do Tracker são utilizados para formar trajetórias de partículas carregadas, e o resultado final é um conjunto de trajetórias.

• Reconstrução final: combina os resultados dos diferentes subsistemas para produzir objetos reconstruídos de alto nível. O exemplo canônico é a combinação de um Muon StandAlone (resultado da reconstrução no Sistema de Múons) e de uma ParticleTrack (resultado da reconstrução no Tracker) compatíveis, de modo a formar um Muon.

De acordo com o processo de reconstrução descrito anteriormente, existem três modos de representar um Evento no CMS:

• FEVT (Full EVent): contém todos os conjuntos de dados de todos os módulos de produção, mais o conjunto de dados brutos. Ocupa de 1 a 2 MB/evento.

• RECO (RECOnstructed Data): contém objetos selecionados, produzidos pelos módulos de reconstrução. Ocupa cerca de 500 kB/evento.

• AOD (Analysis Object Data): um subconjunto do anterior, contem apenas objetos de alto nível. É projetado para ser suficiente para a maioria das

Page 47: Scientific Project (2008)

47

análises físicas, e é substancialmente menor que o RECO, ocupando cerca de 50 kB/evento.

Participação nos grupos de análise no CMS Assim como no DZero, o CMS também está organizado em grupos responsáveis

pela construção de objetos físicos (chamados de POG, Physics Object Groups) e grupos de análise (chamados de PAG, Physics Analysis Group). Considerando nossa participação no grupo de Novos Fenômenos no DZero é natural o engajamento no grupo de SUSY e EXÓTICA, onde EXÓTICA é o grupo que trabalha com sinais além do Modelo Padrão mas não SUSY (dimensões extras está encaixado em EXÓTICA).

Os grupos de análises atuam em conjunto com os grupos de objeto levando em consideração as necessidades de cada grupo. Por exemplo, no grupo de SUSY as tarefas relacionadas ao Trigger de elétron devem ser realizadas junto com o grupo de objetos do elétron, mas tendo em vista que tipo de Trigger será necessário para selecionar eventos de SUSY.

Em Fevereiro de 2007 membros do grupo participaram de um workshop de análise em Miami, FL17 destinado a reunir os grupos da região sul dos EUA que estão interessados em colaborar no CMS. Nesse workshop apresentamos nossos planos de análise e mantivemos as portas abertas para futuras colaborações com os grupos de física de altas energias da Florida. Também mantemos contato com o prof. Greg Landsberg que é membro do CMS.

Participação no Grupo de Bósons Vetoriais e Jatos Desde agosto de 2007, Thiago Tomei encontra-se no CERN, onde permanecerá

por um ano desenvolvendo seu doutorado. No CERN ele está trabalhando com o grupo Bósons Vetoriais e Jatos. Este grupo, subordinado ao grupo CMG (formado essencialmente por físicos baseados no próprio CERN), tem como objetivo possibilitar uma comparação entre os primeiros dados experimentais a serem obtidos no CMS e as previsões do Modelo Padrão. Essa comparação é fundamental para qualquer estudo de física além do Modelo Padrão (BSM) que se deseje fazer, em particular um estudo sobre dimensões extras. A existência de assinaturas do tipo léptons + jatos + missing ET em diversos modelos BSM torna necessário o estudo do background W/Z + jatos, com o bóson decaindo leptonicamente. O observável principal do estudo é a razão (dσW/dNj)/(dσz/dNj) (razão W/Z) com ênfase no início da tomada de dados.

A razão W/Z conecta duas teorias que agem em diferentes regimes: a teoria eletrofaca, atuante nos decaimentos leptônicos dos bósons W e Z, e a cromodinâmica quântica (QCD), atuante na formação dos jatos hadrônicos. Em termos de análise, a seleção dos bósons W e Z a partir dos léptons detectados em um dado evento está relacionada com o setor eletrofraco, enquanto a medida do número de jatos no mesmo evento está relacionada com o setor de QCD. A idéia fundamental é utilizar o estudo do setor eletrofraco, que é naturalmente mais preciso, para manter as incertezas do estudo do setor de QCD sob controle.

Um aspecto fundamental desse trabalho é a concordância entre a medida experimental da razão W/Z e o cálculo da previsão teórica do Modelo Padrão, que inclui diferentes ordens da teoria de perturbação. Deve-se, portanto, fazer uma validação dos diferentes geradores de eventos de Monte Carlo: ALPGEN18, SHERPA19,

17 Ver agenda da reunião: http://indico.cern.ch/conferenceDisplay.py?confId=10219 18 http://mlm.home.cern.ch/mlm/alpgen/ 19 http://www.sherpa-mc.de/

Page 48: Scientific Project (2008)

48

MADGRAPH20 e outros. Essa validação permite identificar quais são os parâmetros ajustáveis relevantes dos geradores (especialmente os relacionados ao setor de QCD) e seus efeitos nos observáveis físicos como a multiplicidade de jatos e as distribuições de momento transversal.

Estamos trabalhando na validação do gerador ALPGEN para a geração de eventos W/Z+jatos. No CMS é utilizado o ALPGEN v212 para a geração do elemento de matriz da interação dura e PYTHIA v6409 para o párton shower, evento subjacente e hadronização. Para evitar contagens duplas no espaço de fase (eventos com n pártons duros + 1 glúon duro emitido durante o párton shower correspondem a uma fração dos eventos W+n+1 pártons duros fornecidos pelo elemento de matriz), adota-se o procedimento MLM de correspondência21. No entanto, percebemos que mesmo utilizando o procedimento MLM, existem eventos de Monte Carlo onde o número de jatos é muito diferente do número de pártons duros originais (ver Figura 20). Isso mostra que para estudar eventos W+n jatos, não é suficiente partir de eventos W+n pártons duros; uma amostra inclusiva de eventos com W+1, 2, n, ..., n+m pártons deve ser utilizada para obter observáveis com sentido físico.

Figura 20: Distribuição do número de jatos obtidos para amostras de W+0 e W+3 partons.

Algoritmos Iterative Cone e SISCone, com corte no momento transversal de 20 GeV e parâmetro R = 0.7.

20 http://madgraph.hep.uiuc.edu/index.html 21 M. L. Mangano, M. Moretti, F. Piccinini e M. Treccani, JHEP 0701, 013 (2007)

Page 49: Scientific Project (2008)

49

Também estudamos a razão taxa de eventos / multiplicidade de jatos como função dos parâmetros do algoritmo de jato, considerando os parâmetros de corte no pT X dimensão do jato, para uma série de algoritmos: Iterative Cone, CDF RunII Midpoint, Kt algorithm, SISCone. Entretanto, o comportamento é o mesmo para eventos W+jatos e Z+jatos, de modo que a razão W/Z é relativamente estável com relação a variações desses parâmetros.

O grupo de jatos do CMS tem como um de seus objetivos a validação de certas ferramentas utilizadas para a reconstrução dos eventos, como os algoritmos de jatos: procedimentos que permitem, a partir de uma coleção de objetos de entrada (pártons simulados, hádrons simulados ou atividade calorimétrica) derivados dos pártons do estado final da interação dura, obter uma estimativa para o momento desses pártons. Esses algoritmos têm sido objeto de discussão recentemente, e muita ênfase foi colocada na necessidade de um algoritmo bem definido, que apresente uma série de características: seguro contra emissões infravermelhas e colineares, independente dos detalhes do detector e independente da natureza dos objetos de entrada. Ao trabalhar com jatos e validação de Monte Carlo para processos envolvendo vários pártons no estado final, o grupo de Bósons Vetoriais e Jatos colabora fortemente com o grupo de jatos. Um estudo que estamos realizando refere-se à definição de um fator de qualidade para os algoritmos de jatos, relativo à quão bem um dado algoritmo pode, em função dos seus parâmetros de entrada, reconstruir jatos que representem de maneira fiel os pártons duros.

Um último aspecto do trabalho na colaboração consiste na execução de serviços: estudos pontuais relacionados a necessidades imediatas da colaboração. Um serviço importante do qual Thiago Tomei participou foi a investigação de eventos de Monte Carlo anômalos com W+jatos onde não era detectada nenhuma atividade no calorímetro hadrônico. A fonte do problema revelou-se um erro na interface ALPGEN-PYTHIA-CMSSW, onde o último evento de uma rodada de geração de Monte Carlo, ao não ser aprovado pelo procedimento MLM, era erroneamente mantido na memória, mas não recebia tratamento posterior pelo PYTHIA, i.e. não sofria a hadronização. Dessa maneira, quarks e glúons eram erroneamente rotulados como partículas estáveis, o evento era gravado em disco, e a simulação seguia sem erros. Naturalmente, quando da simulação da interação das partículas com o detector (realizada pelo software GEANT4), a ausência de uma definição para interações entre quarks/glúons e átomos levava a uma total falta de atividade calorimétrica. Esse problema foi estudado e documentado, e um filtro para excluir esses eventos da análise foi proposto.

Page 50: Scientific Project (2008)

50

VII. Processamento de Dados

O SPRACE e o Processamento no CMS Um experimento do porte do Large Hadron Collider representa um grande

investimento em termos financeiros e de mão-de-obra. A construção do LHC foi aprovada em 1995 com um orçamento de 2,6 bilhões de francos suíços, contando com um adicional de 210 milhões de francos suíços para cobrir os custos com os detectores. No entanto, o custo acabou excedendo as expectativas iniciais o que exigiu uma reformulação do orçamento em 2001, o que levou à concessão de um adicional de aproximadamente 480 milhões de francos suíços para o acelerador e 50 milhões de francos suíços para os experimentos. Hoje se acredita que o custo total do projeto poderá atingir os US$ 10 bilhões. Apenas os Estados Unidos contribuíram com aproximadamente US$ 500 milhões para permitir a participação de pesquisadores americanos nos experimentos ATLAS e CMS.

Apenas para efeito de comparação com a contribuição dos Estados Unidos, se fizermos a equivalência baseada no Produto Interno Bruto per capita, levando em conta a paridade do poder de compra22 (PIB PPP), a contribuição que deveria caber ao Brasil para participar dos experimentos do LHC seria de R$ 195 milhões.

A participação do SPRACE no LHC teve início em janeiro de 2003, quando tanto o acelerador como o detector do CMS já haviam sido completamente financiados pelos demais membros da colaboração. Depois de seguidas discussões com o spokesman e com o Collaboration Board do CMS chegou-se à conclusão de que a melhor forma do Brasil contribuir para o experimento seria através do processamento e armazenamento de dados. Isto levou à nossa iniciativa de implantar um centro de análise em São Paulo operando como uma Tier-2 na estrutura de processamento distribuído em grid do WLCG.

Essa abordagem não só permitiu a participação paulista no experimento como trouxe algumas vantagens importantes. Em primeiro lugar, a verba investida permaneceu no Brasil tendo sido gasta até o momento com a indústria nacional. Ao mesmo tempo em que o hardware permanece no Brasil, somos capazes de gerar competência local em áreas como computação de alto desempenho, processamento em grid, redes de altas velocidades, etc. Por outro lado, a proximidade da infra-estrutura física do cluster permite que muitos dos serviços que necessitam ser prestados para a colaboração, como forma de manter o experimento em funcionamento (shifts), possam ser executados aqui mesmo no Brasil sem a necessidade de deslocamento dos pesquisadores até o CERN.

A seguir abordaremos as atividades do SPRACE relacionadas ao processamento de dados no que se refere à infra-estrutura física e de software.

22 Gross Domestic Product per head (Purchasing Power Parity): dados de 2006 do “The

Economist” http://www.economist.com e estimativa para 2007 do “CIA – The World Factbook” https://www.cia.gov/library/publications/the-world-factbook/

Page 51: Scientific Project (2008)

51

Infra-Estrutura Física

Espaço físico e recursos computacionais O SPRACE mantém seu centro de processamento nas dependências do Centro

de Ensino e Pesquisa Aplicada do Departamento de Física Experimental, no Instituto de Física da USP. A área ocupada, de cerca de 25 m2, está situada no primeiro andar do edifício Van der Graaff, isolada através de divisórias e mantida sob condições de temperatura controlada, na faixa de 20 a 24 graus Celsius. O resfriamento é realizado por três aparelhos de refrigeração e condicionamento de ar, do fabricante Springer Carrier, sendo dois de 36 kBTU/h e um de 90 kBTU/h, totalizando uma capacidade de refrigeração de 162 kBTU/h. O SPRACE dispõe de um quadro elétrico dedicado, com entrada de energia elétrica independente dos demais laboratórios.

O esquema geral de estruturação desse espaço físico é apresentado na Figura 21 a seguir. O espaço é ocupado por 6 racks de 23 U de altura, que abriga os servidores do projeto, além um rack de 37 U usado para acomodar diversos servidores de teste e um pequeno rack de 12 U para os equipamentos de rede. Os pequenos quadrados numerados de 01 a 20 na Figura 21 indicam os pontos de tomada elétrica instalados na parte inferior do piso elevado.

Figura 21: Espaço físico ocupado pelo datacenter do SPRACE Todo o dimensionamento das instalações físicas, planejado em 2004, foi

elaborado levando-se em conta a implantação do cluster completo com 80 servidores de processamento dual-processados. O cluster, em sua versão final após as 3 fases de implantação, respectivamente em 2004, 2005 e 2006, conta atualmente com 86 nós de processamento e 4 servidores principais.

Infra-estrutura de rede elétrica O quadro de distribuição de energia elétrica do SPRACE é alimentado por 3

fases de 120VAC, cada uma protegida por um fusível de 160A, e distribui 2 fases + terra para um total de 20 tomadas, instaladas abaixo do piso elevado da sala de servidores. Dessas 20 tomadas, 13 delas alimentam os no-breaks que protegem os 90 servidores: 12

Page 52: Scientific Project (2008)

52

no-breaks na sala de servidores e um no-break externo, na sala de operação, que alimenta o servidor de login e uma estação de trabalho. Cada uma das tomadas dispõe de um disjuntor independente, de 20 A x 380 VAC, localizado no quadro de distribuição. A numeração dos disjuntores está marcada na fiação interna ao quadro, começando em 01 no canto superior esquerdo, e terminando em 20 no canto inferior direito (ímpares à esquerda e pares à direita). A distribuição da potência total consumida pelo cluster está distribuída de forma equilibrada entre as 3 fases de 120 VAC.

Os no-breaks adquiridos no decorrer das 3 fases do projeto são todos do fabricante APC (American Power Conversion Corp.), que permitem a monitoração e o ajuste de uma série de parâmetros internos. A capacidade de corrente nominal de cada no-break em regime é de 16A, e os disjuntores de cada tomada são de 20A. Entretanto, a corrente de surto no momento em que cada no-break é religado é superior a 20 A, de modo que em geral eles desarmam no instante em que a energia é restabelecida após uma queda de energia prolongada. Uma das configurações possíveis desses no-breaks é a chamada "Capacidade mínima antes de voltar a ligar", que força o equipamento a carregar suas baterias até uma percentagem especificada antes de voltar a rearmar em caso de queda de energia (o padrão é 0 - religa imediatamente, mas pode ser configurado para religar quando a carga nas baterias atingir 15, 50 ou 90%). Todos os no-breaks foram configurados de modo que eles façam uma carga de 15% nas baterias antes de religar os servidores, para proteção das próprias baterias e minimização do surto de corrente na partida a frio, uma vez que os servidores estão todos configurados para religarem automaticamente quando a energia é restabelecida.

Infra-estrutura de rede de dados Link internacional A rede AMPATH foi criada pelo projeto CIARA – Center for Internet Augmented

Research and Assessment23 da Florida International University (FIU), com o objetivo de estabelecer enlaces ópticos de grande largura de banda entre os EUA e redes de educação e pesquisa latino-americanas. A AMPATH é hoje o principal ponto de troca de tráfego internacional entre as redes de educação e pesquisa da América do Sul, México e Caribe e as principais redes de pesquisa dos EUA, provendo conectividade para as redes Abilene (Internet2), StarLight e, mais recentemente, a rede Atlantic-Wave. Desde junho de 2001, a AMPATH provê conectividade para as principais redes da América do Sul: REUNA (Chile), RNP (Brasil), CNTI (Venezuela), RETINA (Argentina), rede acadêmica paulista ANSP, Smithsonian Tropical Research Institute no Panamá, Universidad Francisco Gavidia em El Salvador, Universidad de Puerto Rico, além da RedCLARA24, do observatório Arecibo e do telescópio Gemini South. A Figura 22 a seguir apresenta um diagrama das conexões da rede AMPATH, cujo backbone está instalado no NAP of the Americas, em Miami.

23 http://ciara.fiu.edu/ 24 http://www.redclara.net/

Page 53: Scientific Project (2008)

53

Figura 22: A rede AMPATH Dentre as conexões indicadas na Figura 22, destacamos o enlace São Paulo-

Miami (cor-rosa) que é bastante estratégico; os principais objetivos de utilização definidos para ele são:

• Estabelecer um peering com a rede Abilene (Internet2) e outras redes de pesquisa e educação dos Estados Unidos através da AMPATH, possibilitando conectividade óptica de alta velocidade a todos os grupos de pesquisa do Estado de São Paulo com centros de pesquisa americanos.

• Fornecer conectividade ao backbone WHREN-LILA, um projeto proposto pela FIU e CENIC – Corporation for Education Network Initiatives in California25, e financiado pela NSF, que consiste de um anel óptico abrangendo todo o hemisfério oeste, interligando as redes acadêmicas da América Latina com importantes pontos de troca de tráfego nos EUA.

• Fornecer conectividade ao backbone Atlantic-Wave (A-Wave), similar à iniciativa Pacific Wave na costa oeste americana, que provê a interligação de vários pontos de troca de tráfego internacional por toda a costa leste americana, e estende-se à Europa pela rede GÉANT2, e que em breve permitirá o provisionamento de enlaces multi-lambda usando tecnologia WDM.

Durante o Bandwidth Challenge do evento SuperComputing 2004, que ocorreu em Pittsburg na Pensilvânia, esse enlace, à época recém inaugurado, foi testado quase ao limite pela primeira vez, como parte da demonstração denominada “High Speed Terabyte Transfers for Physics”, coordenada pelo Caltech. Essa demonstração tornou-se possível graças ao trabalho realizado pelo NARA - Núcleo de Apoio à Rede Acadêmica, que administra a rede ANSP, e pelo SPRACE, e ocorreu devido a uma singular união de esforços de várias entidades: o consórcio Internet2 e a empresa Qwest forneceram a conectividade entre Miami e Pittsburg, as empresas Terremark do Brasil e

25 http://www.cenic.org/

Page 54: Scientific Project (2008)

54

Impsat forneceram espaço físico e suporte técnico em seus datacenters; a Eletropaulo Telecom e a Iqara Telecom (recentemente adquirida pela CTBC Telecom) cederam fibras ópticas em São Paulo; a LANautilus, do grupo Telecom Itália, cedeu capacidade no cabo submarino entre São Paulo e Miami; a FPL (Florida Power & Light Company) FiberNet cedeu fibras ópticas em Miami; e finalmente, Cisco e Foundry supriram os equipamentos de rede necessários para o funcionamento da conexão. O enlace foi fechado desde o NAP do Brasil em Barueri, São Paulo, até o showroom do evento em Pittsburg, e o tráfego atingiu praticamente 2 + 1 Gbps (tráfego de chegada + tráfego de saída) e foi sustentado durante cerca de 1 hora. Este é o recorde atual de transmissão de dados entre os hemisférios26.

A rede Abilene27 foi o primeiro testbed óptico de extensão nacional construído nos Estados Unidos, sobre o qual foi implantada a rede Internet2. É uma corporação sem fins lucrativos, e iniciou-se através de uma sociedade entre as empresas Qwest, Cisco Systems, Nortel Networks e a Indiana University. Atualmente a rede Abilene, também chamada de Internet2, é formada por um amplo consórcio de universidades americanas, denominado UCAID (University Corporation for Advanced Internet Development)28. A AMPATH foi a responsável por prover acesso à rede Abilene aos países latino-americanos, através da disponibilização de diversos canais de 45 Mbps para a ANSP em São Paulo, RNP no Rio de Janeiro, RETINA em Buenos Aires, REUNA em Santiago, REACCIUN em Caracas e SENACYT no Panamá. A rede ANSP recebeu o canal de 45 Mbps em março de 2002.

O padrão internacional atual de comunicação óptica está em 10 Gbps. A considerar que até 2004 os pesquisadores do Estado de São Paulo contavam com um canal de 45 Mbps com a rede Abilene americana (menos de 0,5% do padrão internacional), a evolução que está ocorrendo é bastante significativa, pois o mesmo canal já está operando a 2,5 Gbps desde 2006 (25% do padrão internacional), e há uma intensa movimentação no sentido de ampliá-lo para 10 Gbps.

É evidente que na América Latina ainda não existe a mesma integração na área de redes ópticas avançadas para pesquisa e educação, como ocorre nos EUA, no Canadá, na Europa, e nos países da Ásia Oriental e Austrália, onde já existem há mais tempo fortes enlaces intra-regionais e organizações regionais correspondentes, como a rede Abilene nos EUA, a CA*Net4 29 no Canadá, a TERENA - Trans-European Research and Education Network30 na Europa, e a APAN – Ásia-Pacific Advanced Network31 na região da Ásia e Austrália.

Esta situação começou a mudar em 2005, em virtude de uma iniciativa da NSF, lançada em abril de 2004. Naquele ano, a NSF abriu um programa de financiamento de novas conexões entre as redes avançadas dos EUA e redes semelhantes em outras partes do mundo, denominado IRNC - International Research Network Connections. Este programa tem dado apoio a grandes projetos de conexão por um período de 5 anos, com investimentos anuais da ordem de US$ 5 milhões, e envolvem diretamente a Europa, Japão, Austrália, Rússia e América Latina. No caso da América Latina, a proposta de projeto submetida pela FIU e CENIC, em conjunto com a rede ANSP e com

26 http://www.fapesp.br/agencia/boletim_dentro.php?data[id_materia_boletim]=2846 27 http://abilene.internet2.edu 28 http://www.ucaid.org 29 http://www.canarie.ca/canet4/ 30 http://www.terena.nl 31 http://www.apan.net

Page 55: Scientific Project (2008)

55

as redes de pesquisa nacionais latino-americanas RNP, REUNA, RETINA e CUDI, foi uma das contempladas pelo programa, que foi aprovado em dezembro de 2004.

A proposta submetida pela FIU e CENIC criou uma rede óptica abrangente para todo o hemisfério oeste. O projeto, denominado WHREN-LILA 32, da sigla em inglês Western Hemisphere Research and Education Network – Links Interconnecting Latin America, foi iniciado oficialmente em maio de 2005, e resultou de uma parceria entre a NSF (Award # 0441095), FAPESP (Projeto No 04/14414-2), Corporation for Education Initiatives in California (CENIC) e Florida International University (FIU), esta última a responsável pelo projeto AMPATH. A rede WHREN-LILA está conectando pontos de troca de tráfego internacional já bem estabelecidos da América do Norte (Miami, FL, Seattle, WA, Los Angeles, CA, Chicago, IL e New York, NY) com pontos de troca de tráfego emergentes na América Latina (São Paulo no Brasil, Santiago no Chile e Tijuana no México). O resultado desse trabalho é estabelecer uma rede de alta velocidade e alta disponibilidade para produção e pesquisa nas Américas. O projeto WHREN-LILA aumentou de imediato o enlace São Paulo-Miami para 1,2 Gbps, e adicionou três novos enlaces: um de 155 Mbps entre São Paulo e Santiago, outro de 310 Mbps entre Santiago e Tijuana, e um enlace em fibra apagada entre Tijuana e San Diego, na Califórnia. Durante o período de 5 anos de duração do financiamento da NSF, cada um desses links evoluirá para 2,5 Gbps, de acordo com o projeto proposto. A espectativa é que o enlace São Paulo – Miami, que aumentou para 2,5 Gbps no final de 2006, evolua para 10 Gbps entre 2008 e 2009.

Figura 23: Conexão São Paulo – Miami atual, definida pelo projeto WHREN-LILA

A Figura 23 mostra detalhes da conexão atual entre Miami e São Paulo dentro do contexto do projeto WHREN-LILA. O par de roteadores Cisco ONS 15454 são os elementos fundamentais dessa conexão. O ONS 15454 é um equipamento sofisticado e muito versátil, com suporte a serviços multi-camada e multi-protocolo, que permite um

32 http://whren.ampath.net

Page 56: Scientific Project (2008)

56

aumento incremental da largura de banda do enlace através da agregação de múltiplos circuitos STM-4 (622 Mbps) ou da utilização de circuitos STM-16 (2,5 Gbps). Pode-se ver no diagrama que a configuração adotada fornece conectividade plena em gigabit-Ethernet para a rede ANSP, e conectividade em gigabit-Ethernet compartilhada entre as redes CLARA e RNP.

Outra iniciativa de relevância, como já mencionado, é o backbone Atlantic-Wave (A-Wave), um peering internacional que interliga Canadá, Estados Unidos, América do Sul e Europa, com o objetivo de fornecer serviços multi-camada e multi-protocolo entre as redes participantes. Dentre as funcionalidades previstas, estão:

• Serviços de peering de camada 3 sobre Ethernet com suporte a Jumbo-Frame

• Serviços de comutação de lambdas e provisionamento de “lightpaths” para o GLIF – Global Lambda International Facility.

O GLIF33 é um laboratório virtual em escala global, estabelecido em 2003, para o desenvolvimento de middleware e aplicações para uma área de pesquisa emergente conhecida como lambda Grids, que permite que aplicações para Grids computacionais interajam ativamente com a infra-estrutura de rede subjacente, através do controle dos comprimentos de onda dos sinais ópticos em sistemas WDM, os quais poderão ser dinamicamente reconfigurados. A comunidade GLIF compartilha a visão de se construir um novo paradigma de redes, que usa a tecnologia de geração e controle de caminhos ópticos (lightpaths) para dar suporte ao transporte de dados para aplicações em e-Science que demandam grande volume de troca de dados. Esta visão é compartilhada por inúmeros outros projetos, dentre os quais o UltraLight e o PLaNetS (Physics Lambda-based Network System), projetos liderados pelo Caltech.

Nas Américas, os pontos de distribuição do Atlantic-Wave estarão em New York, NY, Washington, DC, Atlanta, GE, Miami, FL, e São Paulo. Em New York e em São Paulo, o anel se fechará com a Europa, através da rede européia GÉANT2. Novamente, o enlace São Paulo-Miami desempenha um papel fundamental nessa rede.

Com base no panorama de crescimento das redes ópticas apresentado, pode-se facilmente concluir que São Paulo está emergindo como um importante ponto de troca de tráfego de rede internacional, agregando o backbone da rede CLARA, conectando-se à rede GÉANT2 européia, e participando como ramo importante dos projetos WHREN-LILA e Atlantic-Wave. Neste contexto, a situação do SPRACE (assim como a de qualquer centro de pesquisa ou laboratório do Estado de São Paulo integrado à rede ANSP), é bastante privilegiada, pois este está ligado a um ponto de troca de tráfego ao qual estão se conectando redes de alta velocidade trans-nacionais, com troca de tráfego com os EUA, Chile, México e Europa, financiadas principalmente por projetos acadêmicos. Essa ampliação da conectividade já está mostrando resultados muito positivos, possibilitando ao Brasil participar, pela primeira vez, de eventos de demonstração de tráfego de rede compatíveis com padrões internacionais, absolutamente necessários para a evolução da pesquisa científica no Brasil. O SPRACE tem aproveitado essas oportunidades para testar e aprimorar as configurações de seus equipamentos, e estreitar os laços de cooperação mútua com a comunidade internacional.

Em virtude das transformações advindas da ampliação do enlace entre São Paulo e Miami, o SPRACE viu-se obrigado a atualizar sua infra-estrutura de rede. Graças a uma importante doação do Caltech, que ocorreu em maio de 2005, o SPRACE conta

33 http://www.glif.is/

Page 57: Scientific Project (2008)

57

hoje com um switch/router Cisco Catalyst 3750, com software EMI (Enhanced Multilayer Image), que dá suporte a roteamento IP dinâmico completo. A doação também incluiu um par de conversores ópticos 1000BASE-LX e 1000BASE-ZX, que permitiram conectar o switch diretamente aos roteadores da rede ANSP, situados a uma distância de quase 70 Km. O switch Catalyst 3750 é o default gateway de toda a rede do SPRACE. Um bloco de endereços IP (200.136.80.0/24) foi disponibilizado pela FAPESP para uso exclusivo do SPRACE, e foi estabelecida uma rede ponto-a-ponto entre este e o roteador de entrada da rede ANSP em Barueri. Com esta alteração, o switch Catalyst tornou-se o equipamento responsável pelo roteamento de tráfego entre as seguintes redes:

• Rede 200.136.80.0/24, à qual estão ligados os servidores do SPRACE. • Rede 143.108.254.240/30, enlace ponto-a-ponto ligado diretamente à

rede ANSP e, conseqüentemente, ao link internacional. • Rede 10.24.46.0/24 , ligada aos grupos de pesquisa em física de altas

energias no Rio de Janeiro, através da rede provida pelo projeto GIGA. O switch Catalyst é também o responsável pela troca de tráfego da rede interna

ao cluster do SPRACE, interligando os switches instalados em cada rack, os servidores de front-end e OSG gatekeeper e o servidor de armazenamento. A Figura 24 a seguir ilustra a configuração atual da rede do SPRACE, evidenciando o switch Catalyst como o equipamento central da rede.

O switch/router Catalyst também fornece informações de tráfego para o sistema de monitoração do projeto UltraLight34, do qual o SPRACE é participante, via protocolo SNMP. Esse sistema de monitoração é baseado no software MonALISA, desenvolvido pelo Caltech35.

Figura 24: Configuração da rede do SPRACE A Figura 25 a seguir apresenta em detalhes a conexão dos servidores do SPRACE

às redes Abilene, Atlantic-Wave e UltraLight através dos roteadores da rede ANSP.

34 http://ultralight.caltech.edu/ 35 http://monalisa.caltech.edu/

Page 58: Scientific Project (2008)

58

A participação do SPRACE nos Projetos GIGA e KyaTera foi fundamental para prover o laboratório de uma infra-estrutura de rede bastante avançada, capaz de atender às necessidades de conectividade óptica dos próximos anos. Graças a esses projetos, em 2005 foi lançado um cabo óptico monomodo de excelente qualidade (atenuação menor do que 0.2 dB / Km), do fabricante Lucent, com, com 24 fibras, cobrindo a distância de 1400 metros entre o Centro de Computação Eletrônica (CCE) e o Instituto de Física, dentro do campus da USP. Este cabo foi doado pelo Projeto KyaTera, e o custo de lançamento do mesmo, no valor de R$ 1.653,59, foi custeado com a reserva técnica do SPRACE. O trabalho foi contratado e administrado pelo CCE, e executado pela mesma empresa que lançou os cabos ópticos dos projetos GIGA e KyaTera por todo o campus da USP.

Figura 25: Ligação do SPRACE às redes americanas através da rede ANSP As fibras desse cabo óptico foram divididas em 3 grupos, e destinadas para a

participação do SPRACE nos projetos GIGA e KyaTera, sendo algumas reservadas para aumentar a conectividade óptica entre o Instituto de Física e o CCE. A divisão ficou da seguinte forma: 2 pares dedicados ao projeto GIGA, 6 pares dedicados ao projeto KyaTera, e 4 pares para o Instituto de Física. Assim, como resultado secundário desse trabalho, o Instituto de Física quintuplicou sua capacidade de comunicação via rede óptica com o Centro de Computação Eletrônica.

Um dos pares do projeto GIGA foi usado para fechar a conexão entre o switch Summit 200-24 do SPRACE e o roteador BlackDiamond 6808 localizado no CCE, ambos de propriedade do projeto GIGA. O segundo par é o responsável por fechar a conexão entre o switch/router Catalyst 3750 do SPRACE e o CCE. Um patch-cord instalado no wiring-closet do CCE conecta esse par de fibras ao equipamento MRV da ANSP, que provê a conexão multi-lambda entre o CCE e o NAP do Brasil em Barueri, local onde estão instalados os roteadores de núcleo que formam o backbone da rede ANSP.

Como o cabo óptico Lucent é um cabo externo, que pelas normas não pode avançar para dentro do laboratório, foi também instalado um cabo óptico indoor com 16 fibras, da empresa Metrocable, doado também pelo projeto KyaTera, entre o Centro de Computação do Instituto de Física da USP (CCIFUSP) e o laboratório SPRACE,

Page 59: Scientific Project (2008)

59

cobrindo uma distância de 50 metros. O rack de 12 U instalado na sala de servidores do SPRACE, que abriga os ativos de rede, também foi doado pelo projeto KyaTera. O projeto GIGA, por sua vez, disponibilizou dois painéis de distribuição óptica para 24 fibras. Um deles foi instalado no CCIFUSP e outro no rack de rede do SPRACE. As emendas ópticas e os conectores ópticos foram também disponibilizados pelo projeto GIGA. No distribuidor do CCIFUSP, foram efetuadas fusões em 4 pares das fibras que chegam do CCE através do cabo óptico externo. Tais fibras foram disponibilizadas para uso do Instituto de Física. As fibras restantes do cabo óptico externo (8 pares) foram fundidas diretamente às fibras do cabo indoor, e levadas diretamente ao painel de distribuição óptica do SPRACE, o qual foi instalado dentro do rack de 12 U.

Infra-estrutura de processamento e armazenamento de dados No final de 2006 a infra-estrutura computacional do SPRACE foi completada,

com o término da implantação da fase 3. Assim, iniciamos o ano de 2007 com o cluster operando a plena capacidade – um poder de processamento de cerca de 400 kSI2K (kilo SPEC Int 2000) e pouco mais de 10 Terabytes de capacidade de armazenamento de dados. Agora em sua versão final, o cluster conta com 86 servidores dual-processados dedicados exclusivamente ao processamento de jobs, mais 4 servidores principais. Os servidores principais realizam as funções de front-end, OSG gatekeeper, controle de armazenamento centralizado, e controle dos pools de armazenamento distribuído. Os servidores de processamento são os que efetivamente executam o processamento de jobs, atuando como number crunchers. Dentre os nós de processamento, os 32 mais recentemente adquiridos incorporam a tecnologia de núcleo duplo (dual-core). Logo, a somatória de unidades ou núcleos de processamento perfaz um total de 242. A capacidade da memória principal de cada servidor é tal que para cada núcleo de processamento há pelo menos 1 GB de memória disponível.

A estrutura computacional do SPRACE é atualmente composta dos seguintes elementos:

1. Nós de processamento • 22 servidores com 2 processadores Intel Xeon de 2.4 GHz cada, com FSB

(Front Side Bus) de 533 MHz, 512 MB de memória cache L2, núcleo Northwood com Hyper-Threading e tecnologia de 130 nm, lançados pela Intel em 2003 (codinome Prestonia). Estes servidores foram adquiridos na primeira fase do projeto, entre dezembro e janeiro de 2004.

o Poder de processamento: (44 x 800 SI2K) = 35.2 kSI2K • 32 servidores com 2 processadores Intel Xeon de 3.0 GHz cada, com FSB

de 800 MHz, 1 MB de memória cache L2, com arquitetura EM64T e tecnologia de 90 nm, lançados pela Intel em 2004 (codinome Nocona). Este segundo lote de servidores de processamento foi adquirido na segunda fase do projeto, entre maio e junho de 2005.

o Poder de processamento: (64 x 1400 SI2K) = 89.6 kSI2K • 32 servidores com 2 processadores Intel Xeon de núcleo duplo (dual-

core) de 2.0 GHz cada, com FSB de 1333 MHz, 4 MB de memória cache L2, com microarquitetura Core 2 e tecnologia de 65 nm, lançados pela Intel em 2006 (codinome Woodcrest). Este terceiro lote de servidores foi adquirido na terceira fase do projeto, entre agosto e setembro de 2006.

o Poder de processamento: (128 x 2100 SI2K) = 268.8 kSI2K

2. Servidores de gerenciamento

Page 60: Scientific Project (2008)

60

• Itautec InfoServer 1030, atualmente acumulando as funções de web e wiki server, servidor de login e console do cluster, com 2 processadores idênticos aos dos nós de processamento da primeira fase.

• Dell PowerEdge 2650, que exerce a função de servidor de armazenamento, com 2 processadores idênticos aos dos nós de processamento da primeira fase.

• Dell PowerEdge 1850, que exerce a função de gatekeeper, com 2 processadores idênticos aos dos nós de processamento da segunda fase.

o Poder de processamento: (4 x 800 SI2K) + (2 x 1400 SI2K) = 6.0 kSI2K 3. Servidores de teste • 2 servidores Supermicro SuperServer 6015B-T, com 2 processadores Intel

Xeon de núcleo quádruplo (quad-core) de 2.33 GHz cada, com FSB de 1333 MHz, 8 MB de memória cache L2, com microarquitetura Core 2 e tecnologia de 65 nm (codinome Clovertown). Ambos dispõem de 8 GB de memória e 4 discos SATA-II de 750 GB cada. Esses servidores foram doados pelo Caltech, e são usados para gerar tráfego no enlace internacional, como parte da colaboração CHEPREO.

4. Armazenamento de dados • 2 unidades Dell PowerVault 220S, com 14 discos SCSI Ultra320 de 146 GB x

10.000 rpm cada. Estas unidades foram adquiridas na primeira fase do projeto.

• 2 unidades Dell PowerVault 220S, com 14 discos SCSI Ultra320 de 300 GB x 10.000 rpm cada. Estas unidades foram adquiridas na segunda fase do projeto.

o Capacidade total de armazenamento central: 6 x 1.8 TB = 10.8 TB

Fazendo a somatória dos valores de SI2K dos servidores adquiridos no decorrer das 3 fases do projeto, obtém-se que o poder de processamento total do cluster atual é de cerca de 400 kSI2K. A medida SI2K é uma abreviação para SPEC Int 2000, um benchmark publicado pela SPEC (Standard Performance Evaluation Corporation), corporação sem fins lucrativos formada para estabelecer e manter um conjunto de benchmarks padronizados relevantes que podem ser aplicados às gerações atuais de computadores. Em particular, o SPEC Int mede a capacidade de processamento aritmético de números inteiros. Por volta do ano 2000, os principais laboratórios ligados a experimentos em física de altas energias passaram a adotar os valores publicados pela corporação SPEC, em particular o SPEC Int, como medida padrão para registro e comparação de poder de processamento entre os diversos sites, por isso a adoção dos valores SPEC Int 2000. Todos os resultados publicados podem ser encontrados no site da Standard Performance Evaluation Corporation (SPEC)36. Embora a organização SPEC tenha uma suíte de benchmarks dedicada a medir o desempenho de servidores compostos de vários núcleos de processamento, conhecida como SPEC Int Rate, todos os laboratórios de física de altas energias em geral, e o CERN em particular, adotam a medida SPEC Int obtida em um servidor usando um único núcleo de processamento, e multiplicam este valor pelo número de núcleos idênticos disponíveis no cluster. Este foi exatamente o procedimento que adotamos na estimativa apresentada acima.

A Figura 26 a seguir resume a infra-estrutura computacional atual do SPRACE. A atualização mais recente no parque computacional ocorreu a partir de novembro de

36 http://www.spec.org/cpu2000/results/cint2000.html

Page 61: Scientific Project (2008)

61

2007, quando detectamos um gargalo na taxa de transferência de dados do subsistema de armazenamento, provocado pela sobrecarga no barramento interno do servidor de armazenamento. Para solucionar o problema, elaboramos uma proposta de atualização de baixo custo com objetivo de aumentar o desempenho desse subsistema. A atualização incluiu a aquisição de uma terceira controladora de discos PERC (PowerEdge Expandable RAID Controller), que foi instalada no servidor PowerEdge 1850, e o uso de duas interfaces de rede quad-gigabit, doadas pela Intel Brasil.

Figura 26: Infra-estrutura computacional atual do SPRACE

Infra-Estrutura de Software O LHC deverá enfrentar um grande desafio para processar os dados coletados

por seus detectores, pois deverá ocorrer um bilhão de interações próton-próton por segundo. Esta taxa de produção jamais foi atingida em outro detector e deverá exigir que o CMS tenha que armazenar dados à razão de 100 MB/seg.

O processamento destes dados só será possível com a implantação da arquitetura de Grid. Neste contexto, todos os laboratórios que participarem de um experimento do LHC poderão contribuir para o processamento colocando à disposição seus recursos computacionais. Passa, portanto, a ser imprescindível participar desta iniciativa para que se possa fazer pesquisa científica nesta área.

Como parte de nossa participação no esforço de processamento para a Colaboração CMS, o SPRACE passou a fazer parte do Open Science Grid (OSG) 37. O OSG é a iniciativa americana de processamento distribuído que apóia a computação científica através da colaboração entre pesquisadores, desenvolvedores de software e engenheiros de rede. O OSG vem operando uma rede internacional de recursos

37 http://www.opensciencegrid.org/

Page 62: Scientific Project (2008)

62

computacionais desde 2005, e pesquisadores das mais diversas áreas já têm acesso a esses recursos compartilhados.

Em meados de 2006 o SPRACE passou a produzir os primeiros eventos de Monte Carlo oficiais para a colaboração CMS através da infraestrutura do OSG, trocando dados com as demais Tier-1 e Tier-2, e realizando trabalhos de análise em Grid. Desde então o SPRACE atua como um Tier-2 plenamente funcional do experimento CMS. O T2_SPRACE vem se juntar aos Tier-2 de Caltech, Florida, MIT, Nebrasca, Purdue, UCSD, UERJ e Wisconsin, formando o sistema de processamento das Américas do CMS, sob a centralização do Tier-1 do Fermilab. Somos hoje capazes de atuar plenamente sob a arquitetura de Grid do LHC, o World LHC Computing Grid. Além da capacidade de processar os trabalhos de grid da colaboração, outro requisito para a inserção do SPRACE no sistema de processamento distribuído do CMS é ser capaz de transferir grande volume de dados. Usando o sistema de gerenciamento de transferência de dados do CMS, o PhEDEx, já transferimos cerca de 100 TB de dados entre o Fermilab e o SPRACE.

Desde o início de 2007 o SPRACE vem também realizando suas atividades de processamento de dados para o experimento DZero utilizando a infraestrutura do OSG. Dentro da infra-estrutura de processamento distribuído, tanto o CMS quanto o DZero são organizações virtuais que utilizam os recursos disponibilizados pelo OSG para a execução de seus trabalhos. O SPRACE está hoje completamente inserido dentro do OSG. Mais ainda, em 2007 os grids OSG e EGEE (grid da comunidade européia) começaram a operar de forma compatível de modo que hoje em dia o SPRACE é capaz de processar indistinta e simultaneamente trabalhos de análise do CMS submetidos por um pesquisador da Itália, tarefas de reprocessamento de dados do DZero gerenciadas centralmente a partir do Fermilab e simulações para membros de organizações virtuais de bioinformática localizados em qualquer ponto do planeta, sem que haja necessidade de intervenção explícita para isso. O Grid mundial existe e o SPRACE é parte integrante dele.

Como qualquer outro Grid, o OSG pode ser definido como um sistema que coordena recursos sem a utilização de um sistema central de gerenciamento, no qual o sistema combinado é significativamente maior que suas partes. O funcionamento de um Grid pode ser mais bem compreendido se visualizado em termos de suas camadas de funcionalidades.

• Camada de Aplicativos e Serviços • Camada do Middleware

o Acesso ao processamento o Acesso aos dados o Serviços de autenticação o Serviços de comunicação o Serviços de Informação

• Camada dos Recursos o Armazenamento de Dados o Processamento de Dados o Sistemas de Monitoramento

• Camada de Infra-estrutura de Rede o Switches e roteadores o Equipamento de transmissão dos dados

Page 63: Scientific Project (2008)

63

Dentre estas camadas de funcionalidades, podemos identificar o middleware como sendo a parte nova trazida pela arquitetura de grid ao funcionamento dos sistemas de computação. Existem várias opções para a escolha do middleware mais adequado. Um deles, no entanto, se destaca; é aquele que é regulamentado por um consórcio de desenvolvedores, o Globus Consortium, e organizado no Globus Toolkit. Os principais components do Globus Toolkit são:

• GRAM (Globus Resource Allocation Manager): Converte a demanda por recursos empreendida pelo Grid em instruções que o sistema local possa compreender.

• GSI (Grid Security Infrastructure): Provê a autenticidade do requerente dos serviços e especifica sua autorização de uso dos recursos locais.

• MDS (Monitoring and Discovery Service): É o serviço encarregado de fornecer informação sobre os recursos existentes no Grid e sua disponibilidade de alocação.

• GRIS (Grid Resource Information Service): É o serviço executado pelos elementos computacionais do Grid para propagandear a quantidade e disponibilidade dos serviços locais.

• GIIS (Grid Index Information Service): Serviço que coordena e cataloga as informações disponibilizadas pelos diversos GRIS.

• GridFTP: Mecanismo de transferência de dados baseado no clássico File Transfer Protocol (FTP).

Estas funcionalidades estão presentes nos diversos elementos que compõe um Grid computacional. Dependendo da especificidade dos serviços a serem fornecidos, os elementos do Grid possuem uma ou mais dessas funcionalidades. Os diversos elementos que compõem um Grid podem ser descritos como:

• Alocador de Recursos: Este é um dos sistemas centrais do Grid, e um dos mais difíceis de serem implantados. Cabe a este elemento do Grid receber os pedidos dos usuários e encontrar no Grid os recursos necessários à realização da tarefa especificada no pedido. Utiliza as informações existentes nos catálogos de recursos e consulta os serviços de monitoramento para alocar os recursos mais bem adequados à realização do serviço solicitado.

• Índice de Informações: Elemento que mantém atualizadas as informações sobre os recursos existentes no Grid bem como sua situação de uso e disponibilidade. Pode eventualmente residir na mesma máquina que o Alocador de Recursos.

• Gerenciador de Réplicas: Uma das características centrais do Grid é a disponibilidade perene de seus recursos e conteúdo, independentemente do estado de seus constituintes individuais. Assim, um determinado dado não pode nunca estar alocado em um local apenas, pois a sua falha acarretaria na perda desses dados por todos os membros do Grid. Da mesma forma, os recursos devem ser descritos pela sua funcionalidade e não pela sua localização física. Cabe a este elemento do Grid gerenciar a replicação dos dados, mapear a descrição dos dados à sua localização e assegurar a redundância constante de todos os dados do Grid. Deve também gerenciar o movimento dos dados de modo a estarem o mais próximo possível do processamento que os utilizem.

• Catálogo de Réplicas: Pode eventualmente residir no mesmo elemento computacional que o Gerenciador de Réplicas. Cabe a ele manter a

Page 64: Scientific Project (2008)

64

informação a respeito das réplicas existentes de certo dado, bem como manter a associação entre o nome lógico associado a esse dados e os correspondentes nomes físicos que esses dados possuam nos diversos recursos do Grid.

• Elemento de Computação: São os elementos do Grid que realizam gerenciam o trabalho de processamento. O Elemento de Computação recebe os pedidos de trabalho e os entrega aos seus Trabalhadores. Este elemento providencia a interface entre o Grid o sistema de gerenciamento e distribuição de trabalhos local.

• Nó de Trabalho: São as máquinas que realizam o processamento. • Elemento de Armazenamento: São os elementos do Grid encarregados

do armazenamento dos dados. Todos os elementos de Armazenamento de um Grid devem possuir uma interface uniforme de acesso aos seus dados de modo a serem transparentes ao usuário do Grid.

• Interface do usuário: São as máquinas através da quais os usuários têm acesso aos serviços do Grid.

O SPRACE participa do Open Science Grid contribuindo com os seguintes elementos:

Elemento de Computação O Elemento de Computação do Open Science Grid no SPRACE está localizado

na máquina spgrid.if.usp.br. No OSG este elemento de computação está registrado como sendo a localidade SPRACE do parque UNESP. Ele funciona como gateway dos trabalhadores do cluster e como servidor de login dos usuários locais. Ele serve ao cluster as seguintes funcionalidades:

• Middleware do OSG. Está atualmente instalada no nosso elemento de

computação a versão 0.8.0 do conjunto de serviços do OSG, o mais recente. Este conjunto de serviços contém os seguintes pacotes: o Globus Toolkit – Middleware básico do sistema de manuseio de

trabalhos do Grid o MonALISA – Ferramenta de monitoramento global o GUMS (Grid User Membership Service) – Verifica a autenticidade

dos requerentes dos serviços de grid consultando seus registros nas diversas Organizações Virtuais atendidas pelo SPRACE e os mapeia em contas locais, determinando suas autorização e política de uso dos recursos do SPRACE

o GIP (Generic Information Provider) – Provê aos serviços de informação do OSG as informações relativas à existência e disponibilidade dos recursos de processamento do SPRACE.

o BDII – Provê ao EGEE, Grid utilizado pelos membros do LHC Computing Grid localizados na Europa, as mesmas funcionalidades do GIP para o OSG. Necessário para compatibilização dos recursos computacionais mundialmente distribuídos do experimento CMS

• Condor: Sistema de gerenciamento, ordenamento e distribuição de trabalho aos nós de processamento. Recebe os trabalhos do middleware do OSG e os executa nos recursos existentes no cluster.

Page 65: Scientific Project (2008)

65

• Ganglia: Sistema de monitoramento do funcionamento do cluster. Provê informação em html do estado dos componentes do cluster, tais como carga de trabalho, ocupação de memória, tráfego de dados etc. Atualiza as informações a cada minuto e mantém um histórico de até um ano.

• CMSSW: Conjunto de pacotes do experimento CMS, utilizado para a realização das simulações de Monte Carlo e processamento dos trabalhos de análise de dados do experimento.

• NFS: Serviço de sistema de arquivos de rede que exporta o software do OSG, o Condor e o CMSSW aos nós de trabalho, bem como o home dos usuários locais aos diversos elementos do cluster que o necessite.

Nós de Trabalho Os serviços oriundos do Grid são executados em partições do disco local dos

trabalhadores e apagados quando do término do trabalho. Os trabalhadores estão localizados na rede local do cluster e comunicam-se com a rede mundial através do firewall localizado no gateway do cluster.

Elemento de Armazenamento O Elemento de Armazenamento do Open Science Grid no SPRACE está

localizado na máquina spdc00.if.usp.br e registrada como sendo a localidade SPRACE:srm_v1 do parque UNESP. Nele foram instalados as seguintes funcionalidades e serviços.

• pNFS: Sigla de Perfectly Normal File System, o pNFS é um sistema de arquivo em que recursos de armazenamento fisicamente distribuídos, como discos em máquinas distintas, aparecem como sendo parte de um único sistema de arquivos contínuo. Ele é constituído basicamente por um banco de dados postgresql com interface de acesso similar aos comandos posix usuais de manipulação de arquivos.

• dCache: Sistema de catalogo de arquivos. Utiliza o pNFS para acesso aos recursos de armazenamento em disco, e pode ser utilizado também para armazenamento em fita.

• SRM: O Storage Resource Manager faz parte do middleware do OSG para prover acesso uniforme aos recursos computacionais do Grid. Sua função básica é traduzir o Logical File Name com o qual os arquivos são universalmente identificados no Grid em Physical File Name, que é como os arquivos são identificados e localizados pelos sistemas locais. É também o serviço do Grid encarregado de prestar informações e realizar operações com os arquivos dos diversos Elementos de Armazenamento do Grid. Faz a interface entre o Grid e o dCache local ao cluster.

• PhEDEx: Este é o sistema utilizado pela colaboração CMS para a movimentação de dados entre os diversos elementos de processamento e armazenamento utilizados pelo experimento. Este serviço é encarregado de manter o catálogo com a localização das réplicas dos dados globalmente distribuídos e realizar a sua movimentação para o processamento dos dados que os requisitar. Utiliza o SRM para realizar suas operações.

• Frontier: É o sistema do CMS de acesso e distribuição das informações do banco de dados da calibração do detector e do sistema de aquisição

Page 66: Scientific Project (2008)

66

de dados, fundamental para a realização da análise dos dados adquiridos. Este sistema utiliza o squid como cache dos arquivos requisitados pelos trabalhos locais, diminuindo a carga imposta à rede para a execução dos trabalhos.

Nós de Armazenamento do dCache Assim como o Elemento de Computação possui os nós de trabalho que lhe

disponibilizam poder de processamento, da mesma forma o Elemento de Armazenamento possui seus nós de armazenamento que lhe disponibilizam capacidade de armazenamento. No Elemento de Armazenamento do SPRACE cada nó de armazenamento executa seus próprios agentes de transferência de dados e possui conectividade com a rede mundial de modo a aumentar sua capacidade integrada de transferência de dados. Nele estão instalados os pools do dCache para o compartilhamento do armazenamento, e os clientes do SRM para a execução da transferência dos dados para aquele determinado pool. Em sua atual configuração o SPRACE possui apenas um nó de armazenamento. Ele é o servidor de armazenamento massivo do SPRACE ao qual estão conectados os módulos RAID, com uma capacidade total de 12 TB. Além de fornecer 5 pools ao dCache de 1,8 TB cada, este servidor exporta via NFS aos demais elementos do cluster a área onde estão localizados os aplicativos específicos de cada Organização Virtual.

Page 67: Scientific Project (2008)

67

VIII. Colaborações e Parcerias Nacionais

DFNAE/UERJ:38 Departamento de Física Nuclear e Altas Energias

A equipe brasileira que vem trabalhando nos experimentos DZero e CMS teve

sua origem na iniciativa pioneira de um grupo de pesquisadores que, em 1983, iniciou um programa de colaboração em física experimental de altas energias com o Fermilab, a convite do Prof. Leon Lederman. Esse grupo participou inicialmente do experimento E691, estudando a fotoprodução de charme, seguindo-se a partir daí os experimentos E769 e E791 de hadroprodução de partículas charmosas. Foram também desenvolvidos nesta época softwares e hardwares no Brasil, relacionados com o projeto de computação paralela para análise de dados.

Em 1989, o grupo liderado pelo Prof. Alberto Santoro deu um passo além dos experimentos de alvo fixo, engajando-se no experimento DZero. Este grupo de pesquisadores do Rio de Janeiro participou do desenho, construção e implementação da eletrônica dos detectores de múons, e do desenvolvimento do software relacionado a este subsistema. Eles participaram também da análise da seção de choque de produção do quark bottom durante o todo o Run I de operação do Tevatron, compreendido entre os anos de 1992 e 1999.

O início da participação do grupo paulista na colaboração DZero se deu no início do Run II quando nos acoplamos ao time liderado pelo Prof. Santoro. Este consórcio, formado por pesquisadores da Universidade do Estado do Rio de Janeiro (UERJ), do Centro Brasileiro de Pesquisas Físicas (CBPF) e da Universidade Federal do Rio de Janeiro (UFRJ), e que passou a contar com a Universidade Estadual Paulista, foi responsável pela concepção e implantação do projeto do Forward Proton Detector (FPD).

Ao se engajar ao grupo brasileiro do DZero era natural que nossa contribuição inicial ao experimento se desse em termos do hardware e software relacionados a este projeto, que visava o estudo da física difrativa identificando os prótons espalhados a pequenos ângulos. Posteriormente, no que se refere à análise dos dados produzidos pelo DZero, o grupo do SPRACE se envolveu com tópicos de Física mais relacionados à sua expertise em fenomenologia de partículas, qual seja, novos fenômenos além daqueles preditos pelo modelo padrão.

Nossa admissão na Colaboração CMS, em janeiro de 2003, também se deu em conjunto com o grupo da UERJ-CBPF-UFRJ. O Prof. Santoro também se dedicou à implantação de uma unidade de grid na UERJ, que vem operando de forma independente como uma Tier-2, também associada ao Fermilab. Apesar dos interesses diversos em termos de análises físicas, estes quase 10 anos de interação e colaboração com o grupo carioca têm sido muito frutíferos para ambas as partes.

38 http://www.hepgrid.uerj.br/

Page 68: Scientific Project (2008)

68

Projeto Giga:39 Rede Nacional de Ensino e Pesquisa O projeto GIGA, uma iniciativa da RNP e do CPqD, desenvolveu uma rede

experimental de alta velocidade para uso exclusivo em pesquisa. O projeto consistiu na implementação e uso de uma rede óptica voltada para o desenvolvimento de novas tecnologias de rede óptica, bem como aplicações e serviços de telecomunicação associados à tecnologia IP sobre WDM (Wavelength Division Multiplexing), baseada em comutação de canais ópticos com comprimentos de onda distintos, com suporte a aplicações avançadas. A tecnologia WDM associa sinais ópticos a diferentes freqüências de luz (comprimentos de onda, ou lambdas, como se usa mais comumente), permitindo separar, dentro de um mesmo meio físico - a fibra óptica -, canais distintos e independentes para o tráfego de dados.

A rede experimental do Projeto GIGA foi implementada em maio de 2004, e tem atualmente 735 Km de extensão e capacidade de 1 Gbps, com previsão de ampliação para 10 Gbps. A rede interconecta 17 universidades e centros de pesquisa do eixo Rio-São Paulo, abrangendo os municípios de Campinas, São Paulo, São José dos Campos, Cachoeira Paulista, Rio de Janeiro, Niterói e Petrópolis. Há um projeto em andamento para estender a rede até o Nordeste. O uso da rede GIGA é exclusivo a subprojetos de pesquisa e desenvolvimento selecionados, com foco em uma das quatro áreas temáticas (definidas no lançamento do projeto): redes ópticas; serviços experimentais de telecomunicações; protocolos e serviços de rede; e serviços e aplicações científicas.

A infra-estrutura da rede GIGA é formada por equipamentos de núcleo baseados em roteadores BlackDiamond 10K e 6808, e equipamentos de distribuição baseados em roteadores BlackDiamond 6808, da empresa Extreme Networks. A interligação entre regiões metropolitanas usa tecnologia DWDM – Dense WDM (mais cara, porém mais eficiente), enquanto a conectividade dentro das regiões metropolitanas é feita através de tecnologia CWDM – Coarse WDM. Os equipamentos de acesso à rede, instalados diretamente nos laboratórios, são baseados em switches Summit 200-24, também da Extreme Networks. Por questões de segurança, existem dois centros de controle da rede, os chamados NOCs – Network Operations Centers: um na RNP no Rio de Janeiro e outro no CPqD em Campinas.

No Estado de São Paulo, o Projeto KyaTera da FAPESP apresenta características semelhantes ao projeto GIGA. Trata-se de uma plataforma óptica de alta velocidade, com equipamentos de última geração, destinada exclusivamente para pesquisa científica e tecnológica. As fibras do Projeto KyaTera são também instaladas diretamente nos diversos laboratórios de pesquisa participantes. Como ambos projetos surgiram na mesma época, as fibras dos cabos ópticos lançados em diversos campi são em sua maioria compartilhados.

Iniciativas semelhantes têm surgido em outros países da América Latina nos últimos anos. No Chile, a rede nacional de pesquisa REUNA implantou um testbed óptico de 250 Km entre as cidades de Valparaíso e Santiago, conectando 5 Universidades, além da própria REUNA, também usando a tecnologia IP sobre WDM. Este projeto, que se iniciou em 2003, é suportado pela agência chilena de fomento à

39 http://www.giga.org.br/

Page 69: Scientific Project (2008)

69

pesquisa FONDEF, e inclui o desenvolvimento de tecnologias nos níveis óptico, rede IP e aplicações 40.

Um dos subprojetos aprovados para uso da rede GIGA é o projeto de No 2446, HEPGrid Brazil, do qual participam o DFNAE/UERJ, o LAFEX/CBPF e o LPC/IF/UFRJ no Rio de Janeiro, o SPRACE/UNESP e o IF/USP em São Paulo. O objetivo do subprojeto apresentado é justamente utilizar a infra-estrutura de rede de alta velocidade disponibilizada pelo GIGA para interligar esses laboratórios de pesquisa, viabilizando assim o compartilhamento de recursos computacionais necessários à construção de um Grid regional, para a execução conjunta de aplicações científicas em física experimental de altas energias.

Através da configuração adequada dos equipamentos de rede que compõem a rede GIGA, os engenheiros de rede da RNP e do CPqD estabeleceram uma rede local virtual interligando os laboratórios das instituições acima citadas. Os equipamentos de rede foram configurados de modo a rotear o tráfego através desta VLAN, provendo a interligação necessária entre as diversas redes de cada uma das instituições. A Figura 27 a seguir apresenta a configuração definida e disponibilizada pelos engenheiros da rede GIGA.

Figura 27: Rede HEPGrid Brazil, GIGA subprojeto 2446, interliga CBPF, UERJ, UFRJ e SPRACE

No SPRACE em particular, definimos uma VLAN (virtal Local Area Network)

específica para o projeto GIGA no switch/router Cisco Catalyst 3750, que foi conectada à VLAN da rede GIGA, como pode ser verificado na figura anterior. Essa configuração foi feita para o switch Catalyst atuar como roteador, permitindo um controle local do roteamento, independente do projeto GIGA. Tal procedimento foi adotado por apresentar as seguintes vantagens:

• dá maior flexibilidade ao laboratório, tornando-o independente, sem a necessidade de solicitar possíveis alterações de configuração aos engenheiros do projeto GIGA.

40 http://redesopticas.reuna.cl

Page 70: Scientific Project (2008)

70

• permite o monitoramento local do tráfego pela rede GIGA, usando as facilidades de monitoramento presentes no Catalyst, e de forma independente do projeto GIGA.

• mantém inalteradas as configurações de rede dos servidores do cluster (quaisquer alterações de configuração serão sempre efetuadas no ativo de rede, preservando os servidores).

Como se pode notar na Figura 27, no caso específico de São Paulo, o switch de acesso Summit 200-24, embora desnecessário devido à presença do Catalyst, foi mantido para garantir a independência de configuração. Assim, os engenheiros do GIGA configuram o Summit e os engenheiros do SPRACE e da ANSP configuram o Catalyst. A configuração final da rede apresentada no diagrama anterior foi completada em setembro de 2005. A rede assim disponibilizada pelo projeto GIGA permitiu a formação de um Grid regional entre os principais clusters do projeto HEPGrid Brazil, em São Paulo e no Rio de Janeiro.

A Figura 28 a seguir ilustra os caminhos usados atualmente pelo SPRACE e pelos grupos do Rio de Janeiro para se conectar ao Cisco ONS 15454 em Cotia, que é o equipamento de saída do enlace internacional WHREN-LILA.

Figura 28: Diagrama de interconexões entre SPRACE e HEPGrid Brazil via GIGA e destes com a saída do enlace WHREN-LILA

Na figura anterior, as linhas em azul indicam a conexão entre o SPRACE e os

grupos de pesquisa no Rio de Janeiro (UERJ, CBPF e UFRJ, que integram o HEPGrid Brazil), através do projeto GIGA. As linhas em verde indicam a conexão entre o SPRACE e os roteadores da ANSP, passando por um par de switches WDM da empresa MRV. As linhas em vermelho indicam o caminho que os grupos do Rio de Janeiro percorrem para se conectar ao enlace internacional WHREN-LILA, através da RNP.

Page 71: Scientific Project (2008)

71

Projeto KyaTera:41 TI no Desenvolvimento da Internet Avançada O Projeto KyaTera, financiado pela FAPESP, apresenta características

semelhantes ao projeto GIGA. Trata-se de uma plataforma óptica de altíssima velocidade, construída com equipamentos de última geração e destinada exclusivamente para o ensino e a pesquisa científica e tecnológica, sendo considerada a plataforma de ensaios mais avançada do hemisfério sul. As fibras ópticas do Projeto KyaTera são instaladas diretamente nos diversos laboratórios de pesquisa participantes, tal qual ocorre com o projeto GIGA. Como ambos os projetos surgiram na mesma época, boa parte dos cabos ópticos lançados em diversos campi e centros de pesquisa paulistas são compartilhados pelos dois projetos.

Em síntese, a rede KyaTera, cuja idéia nasceu no Instituto de Física da Unicamp, sob a coordenação do Prof. Hugo Fragnito, define um laboratório geograficamente distribuído por várias cidades do estado de São Paulo que viabiliza a pesquisa em comunicações ópticas e em tecnologia da informação focada no desenvolvimento de aplicações sobre redes avançadas para a nova geração da Internet. Embora os primeiros experimentos tenham sido realizados a uma taxa de 320 Gbps, conforme demonstrado no teste inaugural da rede em 14 de abril de 2005, na Unicamp, a largura de banda da rede KyaTera é limitada apenas pela capacidade física das fibras ópticas usadas, que podem ultrapassar a barreira dos terabits por segundo, justificando o sufixo “Tera” no nome do projeto. Trata-se, portanto, de um ambiente ideal para estudo, pesquisa, desenvolvimento e demonstração de tecnologias e aplicações da Internet avançada, além de exercer um importante papel na formação de recursos humanos.

O projeto KyaTera não só faz parte, como também fornece a base de operação do programa da FAPESP denominado TIDIA – Tecnologia da Informação no Desenvolvimento da Internet Avançada. Este programa ambicioso, lançado em 2001 com o objetivo de transformar a Internet em objeto de pesquisa, é composto por três grandes projetos: a Incubadora Virtual, o Aprendizado Eletrônico, e a rede KyaTera. A Incubadora Virtual visa à criação de empresas que desenvolvem conteúdos – software, material didático e livros – dentro da chamada Internet Avançada. O Aprendizado Eletrônico é um projeto voltado ao desenvolvimento de ferramentas para o ensino e aprendizado via Internet, que inclui aulas por videoconferência em alta resolução com qualidade digital.

A grande vantagem da rede KyaTera é que o pesquisador deixa de depender do limite da largura de banda imposto pelo seu provedor de serviços – em geral a própria universidade ou centro de pesquisa, que em geral só pode oferecer enlaces Ethernet de 100 Mbps ou 1 Gbps. Ao participar do projeto, o laboratório passa a ter acesso direto a vários pares de fibra totalmente dedicados, cujo limite de banda é definido apenas pelos equipamentos que são colocados nas pontas.

Mais do que pesquisar novas aplicações para a Internet do futuro, a plataforma de testes provida pelo KyaTera permite que a própria rede seja objeto de pesquisa: o pesquisador pode estar interessado em obter o limite máximo de largura de banda que um enlace de dezenas ou centenas de quilômetros pode suportar, ou em buscar novos dispositivos e protocolos de transmissão para elevar a capacidade de transmissão.

O projeto KyaTera é organizado em 3 camadas:

41 http://kyatera.incubadora.fapesp.br/

Page 72: Scientific Project (2008)

72

• Camada física: a infra-estrutura de fibras ópticas dedicadas interligando laboratórios permite a realização direta de pesquisas em transmissão de sinais em fibras ópticas e o desenvolvimento de novos dispositivos para redes fotônicas, usando enlaces reais a longas distâncias.

• Camada de transporte: um conjunto distinto de fibras permite realizar pesquisas relativas ao transporte de informação sobre a camada óptica, incluindo o gerenciamento, a supervisão e o monitoramento de redes, bem como o desenvolvimento de novos protocolos e padrões de interface e de interoperabilidade, além de pesquisa relacionada a qualidade de serviço e segurança de redes.

• Camada de aplicação: outro conjunto de fibras é usado para implementar a chamada “rede estável”, sobre a qual desenvolvem-se pesquisas em aplicações que requerem o uso de redes dedicadas de alta velociade, como o desenvolvimento de hardware e software de controle de instrumentos ou experimentos à distância (Web Labs), a integração de mídias de alta resolução (HDTV), ou o desenvolvimento de aplicações em computação distribuída (Grids computacionais).

A participação do nosso grupo nos Projetos GIGA e KyaTera foi fundamental

para viabilizar o acesso a uma infra-estrutura de rede bastante avançada, capaz de atender às necessidades de conectividade óptica do SPRACE nos próximos anos. Graças a esses projetos, foi lançado um cabo óptico monomodo com 24 fibras (12 pares), cobrindo a distância de 1400 metros entre o Centro de Computação Eletrônica e o Instituto de Física da USP, dentro do campus da USP. Este cabo foi doado pelo Projeto KyaTera, e o lançamento do mesmo foi custeado com a reserva técnica deste Temático. O trabalho foi contratado e administrado pelo CCE, e executado pela mesma empresa que lançou os cabos ópticos dos projetos GIGA e KyaTera por todo o campus da USP.

Recentes avanços nas tecnologias de chaveamento de redes ópticas, como a tecnologia WDM (Wavelength Division Multiplexing), bem como o aumento crescente de malhas de fibras ópticas apagadas, construídas e controladas por seus proprietários independentes de concessões de operadoras de telecomunicações, como é o caso das redes GIGA e KyaTera, estão abrindo o caminho necessário para o controle ativo da infra-estrutura de rede. A tecnologia WDM permite que dezenas ou centenas de sinais ópticos de comprimentos de onda distintos trafeguem sobre uma única fibra óptica. Cada um desses sinais ópticos de mesmo comprimento de onda – denominados lambdas, que podem representar individualmente uma largura de banda de por exemplo 10 Gbps – pode ser chaveado através dos elementos ópticos que compõem a rede, formando um caminho óptico fim-a-fim (um lightpath) entre quaisquer dois pontos da rede. Cada enlace entre dois pontos quaisquer de uma rede composta por sistemas WDM pode ativar temporariamente tantos lambdas quantos são necessários para criar um caminho óptico entre esses pontos e assim viabilizar a transferência de uma grande massa de dados em tempo hábil para ser devidamente processada. Para que isso se torne possível, os ativos de rede precisam ser monitorados e controlados da mesma forma que os recursos computacionais e de armazenamento são controlados pelas infra-estruturas de Grid atuais.

Em 2006 encaminhamos uma proposta de sub-projeto ao KyaTera para pesquisar novas soluções para o problema do monitoramento e controle de recursos de rede associado ao gerenciamento dessas novas redes ópticas avançadas, de forma a torná-las elementos passíveis de serem controlados por escalonadores automatizados. Esta proposta envolveu, além de nosso grupo, pequisadores da Escola Politécnica da

Page 73: Scientific Project (2008)

73

USP e da Faculdade de Engenharia Elétrica e de Computação da Unicamp. O sub-projeto, denominado “Grid-controlled Lightpaths in Optical Networks for Data Intensive e-Science”42, embora não tenha sido implementado por estar inserido em um contexto maior, o qual infelizmente não foi aprovado pela FAPESP na época, levou-nos a buscar alternativas para a continuidade das atividades de pesquisa nesta nova área, de forma a dar continuidade ao alinhamento do SPRACE com o projeto UltraLight43, liderado pelo Caltech.

As alternativas em estudo incluem a elaboração de uma proposta própria de subprojeto a ser submetido diretamente pelo nosso grupo ao KyaTera, em um futuro próximo. Tal proposta terá como foco principal uma proximidade maior com o atual projeto UltraLight e os futuros projetos VINCI (Virtual Intelligent Networks for Computing Infrastructures) e PLanetS (Physics Lambda Network System), liderados pelo Caltech através de uma interação maior com pesquisadores envolvidos no mesmo, visando a utilização plena do futuro upgrade do link internacional WHREN/LILA, previsto para operar a 10 Gbps em 2009, bem como a possibilidade de participação do SPRACE nas atividades relacionadas ao novo peering fabric Atlantic Wave44, dentre as quais o projeto GLIF – Global Lambda Integrated Facility45. As alternativas em estudo consideram elaboração de proposta de projeto que inclua a aquisição de roteadores Cisco ou PadTec com suporte a enlaces de 10 Gbps, e possivelmente switches ópticos Calient46 ou Glimmerglass47.

Através dessas novas iniciativas, pretende-se buscar a capacitação técnica do grupo na utilização eficiente de enlaces de rede multi-lambda e enlaces de 10 Gbps. Para tanto, será levado em consideração tanto a parte relacionada aos ativos de rede quanto ao uso efetivo da transferência de dados entre servidores conectados com links de rede dessa ordem de grandeza. Buscaremos assim acompanhar as abordagens correntes e os novos desafios envolvendo as infra-estruturas de rede que dão suporte às pesquisas colaborativas em larga escala que ultrapassam fronteiras nacionais.

Tomando como premissa que a pesquisa é uma forma de aprendizado, espera-se que essas atividades permitam o desenvolvimento da capacidade técnica necessária para que o grupo enfrente os desafios tecnológicos impostos pela rápida evolução dos sistemas de comunicação óptica, essenciais para o sucesso da sua participação na colaboração CMS. Espera-se também que estas atividades atraiam novos talentos, despertando vocações para a pesquisa tecnológica e a busca por novas soluções para os desafios encontrados na pesquisa científica atual. A meta a ser alcançada com essa iniciativa é criar, no próprio grupo, uma equipe especializada capaz de inovar em tecnologias de comunicação óptica, através da geração de novas ferramentas de controle e monitoramento de sistemas de comunicação baseados em redes ópticas transnacionais.

42 http://www.sprace.org.br/SPRACE/files/Kyatera_SubProjeto_LightPath_Revised.pdf 43 http://ultralight.caltech.edu 44 http://www.atlanticwave.net 45 http://www.glif.is 46 http://www.calient.net 47 http://www.glimmerglass.com

Page 74: Scientific Project (2008)

74

Internacionais

OSG:48 Open Science Grid O Open Science Grid é um consórcio formado por mais de 75 instituições,

organizações e laboratórios nacionais que operam, em conjunto, uma infra-estrutura computacional distribuída para dar suporte à ciência e engenharia. O objetivo fundamental desse consórcio é prover, aos membros participantes e seus colaboradores, infra-estrutura e suporte tecnológico às atividades e colaborações científicas que necessitam de poder computacional e de armazenamento muito além daquele que cada membro poderia dispor individualmente. Além do benefício advindo do compartilhamento de recursos em si, a união dos participantes em um consórcio propicia o desenvolvimento de relações de parceria entre as diversas colaborações científicas, entre os administradores de sistemas e entre provedores de tecnologia, com o objetivo de manter a infra-estrutura estável, robusta e funcional. De forma resumida, os principais objetivos do OSG são:

• Operar uma infra-estrutura computacional distribuída de larga escala de forma segura e estável, de modo a oferecer, aos membros participantes do consórcio, acesso a vastos recursos de processamento e armazenamento de dados de forma colaborativa e compartilhada.

• Dar suporte computacional a aplicações científicas em geral, com ênfase significativa em aplicações de peta-escala (o termo peta-escala refere-se a uma escala de processamento da ordem de 1015 operações, ou instruções de máquina, por segundo), requeridas por grandes colaborações científicas nacionais e internacionais.

• Engajar-se a esforços científicos em geral, progressivamente oferecendo suporte às mais diversas aplicações, para acelerar o progresso científico.

• Evoluir a capacidade e o alcance da infra-estrutura, adaptando e incorporando novas ferramentas de software e tecnologias externas.

• Interoperar com outros Grids, sejam eles regionais, nacionais ou supra-nacionais (particularmente o TeraGrid e o EGEE).

• Educar e treinar estudantes, pesquisadores, administradores de sistemas e educadores no uso dessa nova tecnologia.

Um mapa com a localização das dezenas de sites que formam o OSG é apresentado na Figura 29 a seguir.

O termo OSG é em geral usado genericamente, ora para denotar o consórcio de instituições, ora para representar o conjunto de recursos computacionais. De forma mais precisa, podemos dizer que o OSG Consortium opera a OSG cyberinfrastructure. O OSG Consortium é formado pelas instituições participantes, e a OSG cyberinfrastructure consiste do conjunto de unidades de processamento e de armazenamento, infra-estrutura de rede, bem como toda a tecnologia de software que viabiliza a interligação segura entre os sítios e o suporte operacional que constrói, opera e mantém toda essa complexa infra-estrutura. A coordenação de todas as atividades é realizada pelo OSG Executive Board.

O OSG não se envolve diretamente nos esforços de desenvolvimento de software e de tecnologia de informação em geral. Sua função é testar e integrar novas

48 http://www.opensciencegrid.org/

Page 75: Scientific Project (2008)

75

tecnologias e novos serviços (boa parte deles providos pelos próprios membros do consórcio) à medida que estes se tornam necessários para o progresso da infra-estrutura. O OSG não é dono de recursos computacionais próprios; os recursos são disponibilizados e operados pelos membros participantes. Esses recursos são muito mais valiosos do que o financiamento que o próprio OSG recebe, o qual é usado apenas para custear despesas operacionais. Como consequência dessa política, os recursos de processamento e de armazenamento de dados que compõem o OSG não estão o tempo todo 100% disponíveis para os usuários, pois seus proprietários têm prioridade de uso. Nesse contexto se explica o termo “uso oportunístico” dos recursos: no momento em que seus proprietários não estão usando, os recursos tornam-se disponíveis para que outros os usem.

Figura 29: Mapa com a localização dos sites do OSG em várias partes do mundo A origem do OSG remonta a 1999, portanto antes que qualquer outra grande

iniciativa de processamento distribuído em larga escala estivesse em operação. Naquele ano, um grupo de físicos americanos, participantes de 4 grandes colaborações internacionais (CMS, ATLAS, LIGO e SDSS) e um grupo de cientistas de computação com larga experiência em sistemas distribuídos (os desenvolvedores do Globus e do Condor) uniram esforços e iniciaram planos para o desenvolvimento de uma infra-estrutura computacional distribuída capaz de atender às enormes necessidades de processamento e armazenamento de dados desses 4 experimentos científicos, previstos para entrar em operação na década seguinte. Uma série de discussões com membros do DOE (Department of Energy) e da NSF (National Science Foundation) deixaram claro que este trabalho era realmente inovador e tinha potencial para ser ampliado grandemente de modo a servir a outras disciplinas científicas à medida em que as necessidades computacionais destas crescessem. Num período muito curto, 3 projetos relacionados ao tema receberam um financiamento vultoso, que somados chegaram a cerca de US$ 35 milhões: o PPDG, Particle Physics Data Grid49(DOE, 1999), o Grid Physics Network, GriPhyN50 (NSF, 2001) e o International Virtual Data Grid Laboratory – iVDGL51 (NSF, 2001).

49 http://www.ppdg.net 50 http://www.griphyn.org 51 http://www.ivdgl.org

Page 76: Scientific Project (2008)

76

Por volta de 2002, esses 3 grandes projetos, distintos mas com sobreposição de pesquisadores e de instituições participantes, começaram a compartilhar recursos e a trabalhar num agenda comum que levasse à criação de uma infra-estrutura de Grid de escala nacional, à qual se anexariam os vastos recursos já disponíveis nas 4 grandes colaborações dos físicos (ATLAS, CMS, LIGO e SDSS). Este esforço colaborativo entre PPDG, GriPhyN e iVDGL passou a ser denominado Trillium Consortium e resultou no desenvolvimento de diversos Grid testbeds, que foram usados como plataformas de teste para as equipes de desenvolvimento do Globus e do Condor, e forneceram valiosa experiência sobre como implementar e operar infra-estruturas computacionais distribuídas em larga escala geográfica aos membros do recém criado consórcio. Estruturas institucionais permanentes foram então estabelecidas, notadamente o Virtual Data Toolkit – VDT, ferramenta que diminui drasticamente os esforços de instalação e configuração do complexo middleware, e o Grid Operations Center – GOC, para oferecer suporte operacional, incluindo monitoramento dos recursos e apoio técnico.

Para melhorar a coordenação de esforços o Trillium formalizou uma estrutura organizacional, que incluiu a criação de um Steering Group com representantes dos 4 grandes experimentos dos físicos e líderes dos 2 grandes núcleos do middleware (Globus e Condor). Recém criado, o Steering Group estabeleceu como meta a criação de um protótipo de Grid em escala nacional, a ser apresentado em novembro de 2003 no evento SC’03 (Super Computing 2003), capaz de dar suporte a várias disciplinas e de executar 1000 jobs simultâneos. Essa infra-estrutura, que ficou conhecida como Grid3 (abreviação de Grid200352), começou a operar em outubro de 2003 e, para surpresa de todos os envolvidos, tornou-se estável o suficiente para continuar operando mesmo após o término do evento, sem grandes esforços. Por quase 2 anos, a operação do Grid3 foi sendo aperfeiçoada e expandida para servir a mais disciplinas, através do recrutamento de cientistas e especialistas em computação de diversas universidades e laboratórios nacionais americanos. Em julho de 2005 o termo Grid3 foi substituído pelo termo Open Science Grid, em uma reunião de inauguração oficial, e planos concretos passaram a ser estabelecidos para se obter um financiamento dedicado e permanente, necessário porque os projetos Trillium expiravam em meados de 2006. Esse esforço foi bem sucedido, e em setembro de 2006, a NSF e o DOE anunciaram um financiamento conjunto de US$ 30 milhões para o Open Science Grid, por um período de 5 anos.

Este contexto histórico está representado na Figura 30 a seguir. A figura também mostra um esforço paralelo da comunidade européia no desenvolvimentodo do projeto EGEE – Enabling Grids for E-science in Europe, atualmente a maior infra-estrutura computacional distribuída em operação no mundo.

Tanto o OSG quanto o EGEE são membros do WLCG – Worldwide LHC Computing Grid53, que congrega recursos de centenas de laboratórios ao redor do mundo para dar suporte às necessidades computacionais dos 4 experimentos do LHC. Os projetos OSG e EGEE têm desenvolvido esforços conjuntos para garantir que os sites que participam de uma ou outra infra-estrutura possam interoperar suficientemente bem para que o compartilhamento de recursos e a submissão de jobs ocorra de forma transparente para os usuários.

O WLCG foi concebido de forma a compor uma estrutura de processamento hierárquico. Ele é formado por um centro de processamento principal, denominado Tier-0 e localizado no CERN, onde efetivamente ocorrem as tomadas de dados. À Tier-0 conectam-se 11 centros nacionais de processamento de classe Tier-1, e a cada um

52 http://www.ivdgl.org/grid2003/ 53 http://lcg.web.cern.ch/LCG/

Page 77: Scientific Project (2008)

77

destes conectam-se cerca de 100 centros regionais de processamento de classe Tier-2. Ainda de forma hierárquica, a cada Tier-2 podem se conectar diversos grupos de pesquisa, formando unidades ou centros de classe Tier-3. Nos EUA, os pesquisadores usam o OSG como canal de acesso para o WLCG. Isto é exatamente o que ocorre com o SPRACE, um centro regional de processamento de classe Tier-2 ligado à infra-estrutura do OSG por razões históricas, pois o grupo iniciou suas atividades ligado ao Fermilab, um dos dois centros de classe Tier-1 dos EUA que fazem parte do WLCG.

Figura 30: Contexto histórico no qual surgiu o OSG

O SPRACE filiou-se ao OSG em agosto de 2005. Em meados de 2006, passou a

produzir os primeiros eventos de Monte Carlo oficiais para a colaboração CMS através do OSG, trocando dados com as demais Tier-1 e Tier-2, e realizando trabalhos de análise em Grid. Desde então o SPRACE atua como uma Tier-2 plenamente funcional do experimento CMS, aliado a Caltech, Florida, MIT, Nebraska, Purdue, San Diego Wisconsin, e Rio de Janeiro, formando o sistema de processamento das Américas do CMS, sob a centralização do Tier-1 do Fermilab.

Somos hoje capazes de atuar plenamente sob a arquitetura do Worldwide LHC Computing Grid. Desde o início de 2007 o SPRACE vem realizando suas atividades de processamento de dados para o experimento DZero utilizando plenamente a infraestrutura do OSG. Dentro dessa infra-estrutura, tanto o CMS quanto o DZero são organizações virtuais que utilizam os recursos disponibilizados pelo OSG para a execução de suas tarefas computacionais. Também em 2007 os grids OSG e EGEE começaram a interoperar de forma suave, de modo que hoje em dia o SPRACE é capaz de processar indistinta e simultaneamente trabalhos de análise do CMS submetidos por pesquisadores da Itália, França ou Inglaterra, tarefas de reprocessamento de dados do DZero gerenciadas centralmente a partir do Fermilab, e simulações para membros de outras organizações virtuais, nas áreas de bioinformática, nanotecnologia, astrofísica ou genômica, localizados em qualquer ponto do planeta, sem que haja necessidade de qualquer intervenção manual para isso. O Grid mundial já é de fato realidade e o SPRACE, além de ser parte integrante dele, tem o mérito de estar inserido dentro desse contexto histórico, participando e contribuindo ativamente para sua consolidação.

Page 78: Scientific Project (2008)

78

CHEPREO:54 Center for High Energy Physics Research & Education Outreach O projeto CHEPREO - Center for High-Energy Physics Research and Education

Outreach55, uma colaboração entre Caltech, UF (University of Florida), FSU (Florida State University), FIU (Florida International University), UERJ, UNESP, USP e FAPESP, é um centro inter-regional estabelecido pela FIU com financiamento da NSF, com o objetivo de viabilizar programas de incentivo à pesquisa e educação, com foco principal no aprimoramento da infra-estrutura de rede que interliga as universidades participantes.

No final de 2004, uma parceria entre o CHEPREO, a FIU e a FAPESP, com apoio financeiro da NSF, permitiu a ampliação da conexão óptica que integra a rede acadêmica do Estado de São Paulo (a rede ANSP) à rede Abilene (Internet2) nos EUA. Esta conexão, administrada pela AMPATH56, foi ampliada de 45 Mbps para 622 Mbps, através da troca de diversos equipamentos de rede e da renegociação da concessão do enlace. Posteriormente, este enlace subiu para 1,2 Gbps, e mais recentemente, atingiu a capacidade de 2,5 Gbps, devido ao projeto WHREN-LILA, patrocinado pelo CHEPREO e com financiamento conjunto entre NSF (Award #OCI-0441095) e FAPESP (Projeto #04/14414-2).

A conexão ANSP - AMPATH consiste atualmente de um circuito VC4-8c (2 x 622 Mbps), que está conectado a uma porta de 2,5 Gbps (OC-48/STM-16) de um roteador Cisco ONS15454-SDH em Cotia, São Paulo, que por sua vez se conecta a um roteador idêntico em Miami, na Flórida, através de um cabo óptico submarino provido pela empresa LANautilus57, do grupo Telecom Itália. Isto possibilita o crescimento do tráfego sobre essa rede de pesquisa até o limite de 2,5 Gbps. Essas sucessivas ampliações, promovidas pelo projeto CHEPREO, já multiplicaram a velocidade de comunicação entre a rede acadêmica do Estado de São Paulo e os Estados Unidos por um fator 50, desde 2004 até o momento atual, considerando-se que naquele ano a velocidade desse enlace era de 45 Mbps. Prevê-se que no período compreendido entre 2008 e 2009 esse enlace sofra mais uma grande ampliação, dos atuais 2,5 Gbps para o importante patamar de 10 Gbps, finalmente igualando a mais importante conexão acadêmica brasileira com o exterior à largura de banda atualmente considerada padrão nos grandes backbones internacionais.

A ampliação do enlace inter-regional entre São Paulo e Miami em 2004 viabilizou a participação do SPRACE no reprocessamento da colaboração DZero no ano de 2005. As taxas de transmissão de dados atingiram picos de até 100 Mbps. Com o enlace anterior, de 45 Mbps, seria impossível atingir essa taxa de transmissão, o que certamente inviabilizaria a participação do nosso grupo nessas atividades. O SPRACE foi o único site do Hemisfério Sul a participar do reprocessamento dos dados da colaboração DZero naquele ano.

Essa ampliação também viabilizou a participação brasileira no projeto UltraLight58, cujo enlace, devidamente roteado pelos equipamentos da FIU, atravessa o backbone FLR (Florida Lambda Rail) e alcança o NLR (National Lambda Rail), o principal

54 http://www.chepreo.org/ 55 http://www.chepreo.org 56 http://www.ampath.fiu.edu 57 http://www.lanautilus.com 58 http://ultralight.caltech.edu

Page 79: Scientific Project (2008)

79

backbone de pesquisa americano, que interliga os sites participantes do TeraGrid. O enlace São Paulo – Miami estende a comunidade UltraLight à América do Sul, permitindo uma colaboração mútua entre os sites participantes do UltraLight e as universidades estaduais paulistas, interligadas entre si através de enlaces dedicados à pesquisa graças ao projeto KyaTera, ligado ao programa TIDIA da FAPESP.

A ampliação do enlace São Paulo – Miami para 10 Gbps, fundamental para que o SPRACE possa ampliar sua velocidade de comunicação com o Fermilab e assim assegurar uma participação efetiva nas atividades processamento de dados do experimento CMS nos próximos anos, será também mais uma importante conquista que trará benefícios para toda a comunidade científica brasileira, já que este enlace internacional é também compartilhado pela RNP, que tem alcance nacional. Uma conquista promovida graças à demanda gerada pelos experimentos em física de altas energias, demonstração inequívoca de que as grandes colaborações científicas estão de fato impulsionando o desenvolvimento das infra-estruturas de comunicação de dados em nível mundial.

Vale lembrar que a interação com o projeto CHEPREO tem dado frutos também na área da pesquisa científica propriamente dita. Ela envolveu, por exemplo, a troca de estudantes e a realização de workshop em São Paulo59. O workshop, que foi realizado de 6 a 17 de agosto de 2007, teve uma parte introdutória sobre a Física de Altas Energias e contou também com um tutorial sobre o framework do CMS e de outras ferramentas de análise (ROOT, Pythia, etc.) 60. Participaram do evento, além de estudantes brasileiros, Ramona Valenzuela, Chris Ceron e David Puldon da Florida International University.

UltraLight:61 Ultrascale Information System for Data Intensive Research O UltraLigh, financiado pela NSF e liderado pelo Caltech, é um ambicioso

projeto de redes ópticas avançadas de âmbito global, que envolve diretamente as seguintes universidades e centros de pesquisa: Caltech, University of Florida, Florida International University, University of Michigan, Haystack/MIT, Stanford Linear Accelerator Center, University of California at Riverside, Fermi National Accelerator Laboratory, University of Chicago, Brookhaven National Laboratory e Boston University. Participam também o consórcio Internet2 (UCAID - University Consortium for Advanced Internet Development) e renomados centros de pesquisa na Europa, Ásia e América do Sul. O projeto UltraLight também estabeleceu sólidas parcerias com redes ópticas trans- e intercontinentais como TransLight, StarLight, NetherLight, UKLight, AMPATH e CA*Net4, e com empresas multinacionais como Cisco, Calient, HP, Level3, e Microsoft.

Iniciado em 2004 e com um orçamento de US$ 2 milhões, a rede construída pelo consórcio UltraLight representa hoje o estado-da-arte em tecnologia de redes, constituindo-se de uma infra-estrutura híbrida que congrega as tradicionais tecnologias de chavemento por pacotes com as mais recentes redes baseadas em circuitos puramente ópticos. A rede do UltraLight dispõe atualmente de mais de 20 enlaces de 10 Gbps que interconectam os principais laboratórios de física de altas energias:

59 http://www.fiu.edu/~jrodrig/CHEPREOBrazilStudentHighlighV4.doc 60 http://www.sprace.org.br/Twiki/bin/view/Main/CmsTutorial 61 http://ultralight.caltech.edu/

Page 80: Scientific Project (2008)

80

Fermilab, SLAC e BNL nos EUA, CERN na Europa e KEK no Japão, além de diversas universidades nos EUA, Europa, Ásia e América Latina, incluindo Caltech, University of Florida, University of Michigan e FIU nos EUA, University of Manchester na Inglaterra, KNU na Coréia, UERJ (projeto HEPGrid UERJ), UNESP e USP (projeto SPRACE) no Brasil. Como resultados advindos desse projeto, diversas novas metodologias de monitoramento e gerenciamento de redes ópticas em tempo real foram desenvolvidas e demonstradas em sucessivos testes de transmissões intercontinentais ocorridos durante os últimos 4 anos. Dentre os principais desenvolvimentos, podemos citar:

• Novos protocolos de controle da pilha TCP de alto desempenho (FAST

TCP, MaxNet). • Patches para kernel de Linux otimizados para transferências de dados

sustentadas em longas distâncias através de enlaces ópticos de 10 Gbps. • Uso de sistemas de agentes distribuídos em escala global, cujo exemplo

mais prominente é o MonALISA62.

As atividades realizadas pelo consórcio UltraLight trouxeram uma compreensão melhor dos problemas relativos à transmissão de grandes massas de dados a longas distâncias através de redes híbridas, e culminaram no desenvolvimento de técnicas e ferramentas sofisticadas para o monitoramento e uso efetivo dessas redes. O MonALISA, sistema baseado em agentes que monitora autonomamente e auxilia no gerenciamento dos principais backbones de redes de pesquisa, centenas de clusters e outros sistemas distribuídos em tempo real, é uma das mais importantes ferramentas desenvolvidas dentro do projeto UltraLight.

As atuais infra-estruturas computacionais distribuídas em forma de Grid já são capazes de integrar vastos recursos de processamento e de armazenamento distribuídos em escala global, formando poderosos parques computacionais de apoio à simulação e análise de experimentos científicos complexos. Porém, tais infra-estruturas ainda apresentam sérias limitações no modo como os diversos recursos comunicam-se entre si. Os modelos correntes de computação em Grid baseiam-se em sistemas inteligentes de escalonamento, que são capazes de buscar recursos computacionais e de armazenamento disponíveis e atribuir a eles tarefas específicas, usando-os de forma integrada e eficiente. No entanto, estes sistemas interconectam-se através de redes ópticas que, apesar do alto desempenho, ainda são tratadas como um recurso externo (provido e administrado por terceiros), passivo e não gerenciável. Dentro desse contexto, dois novos projetos, também liderados pelo Caltech, estão sendo propostos, como desbobramentos diretos do projeto UltraLight: o VINCI – Virtual Intelligent Networks for Computing Infrastructures in Physics, e o PLaNetS – Physics Lambda Network System.

O projeto VINCI incorpora as ferramentas de transferência de dados e de monitoramento de redes desenvolvidas pelo consórcio UltraLight, e objetiva desenvolver novos serviços que permitirão estabelecer e gerenciar circuitos virtuais fim-a-fim, com largura de banda garantida e níveis de throughput dinamicamente configurados, através da rede UltraLight. Através de tais serviços será possível, por exemplo, estabelecer um tráfego de dados em tempo real para viabilizar o controle remoto de instrumentos científicos a longas distâncias. O projeto pretende colocar em prática a possibilidade de se estabelecer caminhos ópticos entre quaisquer dois sites da rede UltraLight através das diversas redes intermediárias - em sua maioria pertencentes a domínios administrativos distintos (ou seja, as diversas operadoras de telecom) - de

62 http://monalisa.caltech.edu/

Page 81: Scientific Project (2008)

81

forma pervasiva e autônoma. A estratégia baseia-se no provimento de um conjunto de agentes de software, distribuídos por toda a infra-estrutura, capazes de monitorar as informações disponíveis nos elementos ativos de rede e, com base nessas informações, tomar decisões no sentido de prover temporariamente maior largura de banda entre dois pontos quaisquer da rede em situações em que houver maior demanda, por exemplo, no caso de ser necessário transferir grandes massas de dados entre duas localidades distantes e não diretamente conectadas. A largura de banda entre os diversos ativos de rede intermediários entre essas localidades poderia assim ser ampliada pelo período de tempo necessário para a transferência dessa massa de dados. Tais mecanismos deverão ter não apenas a habilidade de estabelecer e quebrar circuitos virtuais que atravessam redes híbridas, como cada conexão deverá ser continuamente monitorada, e no caso de um erro ser detectado em um segmento, o sistema automaticamente deverá ser capaz de tentar estabelecer uma rota alternativa de forma autônoma.

Na mesma linha de pesquisa, o projeto PLaNetS pretende dar suporte a transações de dados na faixa dos Terabytes entre os diversos sites participantes da rede UltraLight, através do desenvolvimento de um conjunto de ferramentas e aplicações de alto nível para transferência de dados de altíssimo desempenho, apoiados por serviços de monitoramento e controle em tempo real providos pelos projetos UltraLight e VINCI. Estas ferramentas serão integradas de modo a formar um novo paradigma de operação e gerenciamento de redes, que deverá incluir:

• Filas para tarefas de transferência de comprimentos e níveis de prioridade diferentes, acoplados a serviços de construçãod e caminhos ópticos dinâmicos para as tarefas de maior prioridade, alavancando os projetos OSCARS, TeraPaths e LambdaStation.

• Um diretor de tarefas auxiliado por agentes para particionar o trabalho entre transferências de tempo real em background, transferências imediatas e transferências pré-agendadas.

• Monitoramento e descoberta de caminhos e de topologia, e estimativa de desempenho de caminhos ópticos baseados nos frameworks Monalisa e Clarens e nos serviços de monitoramento IEPM.

• Serviços de requisição de caminhos de rede incorporando as infra-estruturas de autenticação, autorização e contabilização do OSG.

O projeto PLaNetS também pretende ampliar a capacidade do Open Science Grid, a infra-estrutura computacional de larga escala distribuída por todo o território americano que dá suporte à pesquisa científica nos EUA. A proposta é ampliar a pilha de software que compõe o middleware do OSG, incorporando os serviços de tempo real desenvolvidos no projeto VINCI, que deverão estimar, monitorar e aumentar o desempenho da rede através do estabelecimento de canais de dados ou caminhos ópticos completos fim-a-fim, para tarefas de transferência de dados de alta prioridade sob demanda, para otimizar o throughput geral entre os diversos sites do OSG.

Os projetos VINCI e PLaNetS representam uma continuidade natural do UltraLight, e deverão incorporar na rede construída pelo consórcio os mais recentes progressos nas várias áreas da tecnologia da informação focadas em redes de alto desempenho, de modo a buscar atingir a capacidade plena dessa infra-estrutura. A Figura 31 a seguir ilustra a integração entre os projetos UltraLight, VINCI e PLaNetS, dentro de um escopo que envolve diversos outras outras iniciativas na mesma linha (DRAGON, TeraPaths, OSCARS, REDDNet).

Page 82: Scientific Project (2008)

82

Figura 31: Ilustração dos projetos UltraLight, VINCI e PLaNetS, em um contexto com diversas iniciativas na mesma linha (DRAGON, TeraPaths, OSCARS, REDDNet, etc)

Como resultados da participação do SPRACE no consórcio UltraLight, podemos

antever a inclusão do Brasil neste ambicioso projeto de controle e manipulação de uma sofisticada infra-estrutura de rede óptica de escala global, e a estreita interação entre pesquisadores de alguns dos mais conceituados centros de pesquisa do mundo e pesquisadores brasileiros, garantindo assim a transferência dessas novas tecnologias para o nosso país. A Figura 32 a seguir detalha a integração do SPRACE na rede UltraLight, através da rede ANSP.

Figura 32: Ligação do SPRACE à rede do UltraLight através da rede ANSP

Page 83: Scientific Project (2008)

83

EELA:63 E-infrastructure shared between Europe and Latin America O projeto EELA – E-infrastructure shared between Europe and Latin America,

estabelecido em janeiro de 2006 e com prazo de duração de 2 anos, teve como objetivo estabelecer uma ponte entre as avançadas infra-estruturas de Grid européias e as infra-estruturas emergentes na América Latina, através da criação de uma infra-estrutura de Grid interoperável, alicerçada nas redes CLARA – Cooperação Latino-Americana de Redes Avançadas64 e GÉANT265, visando o desenvolvimento e a implantação de aplicações em Grid nas áreas de biomedicina, física de altas energias, aprendizado eletrônico e ciências do clima. O projeto também teve como foco aumentar a inclusão digital dos países latino-americanos, através da implantação de uma cyberinfrastructure para dar suporte à pesquisa avançada e colaborativa realizada nesses países.

O projeto EELA teve 3 objetivos principais: • Estabelecer uma rede de colaboração entre instituições européias com

experiência em Grid computacionais, participantes do projeto EGEE, e instituições latino-americanas nas quais as atividades em Grid estão emergindo.

• Criar uma e-infra-estrutura piloto na América Latina, interoperável com o projeto EGEE europeu, permitindo aos pesquisadores locais desenvolver e executar aplicações avançadas e ao mesmo tempo disseminar o conhecimento e experiências em tecnologias Grid.

• Estabelecer um arcabouço básico para fomentar a colaboração científica entre os países europeus e os países latino-americanos.

Para atingir esses objetivos, foi montado um consórcio de instituições européias e latino-americanas, e um plano ambicioso e bem detalhado foi preparado. O EELA Consortium contou com a participação de 21 instituições, distribuídas em 10 países: INFN (Itália), LIP (Portugal), CIEMAT, CSIC, RED.ES, UC, UPV (Espanha), UNLP (Argentina), CEDERJ, RNP, UFF, UFRJ (Brasil), REUNA, UDEC, UTFSM (Chile), CUBAENERGIA (Cuba), UNAM (México), SENAMHI (Peru), ULA (Venezuela, além do CERN e da CLARA. A Figura 33 a seguir ilustra a rede estabelecida e as instituições participantes.

Figura 33: Infra-estrutura do projeto EELA

63 http://www.eu-eela.org/ 64 http://www.redclara.net/ 65 http://www.geant2.net/

Page 84: Scientific Project (2008)

84

O projeto apresentou estratégia e tecnologia inovadoras. Ele foi organizado em 4 grandes grupos de atividades, denominados Work Packages, os quais foram subdivididos em tarefas bem definidas. A cada grupo de atividades foi atribuído um Work Package Manager, responsável por coordenar as atividades sob sua responsabilidade e interagir com seus respectivos Task Leaders. As atividades dos Work Package Managers foram supervisionadas e gerenciadas por um Technical Executive Board. Um Project Coordinator assumiu a responsabilidade de gerenciar o projeto como um todo e de prestar contas aos órgãos de financiamento. A instância maior de decisões estratégicas ficou a cargo de Um Project Steering Comittee, formado por representantes das várias instituições participantes. Os 4 grandes grupos de atividades são resumidos abaixo:

• Work Package 1 (também chamado de Project Office): Administração e gerência técnica do projeto. Instituição responsável: CIEMAT.

• Work Package 2: Implementação, operação e suporte técnico de um Grid testbed piloto que tenha os serviços necessários para acessar a e-infra-estrutura compartilhada LA-EU. Instituição responsável: UFRJ.

• Work Package 3: Identificação e suporte de aplicações passíveis de serem executadas em Grids computacionais. Instituição responsável: CIEMAT.

• Work Package 4: Atividades de treinamento e disseminação. Instituição responsável: INFN.

A Figura 34 a seguir apresenta a estrutura organizacional do projeto EELA.

Figura 34: Estrutura organizacional do projeto EELA

O projeto buscou prover, às instituições participantes, o acesso fácil, rápido,

seguro e barato a uma sofisticada infra-estrutura de recursos computacionais, de grande poder computacional e de armazenamento, usando a largura de banda disponível nas avançadas infra-estruturas de rede de educação e pesquisa GÉANT2, na Europa, e RedCLARA, na América Latina. O mesmo middleware e os mesmos padrões de segurança usados no EGEE foram implementados nessa nova infra-estrutura, de

Page 85: Scientific Project (2008)

85

modo a integrar os sistemas computacionais das instituições participantes em uma estrutura de Grid, 100% compatível com o Grid europeu.

O orçamento total do projeto EELA foi de pouco mais de 2,5 milhões de euros, sendo 1,7 milhões financiados pela comunidade européia, 400 mil providos pelo CIEMAT, e pouco mais de 460 mil vindos das demais instituições.

O SPRACE participou de diversas atividades relacionadas ao projeto EELA. A convite do projeto, apresentamos as atividades realizadas pelo SPRACE em dois eventos patrocinados pelo EELA:

• 2nd EELA Workshop, em Itacuruçá no Rio de Janeiro, em 24 de julho de 2006. Nessa ocasião, apresentamos uma palestra com o título: “Brazilian HEP Grid Initiatives: São Paulo Regional Analysis Center”.

• BELIEF-EELA e-Infrastructures Conference, no Rio de Janeiro, em 27 de junho de 2007. O título da apresentação foi: “Academic Grid Initiatives in São Paulo”.

Além dessas participações, administradores de sistemas do SPRACE participaram dos seguintes treinamentos, parcialmente patrocinados pelo EELA:

• 3rd EELA Tutorial for Users and System Administrators, realizado na UFRJ, de 26 a 30 de julho de 2006.

• 1st EELA Grid School, um programa de treinamento intensivo focado na adaptação de aplicações científicas para o uso em Grids, que ocorreu em Itacuruçá, de 4 a 15 de dezembro de 2006.

No decorrer de 2007, o SPRACE confirmou o interesse em continuar interagindo e colaborando com o projeto EELA, assinando um memorando de interesse para participar do novo projeto que deverá dar continuidade ao EELA, cujo término ocorreu em dezembro último. Este novo projeto, denominado “Enabling collaboration between European and Latin American communities”, ou simplesmente EELA-2, é bem mais ambicioso que o projeto EELA. A nova proposta inclui a participação da França, Colômbia, Equador e Uruguai, e deverá contar com um orçamento entre 4 e 5 milhões de euros.

Page 86: Scientific Project (2008)

86

IX. Projetos Induzidos GridUNESP66 O projeto de Integração da Capacidade Computacional da UNESP (GridUNESP)

foi submetido pela universidade à Chamada Pública MCT/Finep/CT-Infra Proinfra – 01/2005. Esse foi o único projeto da Unesp aprovado, tendo recebido a maior dotação (R$ 4.415.477,00) dentre os mais de 150 projetos submetidos em todo o Brasil. A experiência adquirida com a implementação da infra-estrutura de Grid no SPRACE será agora compartilhada com toda a universidade, com a implantação do primeiro campus Grid da América Latina. Projetos semelhantes foram desenvolvidos por diversas universidades americanas nos últimos 2 anos, como por exemplo, em Massachusetts67 (CrimsonGrid), Wisconsin68 (GLOW), Texas69 (UT Grid), Michigan70 (MGRID), Indiana71 (NWICG), e New York72 (NYSGrid).

Figura 35: Esquema de implantação do GridUNESP O GridUNESP foi concebido para atender à demanda de docentes,

pesquisadores e grupos de pesquisa cujos projetos científicos requeiram grande capacidade de processamento e armazenamento de dados. O projeto busca implementar o conceito de cyberinfrastructure, uma infra-estrutura computacional espalhada por sete campi da Unesp, interligada através de um middleware de Grid,

66 http://www.sprace.org.br/twiki/bin/view/Main/Gridunesp 67 http://crimsongrid.harvard.edu/ 68 http://www.cs.wisc.edu/condor/glow/ 69 http://www.utgrid.utexas.edu/ 70 http://www.mgrid.umich.edu/ 71 http://www.nwicgrid.org/ 72 http://www.nysgrid.org/

Page 87: Scientific Project (2008)

87

para uso compartilhado de pesquisadores que atuam nas mais diversas áreas: genômica, física do estado sólido, física de altas energias, bioinformática, bioquímica, geologia, química fundamental, nanotecnologia, e ciência da computação. O projeto GridUNESP permitirá, pela primeira vez no Brasil, a disseminação das tecnologias de Grids computacionais no âmbito acadêmico. Devido à integração com o Open Science Grid americano, os pesquisadores da UNESP terão acesso ao vasto poder computacional disponibilizado por essa poderosa infra-estrutura computacional, atualmente constituída de mais de 30.000 CPUs. Tão interessante quanto o hardware em si, está a intensa movimentação da Unesp no sentido de prover a capacitação de recursos humanos para operar essa nova infra-estrutura, e disseminar e popularizar o seu uso. Este é um exemplo dos benefícios secundários gerados pelo nosso Projeto Temático.

A formulação do plano estratégico desse projeto envolveu diversas etapas. O “Programa de Integração da Capacidade Computacional da UNESP (GridUNESP)” foi lançado pela Pró-Reitoria de Pós-Graduação e Pesquisa com o objetivo de identificar projetos científicos na universidade que requerem grande capacidade de processamento e de armazenamento de dados. Após a análise criteriosa dos projetos apresentados foram selecionados 15 deles, pertencentes a diferentes unidades do Estado de São Paulo, que satisfazem às características descritas no edital. São eles:

• Definição de Regiões Genômicas Críticas Envolvidas na Progressão, Resposta a Tratamento e Metástase em Tumores Humanos, Faculdade de Medicina, Departamento de Urologia, Botucatu

• Dinâmica de Vórtices em Supercondutores de Alta Temperatura Crítica do Tipo II, Departamento de Física, Bauru

• Estudo Mecânico Quântico de Processos Não Radiativos em Moléculas de Interesse Biológico, Faculdade de Ciências, Departamento de Química, Bauru

• Estudo Numérico de Sistemas de Elétrons Fortemente Correlacionados em Baixa Dimensionalidade, Faculdade de Ciências, Departamento de Química, Bauru

• UNESP-Gridgene, Instituto de Geociências e Ciências Exatas, Departamento de Estatística Matemática Aplicada e Computação, Rio Claro;

• Modelagem das Propriedades Elétricas de Cerâmicas Semicondutoras, Faculdade de Ciências, LSM, Departamento de Matemática, Bauru

• Aspectos Termodinâmicos no Processo de Enovelamento de Proteínas, Instituto de Geociências e Ciências Exatas, Rio Claro

• Modelagem Tridimensional de Dados Geológicos, Fisiográficos, Hidrográficos e Geo-ambientais, Instituto de Geociências e Ciências Exatas, Departamento de Petrologia e Metalogenia, Rio Claro

• Caracterização Teórica das Propriedades Elétricas e Catalisadoras de Óxidos, Faculdade de Ciências, Departamento de Matemática, Bauru

• Métodos Analíticos e Numéricos em Engenharia Mecânica, Faculdade de Engenharia, Departamento de Engenharia Mecânica, Ilha Solteira

• Análise de Fluxo de Dados: Um Modelo para a Detecção de Ataques em Grids Computacionais e Redes de Alta Velocidade, Instituto de Biociências, Letras e Ciências Exatas, Departamento de Ciências da Computação e Estatística, São José do Rio Preto

Page 88: Scientific Project (2008)

88

• Caracterização de novos materiais para uso no desenvolvimento de nanomateriais e materiais de alto valor agregado, Instituto de Química, Araraquara

• Bio-prospecção químico-farmacológica para obtenção de bioprodutos farmacêuticos, cosméticos e agro-químicos, Instituto de Química, Araraquara

• Simulações Numéricas de Larga Escala em Física, Instituto de Física Teórica, São Paulo

• Física de Altas Energias e HEP Grid, Instituto de Física Teórica, São Paulo Maiores detalhes sobre os projetos científicos apresentados podem ser

encontrados neste documento73. O projeto prevê a instalação inicial de 8 clusters de computadores na UNESP.

Estes clusters estão divididos em uma Tier-0, o cluster central do sistema, e sete Tier-1, que ficarão localizados nas seguintes unidades:

• Faculdade de Engenharia de Ilha Solteira • Instituto de Biociências, Letras e Ciências Exatas de S. José do Rio Preto • Instituto de Química de Araraquara • Faculdade de Medicina de Botucatu • Faculdade de Ciências de Bauru • Instituto de Geociências e Ciências Exatas de Rio Claro • Instituto de Física Teórica de São Paulo

É importante esclarecer que a utilização destes recursos computacionais distribuídos não se restringe ao âmbito local, devendo servir a toda Universidade. O sistema de oito clusters deverá estar interligado, tendo administração, operação e manutenção centralizada e será acessível a qualquer pesquisador da Unesp. A instalação destes recursos nas unidades acima mencionadas deve-se apenas à sua proximidade dos pesquisadores que fazem uso direto de sistemas de processamento de alto desempenho.

Além de atender à pesquisa e, conseqüentemente, ao ensino, em diversas áreas, a implantação do GridUNESP visa trazer uma série de benefícios à Universidade e ao País:

• Aumentar a produção científica em áreas de fronteira que ainda não produzem melhores resultados devido à carência de recursos computacionais adequados.

• Permitir o envolvimento de pesquisadores em novas áreas que requerem processamento e armazenamento de grande quantidade de dados.

• Gerar produtos de alto valor agregado para a indústria farmacêutica, de cosméticos, nanomateriais e materiais cerâmicos.

• Integrar a universidade nas estruturas de Grid internacionais, como o Open Science Grid (OSG) norte-americano e o Enabling Grids for E-sciencE (EGEE) europeu.

• Incrementar o intercâmbio internacional com grupos que compartilham os mesmos interesses e necessidades, como os laboratórios nacionais nos EUA e Europa.

73 http://www.sprace.org.br/novaes/GridUNESP/ProjetoGridUNESP.pdf

Page 89: Scientific Project (2008)

89

• Gerar parcerias da universidade com áreas de alta tecnologia que vêm tendo cada vez mais interesse no desenvolvimento da arquitetura Grid de processamento.

• Aperfeiçoar a formação de pesquisadores em Tecnologia da Informação com a implantação da estrutura de Grid na universidade.

Os clusters deverão ser comprados nos próximos meses e instalados em seguida. Esperamos inaugurar a sede do GridUNESP, no novo campus da Barra Funda da Unesp, no início do segundo semestre de 2008. Este datacenter irá abrigar o cluster central e deverá servir para a realização de cursos e treinamentos na área de TI. As equipes de operação, manutenção e suporte do GridUNESP está sendo contratada e deverá também estar alocada, de forma centralizada, na Barra Funda.

Grid Educacional74 No decorrer de 2007, outro projeto de disseminação foi elaborado pelo nosso

time, em parceria com a Intel Semicondutores do Brasil, este relacionado a atividades de treinamento na área de Grids computacionais. O resultado, que incluiu diversos acordos de doação com renomadas empresas provedoras de tecnologia, culminou numa proposta de construção de uma infra-estrutura computacional – que denominamos Grid Educacional – composta por 10 servidores de última geração, para dar apoio ao ensino e divulgação das tecnologias de Grids.

O projeto nasceu de uma idéia proposta por um engenheiro da Intel Brasil no início de 2007. A partir daí, diversos representantes de empresas multinacionais de alta tecnologia foram contatados, e aqueles que se interessaram pelo projeto repassaram a idéia às suas respectivas matrizes, nos EUA. Desses contatos resultou a doação de 10 servidores de última geração, uma negociação da qual participaram as seguintes empresas: a Intel, que forneceu os processadores, interfaces de rede e ferramentas de software, a SGI, que forneceu o barebone (hardware básico, excetuando-se processador, memória e disco), a Kingston, que ofertou as memórias, e a Seagate, que forneceu os discos rígidos. As negociações ocorreram através dos representantes de vendas dessas empresas no Brasil, mas as doações foram feitas pelas respectivas matrizes nos EUA. As partes e peças doadas encontram-se nos EUA, onde serão integradas e em seguida despachadas para o Brasil, com o apoio da FAPESP.

Uma vez recebidos os servidores, a fase seguinte será a instalação dos mesmos em cinco diferentes pontos geográficos na região metropolitana de São Paulo, de modo a formar uma infra-estrutura distribuída para o treinamento de estudantes, administradores de sistemas e pesquisadores nas tecnologias de computação em Grid. Para otimizar ao máximo o uso desses servidores, pretendemos usar modernas técnicas de virtualização, de modo a permitir que cada servidor real acomode diversos servidores virtuais, multiplicando assim a quantidade total de máquinas disponíveis. Como se trata de uma plataforma educacional, que prescinde de alto desempenho, a técnica de virtualização torna-se bastante adequada. Os pontos geográficos escolhidos são laboratórios de pesquisa situados em duas universidades estaduais, USP e UNESP, e duas universidades federais, UFABC e UFSCAR. A abordagem através da virtualização reduz drasticamente o número de servidores que precisam ser gerenciados, além de trazer grande flexibilidade, pois permite rápida instalação e livre experimentação, em um ambiente seguro e controlado.

74 http://www.sprace.org.br/Twiki/bin/view/Main/GridEducacional

Page 90: Scientific Project (2008)

90

Tradicionalmente, construir um site de Grid completo usando middlewares complexos, como os usados pelo OSG e EGEE, requer a instalação de múltiplos serviços distintos, usando diversos servidores. Logo, uma configuração padrão de um Grid site demanda uma quantidade significativa de hardware. Podemos considerar, de forma conceitual apenas, que seria necessário um mínimo de quatro servidores para se construir um Grid site completo:

• Um Computing Element (CE), responsável por receber os jobs destinados ao seu site e distribuí-los aos servidores de processamento

• Um Storage Element (SE), responsável por centralizar os serviços de armazenamento e recuperação de dados do site

• Um Resource Broker (RB), responsável por examinar os requisitos de cada job submetido e nviá-lo para o Computing Element mais adequado

• Uma User Interface (UI), uma espécie de portal a partir do qual os usuários acessam o site e submetem seus jobs ao Resource Broker

Além desses, obviamente seria também necessário dispor de um conjunto de worker nodes (WN), que são os elementos que de fato executam os jobs destinados a este site. A abordagem que usamos neste projeto considera o uso de um par de servidores (reais) para implementar todos esses serviços, através do uso de técnicas de virtualização. Essa idéia foi baseada no conceito conhecido como “Grid-in-a-box”, que considera a instalação de um Grid site completo em um único servidor real, o qual é dividido em vários servidores virtuais. O uso dessa técnica está se disseminando com muita rapidez, devido às vantagens que ele traz: ao invés de se usar várias máquinas trabalhando em conjunto para acomodar toda a infra-estrutura de um Grid site, criam-se várias máquinas virtuais em um só servidor. É uma forma muito econômica de se estabelecer uma infra-estrutura de Grid para fins de treinamento, porque evita não só a aquisição de um grande conjunto de servidores, como também reduz drasticamente o custo total de propriedade (espaço físico, refrigeração, consumo de energia, gerenciamento, manutenção, tempo de preparação do site para o treinamento, etc). Como serão usados para fins de treinamento, não existe a preocupação em se extrair o máximo desempenho desses sistemas.

Nossa proposta está baseada nesse conceito, porém ao invés de usarmos um único “box”, consideramos mais adequado usar um par de servidores para simular um Grid site completo. A Figura 36 a seguir ilustra essa idéia.

Figura 36: Implementação de um Grid site completo em um par de servidores

Page 91: Scientific Project (2008)

91

A tecnologia de virtualização permite que os recursos físicos de um servidor (núcleos de processamento, memória, disco, rede, etc) sejam compartilhados entre diversos servidores virtuais. Um sistema operacional de base controla e arbitra o acesso ao hardware, previne que os demais sistemas interfiram um no outro. As máquinas virtuais têm sua própria fatia de memória e espaço único em disco, e usam os núcleos de processamento disponíveis de forma compartilhada, como ocorre em qualquer sistema operacional multitarefa moderno. Um micro-kernel de baixo nível conhecido como hypervisor, ou Virtual Machine Monitor, executa direto no hardware e provê uma interface através da qual as máquinas virtuais podem acessar serviços de baixo nível. O hypervisor fornece um isolamento adequado entre as máquinas virtuais, de forma que mesmo uma falha catastrófica em um dos sistemas operacionais não interfere em nada no funcionamento dos demais. Cada máquina virtual aparecerá ao usuário e às aplicações exatamente como se fosse uma máquina física. Os servidores modernos, de múltiplos núcleos, são suficientemente poderosos para fazerem uso efetivo da virtualização. Tudo se passa como se houvesse de fato diversas máquinas com capacidade relativamente menor (menos núcleos de processamento e menos memória), cada uma executando uma instância de sistema operacional independente.

Nosso projeto visa portanto à criação de um laboratório virtual versátil, formado por uma rede de servidores virtuais localizados em cinco diferentes sites, geograficamente distantes entre si, de modo que tais servidores podem ser disponibilizados para estudantes, pesquisadores e administradores de sistemas através de treinamentos adequados, permitindo que eles experimentem livremente e até mesmo construam uma infra-estrutura de Grid completa. A diminuição dos custos e uma maior flexibilidade na instalação e manutenção são definitivamente os responsáveis pelo crescente interesse das empresas nas tecnologias de virtualização. Entretanto, para os nossos interesses, é importante destacar essas tecnologias tornam trivial o processo de criação de ambientes de treinamento, que podem assim ser criados e destruídos com muita facilidade e sem prejuízo algum. Considerando que cerca de 90% das falhas em provedores de serviços são causadas por erros provocados pelos administradores de sistemas, torna-se fundamental estabelecer processos que minimizem erros de configuração durante os treinamentos. Isso é facilmente implementado em um ambiente virtualizado, pois é possível dispor de sistemas virtuais já pré-configurados que podem ser instanciados em sala de aula, no momento em que o treinamento está ocorrendo. A tecnologia permite que as instâncias de máquinas virtuais possam ser armazenadas como arquivos comuns, de forma que é possível subir instâncias de treinamento preparadas previamente em todos os sites em poucos minutos. A tecnologia também possibilita migrar serviços entre servidores virtuais e realizar backups completos de instâncias intermediárias, tornando o ambiente de treinamento extremamente flexível.

Levando em consideração as afirmações anteriores, os principais objetivos a serem atingidos no decorrer deste projeto são os seguintes:

• Tornar a instanciação dos serviços de Grid a mais efetiva possível em termos de tempo e de custo, usando tecnologia de virtualização para reduzir o número de máquinas que precisam ser dedicadas a cada site.

• Desenvolver ferramentas que permitam aos administradores e instrutores automatizar a inicialização e a configuração das máquinas virtuais, simplificando assim o processo de instalação.

• Fornecer um processo de instalação simples que pode ser executado remotamente por instrutores não familiarizados com administração de sistemas Unix.

Page 92: Scientific Project (2008)

92

• Fornecer um ponto de gerenciamento central de todos os sites, através do qual os demais sites possam ser gerenciados (que denominamos de EGOC – Educational Grid Operations Center).

A Figura 37 a seguir apresenta a nossa proposta de distribuição dos 10 servidores entre os diversos laboratórios situados em quatro universidades paulistas.

Figura 37: Instalação dos diversos Grid sites na USP, UNESP, UFABC e UFSCAR

Para tornar o projeto mais adequado aos treinamentos que pretendemos implantar, nossa proposta também inclui a integração desses Grid sites com a infra-estrutura de treinamento do próprio Open Science Grid. Já recebemos apoio integral do OSG Education, Outreach & Training, coordenado pelo Dr. Michael Wilde da University of Chicago / Argonne National Laboratory, que se prontificou a fornecer os certificados de host e os certificados pessoais para os estudantes, que terão acesso, durante o treinamento, à organização virtual OSGEDU. Assim, os estudantes locais poderão não só instalar sua própria infra-estrutura de Grid a partir do zero, como também integrá-la a uma infra-estrutura internacional já existente, e ainda submeter e acompanhar a execução de seus jobs em recursos computacionais disponíveis em diversas universidades americanas.

Os equipamentos, partes e peças doados para o projeto foram os seguintes: • SGI: 5 barebones (chassis de 1U + motherboards + fonte) modelo Altix

XE310, de composto de 2 motherboards e 4 baias para discos. • Intel: 20 processadores Xeon quad-core de 2 GHz modelo E5335 e 5

interfaces de rede quad-gigabit PCI-e • Kingston: 20 pentes de memória DDR2 Fully-Buffered DIMM de 2 GB. • Seagate: 10 unidades de disco rígido SATA-II (3 Gb/s) de 250 GB.

Os servidores Altix XE310 são muito compactos, acomodando, em um único chassis, duas motherboards independentes, permitindo assim acomodar 2 servidores completos, com 2 processadores quad-core cada, num único chassis de 1U (1.75”) de altura. Essas motherboards são o resultado de um projeto colaborativo entre Intel, SGI e Supermicro. Cada servidor SGI acomoda até 4 processadores Intel Xeon em um único chassis, obtendo-se assim um total de 16 núcleos de processamento em uma única unidade de 1U de altura. O servidor SGI Altix XE310 é apresentado na figura 38 a seguir.

Page 93: Scientific Project (2008)

93

Figura 38: Ilustração do servidor SGI Altix XE310

Os preços unitários aproximados de cada uma das partes e peças doadas, no

mercado americano, são aproximadamente os seguintes: • Barebone SGI Altix XE 310: ~US$ 2,500.00 • Processadores Intel E5335: ~US$ 350.00 • Interfaces de rede quad-gigabit: ~US$ 300.00 • Pentes de memória Kingston DDR2 FB-DIMM de 2GB: ~US$ 150.00 • Unidades de disco Seagate SATA II de 250 GB: ~US$ 100.00

Assim, o valor total da doação que obtivemos para a implementação deste projeto é de cerca de US$ 25,000.00, considerando-se o preço de cada peça fornecida diretamente pelo fabricante (ou seja, preço ao distribuidor), e no mercado americano. No Brasil, um servidor Altix XE310 com essa configuração custa em torno de R$ 12.000,00. Logo, uma aquisição desse porte não sairia por menos de R$ 60.000,00. Cabe mencionar que a Sun Microsystems também demonstrou interesse em fornecer servidores para esse projeto.

Não por acaso, todos os sites escolhidos têm disponibilidade de conexão com a rede KyaTera. Essa facilidade permitirá que, num futuro próximo, seja possível ampliar o escopo dessa infra-estrutura de treinamento, possibilitando não só a interligação dos diversos sites através de uma rede óptica dedicada, como também permitir que estudantes sejam treinados no uso de uma rede de pesquisa de última geração. O conceito de LambdaGrids, que inclui a rede como um recurso escalonável nas arquiteturas Grid de próxima geração, também poderá ser explorado.

Um Cartaz em Cada Escola75 A tabela periódica dos elementos químicos, introduzida por Mendeleyev no final

do século XIX, representou um importante passo na compreensão da estrutura da matéria. Além da sua inquestionável importância científica, a tabela periódica desempenha um papel essencial no ensino da Química e Física, fornecendo um panorama completo e organizado do universo da matéria conhecida.

No entanto, o século XX testemunhou um enorme avanço em nossa compreensão da estrutura mais íntima da matéria. O advento da Mecânica Quântica e as importantes descobertas, desde Rutherford até aquelas realizadas nos modernos

75 http://www.sprace.org.br/eem/

Page 94: Scientific Project (2008)

94

aceleradores de partículas, permitiram que uma visão mais profunda fosse alcançada. Da escala atômica, característica dos elementos químicos (10-10 m), ao interior dos hádrons (10-18 m), são 8 ordens de magnitude que puderam ser exploradas graças aos avanços científicos desse último século.

Infelizmente os estudantes do ensino médio, bem como a grande maioria do público em geral, não têm acesso a este conhecimento. A visão que os estudantes possuem da estrutura elementar da matéria permanece sendo aquela que se tinha no século XIX.

Com o intuito de tentar melhorar esta realidade, estamos desenvolvendo o projeto “Estrutura Elementar da Matéria: Um Cartaz em Cada Escola”, financiado pelo MCT/CNPq. Nosso projeto visa sanar esta falha na formação de nossos estudantes com a introdução dos conceitos acerca da estrutura elementar da matéria estabelecidos durante os últimos 100 anos de pesquisa em aceleradores de partículas, através de algumas ações:

• Distribuição de cartazes76 contendo os conhecimentos básicos sobre os constituintes elementares da matéria e as interações que regem o mundo subatômico a todas as quase 25.000 escolas públicas e privadas de Ensino Médio do Brasil. Os cartazes serão acompanhados de um folheto explicativo, endereçado ao Diretor das escolas, que fará um apanhado dos objetivos do projeto.

• Implantação de um site77 na Internet que visa prover material didático adicional (“A Aventura das Partículas”78, cursos, livros, links, etc.) e dar suporte aos professores e alunos interessados em saber mais sobre o assunto. O site permitirá que as escolas agendem videoconferências pela internet através do sistema EVO79 que vem dando importante apoio ao projeto.

• Manutenção de um Fórum de Discussão80 que permitirá que estudantes, professores e demais interessados interajam entre si e fazendo perguntas ao moderador do fórum.

Vale lembrar que esta iniciativa do SPRACE segue o exemplo de projetos

semelhantes implantados com sucesso em vários países. O Contemporary Physics Education Project (CPEP)81, uma organização de físicos e educadores americanos, já distribuiu mais de 200.000 cópias de um cartaz descrevendo as partículas elementares e suas interações. Fundado por Michael Barnett do Lawrence Berkeley National Laboratory em 1986, o CPEP vem sendo financiado pelo Department of Energy (DOE), National Science Foundation (NSF), American Association of Physics Teachers (AAPT), American Institute of Physics (AIP), American Physical Society (APS), entre outros. Em 2005, durante o Ano Mundial da Física, um grupo de físicos e professores franceses, liderado por Guy Wormser, diretor do Laboratoire de l’Accélérateur Linéaire de Orsay, distribuiu para 3.600 escolas do segundo grau francesas 20.000 cópias de um cartaz

76 http://www.sprace.org.br/eem/files/image/cartaz.jpg 77 http://www.sprace.org.br/eem/ 78 http://www.sprace.org.br/AventuraDasParticulas/ 79 http://evo.caltech.edu/ 80 http://www.sprace.org.br/forum/ 81 http://www.cpepweb.org/

Page 95: Scientific Project (2008)

95

semelhante, produzido pela École Estienne de design de Paris. O projeto obteve financiamento do Centre National de la Recherche Scientifique (CNRS), do Commissariat à l'Energie Atomique (CEA) e contou com o apoio do Ministère de l'Education Nationale. O Canadá, sob a liderança de William Trischuk ,diretor do Institute of Particle Physics de Toronto, teve iniciativa semelhante e distribuiu um total de 6.000 cartazes em inglês e francês para as escolas de segundo grau. Índia, Argélia, Marrocos, Inglaterra, Romênia, Polônia e Indonésia têm demonstrado interesse de implantar projetos semelhantes.

Esperamos que este projeto, um apanhado do conhecimento atual sobre a estrutura elementar da matéria apresentando de forma sucinta e coerente, possa ampliar o horizonte de conhecimento dos nossos estudantes, aguçando sua curiosidade científica e, possivelmente, despertando vocações para o estudo das ciências.

MasterClass Em 2008 foi realizado o quarto programa internacional “MasterClass:

Trabalhando em Física de Altas Energias” (Hands on Particle Physics – International MasterClasses for High School Students82) onde mais de 6 mil estudantes do Ensino Médio de todo o mundo tiveram a oportunidade de trabalhar com físicos de Altas Energias. Durante duas semanas, cientistas de mais de 70 universidades e laboratórios em 21 países estiveram engajados na organização de uma série de eventos em suas instituições com a participação de estudantes de Ensino Médio, os quais se envolveram diretamente em algumas atividades de pesquisa de fronteira na área.

Originado em um programa de divulgação científica do Reino Unido, o primeiro MasterClass ocorreu em 2005 com a participação de 18 países europeus. O MasterClass tem coordenação geral do Prof. Michael Kobel, da University de Dresden, em cooperação com o Grupo Europeu de Divulgação Científica de Física de Partículas (European Particle Physics Outreach Group, EPPOG) e com o apoio da Sociedade Européia de Física (European Physical Society, EPS).

O programa de 2008 contou pela primeira vez com a participação do Brasil, tendo sido uma iniciativa do SPRACE trazê-lo para São Paulo83. O evento contou com a presença de estudantes do Colégio Dante Alighieri e da Escola de Aplicação da Faculdade de Educação da Universidade de São Paulo, os quais se juntaram, através de videoconferência, com estudantes de Dortmund na Alemanha, Padova e Pisa na Itália, Presov na Eslováquia, Witwatersrand na África do Sul e Berna na Suíça. Como parte do programa, os estudantes receberam previamente um CD com vasto material interativo, traduzido em 16 idiomas, para facilitar o aprendizado dos conceitos fundamentais relacionado à Física de Altas Energias. No dia do evento, eles puderam comparar e discutir os resultados de suas análises, da mesma forma que físicos de Altas Energias fazem cotidianamente em suas colaborações internacionais.

Temos intenção de dar continuidade à participação de São Paulo nos eventos futuros do MasterClass, possibilitando estudantes de outras escolas terem acesso os fundamentos da Física de Altas Energias e à prática cotidiana de pesquisa na área.

82 http://www.physicsmasterclasses.org 83 http://www.sprace.org.br/Twiki/bin/view/Main/MasterClass08

Page 96: Scientific Project (2008)

96

X. Pedidos Associados e Complementares

Relacionamos abaixo as bolsas associadas ao presente projeto. Os planos de

trabalho para cada uma delas é apresentado no Apêndice do projeto.

Quantidade Modalidade Anos de Concessão

8 Iniciação Científica Duas bolsas por ano

2 Bolsa de Treinamento Técnico (TT-3) Uma bolsa no 1º e 2º anos e uma no 3º e 4º anos

2 Bolsa de Treinamento Técnico (TT-5) Uma bolsa no 1º e 2º anos e uma no 3º e 4º anos

4 Bolsa de Pós-Doutorado Duas bolsas no 1º ano e duas no 3º ano

Relacionamos abaixo a expectativa de pedidos complementares a serem

solicitados à FAPESP durante o período de concessão deste projeto:

Quantidade Modalidade Expectativa de Solicitação

4 Mestrado Duas bolsas no 1º ano e duas no 3º ano

2 Doutorado Duas bolsas no 1º ano e uma no 3º ano

2 Doutorado Direto (DD) Uma bolsa no 1º ano e uma no 3º ano

Por fim, uma estimativa para os visitante

Quantidade Modalidade Expectativa de Solicitação

8 Visitantes do Brasil Em média 2 por ano de projeto

8 Visitante do Exterior Em média 2 por ano de projeto

Page 97: Scientific Project (2008)

97

XI. Cronograma de Execução Apresentamos na tabela abaixo detalhes do cronograma de execução do

projeto durante os quarto anos de sua duração, levando em contas os seus diferentes aspectos.

1º Ano

2º Ano

3o Ano

4o Ano

Implantação de Infra-estrutura Física e Hardware

Ampliação das instalações do datacenter

Implantação do hardware da primeira fase

Implantação do hardware da segunda fase

Análises Físicas

Dimensões Extras no DZero

Física de Quarks Pesados no CMS

Supersimetria no CMS

Dimensões Extras no CMS

Randall-Sundrum no CMS

Processamento de Dados Reprocessamento de dados do Dzero

Simulação de Monte Carlo para o Dzero

Simulação de Monte Carlo do CMS

Análise de Dados do CMS

Outras Atividades Implementação do GridUNESP

Implantação do Grid Educacional

Suporte ao Projeto Um Cartaz em Cada Escola

Participação nas Bandwidth Challenges da SuperComputing

International MasterClasses for High School Students

Page 98: Scientific Project (2008)

98

XII. Orçamento Financeiro: Justificativas Introdução

Desde o surgimento, em meados da década de 90, das primeiras redes ópticas com múltiplos enlaces de 10 Gbps em um único par de fibras, o uso de largura de banda pelos experimentos de física de altas energias tem sofrido um enorme avanço. Na última década presenciamos um aumento de três ordens de magnitude na largura de banda das redes Ethernet em relação à década anterior. A expectativa, com a evolução da tecnologia de chaveamento e com a proliferação dos enlaces múltiplos, é de um aumento da mesma ordem de grandeza na próxima década, já que tanto a velocidade quanto o desempenho por unidade de custo das redes ópticas continua progredindo às mesmas taxas observadas nos últimos anos. O crescimento exponencial na capacidade das redes de comunicação, que ultrapassa as taxas de crescimento de todas as outras áreas da tecnologia da informação, reflete-se no vertiginoso crescimento dos grandes backbones mundiais. Em particular, as redes americanas dedicadas à pesquisa, como a ESnet e a LHCnet, da mesma forma como ocorre em outras partes do mundo, como a GÉANT2 na Europa e a APAN na Ásia, além dos backbones de amplitude nacional como a NLR nos EUA, a SURFNet na Holanda e a CANARIE no Canadá, tiveram seus backbones ampliados de 45 ou 155 Mbps para múltiplos enlaces de 10 Gbps em poucos anos.

A função chave exercida pelas redes de comunicação tem sido colocada em evidência devido ao modelo de computação distribuída em escala mundial, em forma de Grid, adotado pelos quatro experimentos do LHC, como uma resposta às enormes necessidades computacionais e de armazenamento requeridas por eles. À medida que nos aproximamos do momento em que o LHC entrará em operação, em meados de 2008, os experimentos aceleram o desenvolvimento das ferramentas e metodologias necessárias para distribuir, processar, acessar e cooperativamente analisar as imensas massas de dados que serão produzidas. Espera-se que se atinja um patamar de dezenas de Petabytes de informação digital, sejam dados coletados de fato ou resultados de simulações, durante os primeiros anos de operação do LHC. A escala das redes requeridas foi estabelecida pelo modelo hierárquico de processamento distribuído adotado, em cujo ápice se encontra o CERN, a unidade de processamento de classe Tier-0, ao qual se conectam 11 Tier-1, localizados em grandes centros nacionais. A estes centros nacionais conectam-se mais de uma centena de centros regionais de processamento, denominados Tier-2, localizados em diversas partes do mundo, nos quais mais de 40% dos recursos computacionais e de armazenamento estão localizados, e nos quais a maioria das análises, produção e processamento de dados simulados deverão ocorrer. Ao redor das Tier-2 aglomeram-se os pesquisadores, os personagens responsáveis pela produção científica que, em última análise, justifica todo esse monumental investimento.

Além da conectividade entre o Tier-0 e os Tier-1, a conectividade entre cada Tier-1 e seus correspondentes Tier-2 têm uma importância fundamental para que o modelo computacional do LHC possa ser realizado, já que nestes se concentra o ponto focal onde se realiza a análise. A habilidade de cada Tier-2 de capturar os datasets necessários à análise implica em um fluxo de dados substancial, estimado na faixa entre 1 a 10 Gbps, dependendo da disponibilidade da largura de banda em cada região. O valor de 1 Gbps é considerado o limite minimamente aceitável para a operação de um Tier-2; dependendo do porte do grupo, este valor é insuficiente. Todos os Tier-2 americanos, por exemplo, ou já têm ou estão planejando dispor de conexões de 10 Gbps antes mesmo do início da era LHC.

Page 99: Scientific Project (2008)

99

No decorrer de 2008, os experimentos do LHC executarão diversos testes de larga escala, os chamados “full-scale challenges”, nos quais simulações de transferência de dados serão executados a uma taxa próxima de 100% (daí o termo “full-scale”) das necessidades de todos quatro experimentos juntos, durante a operação normal do LHC. O “Combined Computing and Readiness Challenge” 2008 (CCRC’08) será o primeiro grande teste, e está sendo preparado para iniciar em maio de 2008, pouco antes do comissionamento do LHC. Neste grande teste, os quatro experimentos serão exercitados em conjunto. Assim, em meados de 2008, a eficiência, a escalabilidade e a robustez das redes de comunicação internacionais serão testadas ao limite, pois o fator decisivo para o comissionamento de cada centro de processamento será medido pelo número de jobs que este é capaz de completar diariamente.

Ainda em relação aos requisitos de rede necessários para o futuro próximo, um fator adicional a se considerar é o rápido avanço da tecnologia de processamento e de armazenamento, que já permite mover grandes massas de dados entre sistemas de armazenamento através de redes de longo alcance a taxas muito elevadas. Alguns dos Tier-2, notadamente os americanos, têm demonstrado a capacidade de mover dados a uma impressionante taxa de 1 Gbyte por segundo – tal fato foi demonstrado recentemente entre o Tier-2 de Nebraska e o Fermilab. A maioria das conexões entre os Tier-1 e Tier-2, entretanto, está longe de alcançar esse nível de excelência no desempenho de transferência de dados. Isto ocorre por várias razões,desde configurações não-ótimas dos sistemas computacionais nas pontas, passando pela ausência de experts em sistemas e redes, até problemas com os diversos segmentos de rede entre os centros. Mas a expectativa é que estas limitações sejam superadas na maioria dos casos nos próximos 2 anos.

O provisionamento e o uso efetivo das redes dependem fortemente do suporte financeiro das agências de fomento à pesquisa. Este suporte é necessário para cobrir os altos custos das conexões aos backbones internacionais, dos equipamentos de roteamento e chaveamento de tráfego, e do apoio de pessoal técnico especializado capaz de aplicar as ferramentas de software e realizar o ajuste fino necessário para operar e gerenciar tais redes, enquanto, ao mesmo tempo, continuar desenvolvendo, testando e progressivamente implementando as redes de nova geração. O provisionamento desse suporte é essencial para a realização dessa nova forma de fazer ciência.

A contribuição de físicos, engenheiros e estudantes que trabalham em universidades e centros de pesquisa a 10, 100, 1000, ou 10 mil Km do centro do experimento é essencial para o sucesso do LHC, portanto o suporte financeiro para a evolução das redes de longa distância torna-se vital. Com o passar do tempo, o volume total de dados a ser processado, analisado e compartilhado pelos experimentos do LHC deverá subir do Petabyte (1015 bytes) para o Exabyte (1018 bytes). Também os requisitos de velocidade de transmissão de dados entre cada um dos principais enlaces deverão subir correspondentemente, dos atuais 10 Gbps para a escala dos Terabytes por segundo. A Tabela 2 a seguir apresenta um panorama da situação atual e uma estimativa do que se espera para os próximos anos, baseando-se numa projeção do desenvolvimento ocorrido nessa área desde 1985 até o presente momento.

Page 100: Scientific Project (2008)

100

Ano Produção Experimental Observações

2001 155 Mbps 622 Mbps Tecnologia SONET/SDH

2002 622 Mbps 2.5 Gbps Tecnologia SONET/SDH WDM / integração com 1 GbE

2003 2.5 Gbps 10 Gbps DWDM / integração com 10 GbE

2005 10 Gbps 2 a 4 x 10 Gbps Lambda switching / Provisionamento de lambdas

2007 2 a 4 x 10 Gbps ~ 10 x 10 Gbps 40 Gbps Lambda-Grids de 1a geração

2009 ~ 10 x 10 Gbps ou 1 a 2 x 40 Gbps

~ 20 a 50 x 10 Gbps ou 5 x 40 Gbps Lambda switching a 40 Gbps

2011 ~ 20 x 10 Gbps ou 5 x 40 Gbps ~ 100 x 10 Gbps Lambda-Grids de 2a geração /

dynamic lambda switching

2013 ~ Terabits/sec Multi-terabits/sec ~ Limite físico das fibras atuais

Tabela 2: Cenário atual e projeção de crescimento dos principais enlaces de rede usados pela comunidade de física de altas energias. As projeções para os próximos anos seguem as tendências de crescimento em largura de banda de acordo com os

padrões de crescimento observados nos últimos 20 anos (i.e., crescimento de um fator entre 500 a 1000 por década).

Como se pode observar, não é por acaso que a comunidade de física de altas

energias lidera os esforços de desenvolvimento de sistemas de processamento intensivo de dados de forma globalmente distribuída. Tais esforços levaram os experimentos do LHC a adotar o modelo hierárquico de processamento distribuído citado anteriormente, formado por uma infra-estrutura de múltiplas camadas (Tiers), cada uma composta de milhares de unidades de processamento e de armazenamento. Os dados produzidos por cada um dos experimentos, após atravessarem diversos processos de filtragem, serão armazenados a uma taxa entre 200 a 1500 Megabytes por segundo durante todo o ano, resultando em Petabytes de dados binários armazenados anualmente, que precisarão ser repetidamente processados e analisados por colaboradores espalhados por todo o mundo.

O processamento e a análise desses dados requerem o uso coordenado de toda a infra-estrutura hierárquica multi-Tier que está sendo construída. O Tier-0 e os Tier-1 são mais adequados para executar tarefas que requerem alta prioridade e processamento em larga escala, bem como o arquivamento e a distribuição sistemática dos dados. Movendo-se para uma camada abaixo na estrutura hierárquica, os mais numerosos centros regionais que concentram grupos de pesquisadores, infra-estruturas de classe Tier-2, têm maior flexibilidade e maior controle sobre como seus recursos são alocados para tarefas menores e mais específicas, conforme o interesse de cada grupo. Nesses centros regionais ocorre a análise de fato.

O fluxo de dados entre os Tiers deverá se tornar mais dinâmico na medida em que milhares de físicos começarem a buscar elementos de processamento e de armazenamento para uma variedade de tarefas de prioridades distintas, com diferentes requisitos de tempo de processamento e de volume de dados. Estimativas recentes indicam que a demanda de rede dos experimentos deverá atingir algumas dezenas de Gbps nos próximos 2 ou 3 anos, durante o período inicial de operação do LHC. A partir daí haverá uma necessidade cada vez maior de escalonamento e uso dinâmico de múltiplos enlaces de 10 Gbps, à medida que o LHC alcançar o regime de operação com luminosidade plena.

Page 101: Scientific Project (2008)

101

Um dos pontos de maior necessidade de largura de banda dos experimentos do LHC é no sistema de captura de dados dos detectores. Estes dados serão armazenados no Tier-0 e distribuídos aos Tier-1 a taxas entre 200 a 1.500 Mbytes/segundo ao longo do ano. Em adição, a maioria da produção de dados simulados por Monte Carlo nos Tier-2 deverá ser encaminhada de volta aos seus respectivos Tier-1 e distribuídos a outros Tier-2, a taxas entre 50 a 200 Mbytes/segundo sustentadas. Uma taxa de transferência sustentada de 100 Mbytes/segundo requer uma rede absolutamente estável com largura de banda mínima de 1 Gbps. Assim, uma unidade de classe Tier-2 operando com um enlace de 1 Gbps até o seu Tier-1 correspondente, como é o caso do SPRACE atualmente, é capaz de participar da colaboração e contribuir minimamente, porém percebe-se que um incremento na largura de banda torna-se um evento altamente desejado.

Justificativas técnicas para o orçamento de hardware Das quatro colaborações do LHC, os grandes grupos de pesquisa americanos

participam de duas, ATLAS e CMS. Em função dessas participações, os Estados Unidos mantêm dois grandes centros de classe Tier-1: o BNL, ligado à colaboração ATLAS, e o Fermilab, ligado à colaboração CMS. Os centros regionais americanos de classe Tier-2 ligados à colaboração CMS estão portanto conectados com o Fermilab. Por razões históricas e técnicas, tanto o grupo de pesquisa do Rio de Janeiro (HEPGrid UERJ) quanto o grupo paulista (SPRACE), ambos considerados centros de classe Tier-2 do CMS, também estão conectados ao Fermilab. A capacidade de processamento e de armazenamento de cada um desses centros americanos, bem como a largura de banda da conectividade em rede de cada um deles com o Fermilab, são apresentadas na Tabela 3 a seguir84.

Tabela 3: Capacidade atual dos centros regionais de classe Tier-2 americanos, ligados

ao Fermilab Conforme detalhado no Capítulo VII – Processamento de Dados, a somatória

dos valores de SPEC Int 2000 (SI2K) estimados para os servidores adquiridos pelo projeto SPRACE até o presente momento, resulta em um poder de processamento total de cerca de 400 kSI2K. Como este valor leva em conta todos os servidores, não apenas os

84 http://t2.unl.edu/uscms/current-us-cms-tier-2-site-capacity-1-24-07/

Page 102: Scientific Project (2008)

102

nós de processamento, esta avaliação de desempenho é bastante otimista. Comparando-se com os valores em kSI2K apresentados na Tabela 3, nota-se que a capacidade de processamento atual do SPRACE é cerca de 10% menor do que a capacidade do menor dos centros Tier-2 dos EUA – o da University of Florida – o qual está na iminência de sofrer um grande upgrade. Uma comparação da capacidade de armazenamento do SPRACE com os centros regionais americanos mostra uma situação está ainda mais crítica. Conforme descrito no Capítulo VII, o SPRACE tem hoje pouco mais de 10 TB de espaço de armazenamento central, sendo que destes apenas 9 TB (5 pools de 1.8 TB cada) estão efetivamente disponíveis para uso externo, acessíveis pela infra-estrutura do OSG. Comparando-se com os valores de armazenamento efetivamente disponíveis para a colaboração, apresentados na coluna 4 da Tabela 3, verifica-se que a capacidade de armazenamento atual do SPRACE corresponde a cerca de 12.5% da capacidade disponibilizada pelo menor dos centros de classe Tier-2 americanos (UCSD). A defasagem do SPRACE em relação à largura de banda do enlace de rede que liga cada centro Tier-2 ao Fermilab também fica evidente quando se analisa a coluna 5, já que o SPRACE opera hoje com um enlace máximo de 1 Gbps.

Embora uma comparação com os centros de processamento Tier-2 americanos seja válida do ponto de vista de avaliação das potencialidades e condições técnicas, a comparação que de fato deve ser feita é em relação ao que a colaboração CMS define como recursos mínimos para um centro regional operar em classe Tier-2. Esta definição encontra-se no documento CMS: The Computing Project – Technical Design Report85. O capítulo 3 deste documento descreve a infra-estrutura hierárquica distribuída em Tiers, bem como as funções, os serviços e a capacidade de processamento e armazenamento minimamente requerida para cada Tier. Para um centro regional de classe Tier-2, o documento estabelece como capacidade mínima de processamento um valor correspondente a 900 kSI2K, e como capacidade mínima de armazenamento o valor 200 TB. O documento também estabelece como condição minimamente aceitável a disponibilidade de um enlace de rede de 1 Gbps, porém recomenda o uso de um enlace de 10 Gbps. Essa recomendação torna-se compreensível se considerarmos que um enlace de 1 Gbps permite transferências de no máximo 10 TBytes de dados por dia, isto considerando que o enlace se mantenha completamente saturado nas 24 horas do dia, algo muito difícil de se obter na prática. Numa condição dessas, a atualização de todo o espaço de armazenamento de um centro Tier-2 demoraria, no mínimo, 20 dias. Por outro lado, um enlace de 10 Gbps permite explorar toda a velocidade de transferência de dados passível de ser obtida nos servidores modernos, que pode chegar a 1 GByte por segundo (8 Gbps, portanto). Uma largura de banda de 10 Gbps permite portanto transferir 80 TBytes de dados num só dia, resultando num tempo inferior a 3 dias para a atualização de todos os dados de uma Tier-2.

Todos os centros de classe Tier-2 mundiais ligados à colaboração CMS têm preparado suas infra-estruturas em função dos valores considerados como minimamente aceitáveis: 1.000 kSI2k de poder de processamento, 200 TB de capacidade de armazenamento, e 10 Gbps de largura de banda até o correspondente Tier 1. Um fator a se considerar é que o CMS Technical Design Report é um documento elaborado em 2005. Felizmente, ao menos até o presente momento, os valores definidos naquele documento continuam perfeitamente válidos, mesmo com o rápido avanço da tecnologia.

85 http://cmsdoc.cern.ch/cms/cpt/tdr/cms-ctdr-col.pdf

Page 103: Scientific Project (2008)

103

A especificação técnica de atualização do parque computacional do SPRACE foi elaborada em função destes valores minimamente aceitáveis. O orçamento elaborado contempla a aquisição dos seguintes equipamentos, partes e peças:

• 32 servidores de processamento, cada um com 2 processadores quad-core de última geração (Intel Harpertown de 2,83 GHz) e 16 GB de memória. Este modelo de processador é o que atualmente apresenta a melhor relação custo x desempenho. A capacidade de memória atende às necessidades exigidas pelos softwares de análise que serão executados nestes equipamentos: 2 GB de memória por núcleo de processamento.

• 4 unidades de armazenamento, cada uma com 48 TB (terabytes) de capacidade, totalizando 192 TB brutos. Considerando a formatação e divisão dos discos em estruturas redundantes (RAID 5), obtém-se uma capacidade líquida de pouco mais de 150 TB, que somada aos atuais 10 TB, resulta numa capacidade total de aproximadamente 160 TB.

• Um equipamento de rede de alta capacidade, com configuração mínima para conectar os servidores principais através de enlaces de 1 + 1 Gbps, os 4 servidores de armazenamento através de enlaces de 10 Gbps, e ao mesmo tempo implementar uma rede interna independente, robusta e segura. O equipamento também dispõe de uma saída externa de 10 Gbps para conexão direta com o backbone da rede ANSP, através do Centro de Computação da USP.

• Um conjunto de servidores de apoio ao processamento, à análise de dados, e à comunicação por videoconferência.

• 2 unidades de apoio ao backup do centro de processamento, uma portátil, baseada em discos magnéticos, para uso diário, e outra de médio porte, baseada em fita magnética, para armazenamento seguro e de longo prazo.

• Um conjunto de equipamentos, partes e peças auxiliares para o centro de processamento, incluindo no-breaks, rack de rede, cabeamento, unidade de gerenciamento remoto, e peças de reposição.

• Um conjunto de equipamentos auxiliares de apoio à pesquisa, incluindo um sistema de videoconferência, desktops, impressoras e laptops.

Justificativa Detalhada O orçamento apresentado neste projeto foi minuciosamente planejado e

cuidadosamente lapidado, e representa o resultado de meses de negociação com os mais diversos fornecedores. Praticamente todas as propostas dos fornecedores apresentaram descontos agressivos, muitos deles em função da tradição dos mesmos em ofertar grandes descontos para as universidades envolvidas - USP, UNESP e UFABC. Nos itens seguintes detalhamos cada um dos conjuntos de equipamentos, partes e peças mencionados acima.

Aumento do poder de processamento Os 32 servidores de processamento foram cuidadosamente escolhidos, através

de consulta a grandes fornecedores (Sun Microsystems e SGI Inc.) de modo que o conjunto deverá acrescentar ao SPRACE um poder de processamento entre 700 e 900 kSI2K. Considerando que os novos processadores Intel quad-core Harpertown de 2,83 GHz apresentem um desempenho de cerca de 2.800 SI2K, uma estimativa

Page 104: Scientific Project (2008)

104

conservadora, baseada no desempenho do núcleo de cada processador Intel da geração anterior (Intel Xeon Clovertown), podemos estimar que um conjunto de 32 servidores com 2 processadores de quatro núcleos deverá apresentar um desempenho não inferior a 700 kSI2k (32 x 2.800 x 8 = 716,8). Este valor, somado ao poder de processamento atual, que é da ordem de 400 kSI2K, resulta no atendimento ao requisito mínimo de 1000 kSI2k discutido anteriormente, e aproxima o SPRACE do poder computacional das Tier-2 americanas. Um estratégia adotada na concepção do orçamento foi dividir a aquisição dos servidores de processamento em duas etapas, distantes entre si por cerca de 1,5 a 2 anos, para evitar que o parque computacional se torne obsoleto devido à rápida evolução tecnológica. Essa estratégia também deverá garantir que o poder de processamento seja superior a essa estimativa, já que é muito provável que daqui a 1,5 ou 2 anos os processadores de 8 núcleos já estejam disponíveis no mercado. O modelo de processador escolhido é de última geração, e o que atualmente apresenta a melhor relação custo x desempenho. A capacidade de memória de cada servidor atende às necessidades exigidas pela colaboração: 2 GB de memória por cada núcleo de processamento.

Recebemos propostas de preço da SGI e da Sun Microsystems. As duas empresas apresentaram preços muito próximos para equipamentos com características técnicas semelhantes. O preço inclui o fornecimento de um rack e um switch gigabit com uplink a 10 Gbps para cada conjunto de 16 servidores.

Aumento da capacidade de armazenamento As unidades de armazenamento também foram escolhidas com extremo

cuidado. Uma intensa pesquisa de mercado foi realizada ao longo de todo o segundo semestre de 2007. Diversos fornecedores foram contatados e convidados a apresentar soluções de armazenamento de baixo custo. Paralelamente, ficamos atentos aos acontecimentos no exterior, principalmente nos centros regionais do LHC. Recebemos propostas muito interessantes da Dell (unidades PowerVault MD1000) da EMC (modelo CX3-40), da DMstor (baseada em servidores da empresa Infotrend), e até de pequenos integradores, que apresentaram propostas de soluções do tipo ‘home-made’. Porém, todas as propostas recebidas apresentaram custo proibitivo, acima de R$ 500 mil. Analisando a tendência no exterior e continuando a busca, encontramos uma solução ainda mais interessante: um servidor de dados compacto e eficiente, desenvolvido pela Sun Microsystems, capaz de acomodar 48 unidades de disco magnético em seu interior. Após sucessivas negociações, conseguimos receber uma proposta comercial muito atraente, com um desconto agressivo devido ao cunho acadêmico do projeto.

Os servidores de dados Sun Fire X4500 da Sun são configurados com 48 unidades de disco do tipo Serial ATA, de baixo custo, de até 1 TB cada, totalizando 48 TB de espaço de armazenamento em disco, acondicionados em um chassis de 4 RU (rack units) de altura, sendo de longe o sistema de armazenamento mais compacto disponível mercado atualmente. Sua arquitetura interna é muito bem desenhada: ele dispõe de 48 baias de discos, que são instalados na posição vertical e podem ser substituídos a quente (hot-swappable). A mainboard fica na parte traseira do chassis e dispõe de 4 interfaces de rede gigabit e 2 barramentos PCI-X. A Sun utiliza a versatilidade dos processadores da AMD, que permite ligar cada uma das 6 controladoras de discos em barramentos internos independentes, conferindo um alto grau de paralelismo nos processos de leitura/escrita em disco. Na faixa dos servidores de armazenamento de baixo/médio custo, o desempenho do X4500 é imbatível. Nossa expectativa, confirmada pelos especialistas da Sun, é de conseguir obter taxas de transmissão da ordem de 1 GByte/s em cada unidade X4500. As seguintes instituições usam grandes quantidades de servidores X4500: Tokyo Institute of Technology (42

Page 105: Scientific Project (2008)

105

servidores), IN2P3 de Lyon (48 servidores), Texas Advanced Computer Center (72 servidores). Informações vindas do CERN, SLAC e BNL sobre testes realizados nestes servidores de dados mostram resultados animadores.

São necessárias mais do que 4 unidades X4500 para se atingir a meta de upgrade para 200 TB de disco. Entretanto, mesmo considerando o grande desconto que obtivemos, essas unidades de armazenamento têm preço muito elevado, de modo que decidimos incluir apenas 4 no orçamento do projeto. Da mesma forma que no caso do upgrade do poder de processamento, a estratégia que adotamos foi dividir a aquisição em duas etapas: adquirir 2 unidades de imediato, e outras 2 após um intervalo de 1,5 a 2 anos. Essa estratégia deverá evitar a obsolescência prematura dos recursos, e possivelmente aumentar a capacidade de armazenamento prevista até o momento, pois em cerca de 2 anos o mercado certamente deverá dispor de discos magnéticos de maior capacidade.

A proposta da Sun Microsystems também inclui uma interface de rede de 10 Gbps em cada unidade Sun Fire X4500. Isso permitirá que cada X4500 seja conectado diretamente no roteador de saída a 10 Gbps. Diversos documentos apresentados pela Sun Microsystems, bem como informes recebidos do exterior, demonstram que essas unidades, quando bem configuradas e dispondo de interfaces de 10 Gbps, conseguem sustentar taxas de transferência de dados da ordem de 1 GByte por segundo, uma impressionante marca, difícil de se atingir com servidores comumente encontrados no mercado. A Sun se comprometeu a fornecer um rack de 25 RU de altura para cada 2 unidades adquiridas.

No início de fevereiro também recebemos uma proposta muito atraente da SGI. A um custo um pouco maior do que o ofertado pela Sun (cerca de US$10000 a mais), a SGI consegue oferecer a mesma quantidade de espaço em disco, 192 TB brutos, com a vantagem de que as unidades da SGI dispõem de controladoras que fazem RAID por hardware. Em contrapartida, o espaço ocupado pela solução da SGI é 60% maior: seriam precisos 40 RU para acomodar as 16 unidades de discos e os 4 servidores de controle. Ao contrário, a solução da Sun ocupa apenas 16 RU. Além disso, pela arquitetura inovadora, tudo indica que o X4500 da Sun apresenta maior desempenho.

Aquisição de equipamento de rede adequado A escolha do equipamento de rede também passou por uma minuciosa

consulta a empresas especializadas: Foundry e Agrizzi Networks, Cisco e Medidata. A negociação durou vários meses. Tanto a Foundry quanto a Cisco, por intermédio de suas respectivas revendas Agrizzi e Medidata, apresentaram equipamentos tecnicamente equivalentes, ambos capazes de atender às exigências técnicas que impusemos, como capacidade de roteamento completo, disponibilidade de pelo menos 48 interfaces de 1 Gbps e 8 interfaces de 10 Gbps, garantia de 3 anos, suporte técnico no Brasil, além de diversas outras. Um pedido de desconto encaminhado pelo líder da colaboração CMS dos EUA, Dr. Harvey Newman, à Cisco americana, facilitou muito a negociação com a Cisco Brasil, de forma que conseguimos um desconto muito agressivo, que chegou a 49% (um dos maiores descontos já ofertados a uma universidade brasileira, segundo nos informaram), de modo que o equipamento da Cisco, cujo modelo é topo de linha na sua categoria, tornou-se mais barato que a proposta da Foundry - cujo preço também era atraente. Optamos então por incluir o equipamento 6504-E da Cisco em nosso orçamento. Em uma última rodada de negociações, ocorrida em 21 de fevereiro, a Cisco Brasil comprometeu-se a ofertar um chassis de 6 slots (modelo 6506-E) no lugar do de 4 slots que havíamos pedido inicialmente, sem qualquer aumento de custo.

Page 106: Scientific Project (2008)

106

A série Cisco Catalyst 6500 é particularmente interessante porque, além de ser o tipo de equipamento mais largamente utilizado pela colaboração internacional, e portanto altamente recomendado pelos especialistas em rede, ele também corresponde um modelo de nível superior, porém na mesma linha do Cisco Catalyst 3750, que é o modelo que temos atualmente no SPRACE. Toda a experiência de administração do Catalyst 3750 adquirida nesses anos fica preservada e será aproveitada na administração do modelo 6500, pois ambos usam o mesmo sistema operacional de rede, o Cisco IOS (Internetwork Operating System). Isso sem contar com a facilidade de se obter suporte internacional e possibilidade de intercâmbio de módulos, já que este é o equipamento mais comumente usado pela colaboração.

Aquisição de servidores de apoio Incluímos no orçamento a aquisição de novos servidores principais, necessários

para dar conta da enorme carga de processamento que será exigida do cluster deste ano em diante, com o início das operações do LHC. Os servidores principais que usamos atualmente datam de 2004 e 2005, e já são inadequados para as importantes funções que realizam. A mais contundente prova da obsolescência dos nossos servidores principais é a constatação de que fomos obrigados a retirar 2 servidores de processamento da fase 3 do projeto, adquiridos em 2006, para substituir o Elemento de Computação (Computing Element – CE) e o Elemento de Armazenamento (Storage Element – SE) antigos. Um terceiro servidor da fase 3 foi retirado mais recentemente para atuar como servidor de videoconferência, sendo o primeiro refletor do projeto EVO instalado no Brasil. Além destes, o servidor que executa os principais serviços do dCache, que é o gerenciador de todo o sistema de armazenamento distribuído, é um dos nós de processamento da fase 1 do projeto, adquirido em 2004. Temos, portanto um dos servidores de menor capacidade executando serviços absolutamente essenciais para o sucesso do projeto. Em face desse cenário desolador, decidimos incluir a aquisição de dois servidores de controle, para desempenhar as funções de CE e SE, dois servidores para compartilhar o gerenciamento do dCache, um servidor de videoconferência, e um servidor para executar os serviços de Web, Wiki, DNS e e-mail server, serviços estes essenciais para a administração e visibilidade do projeto, bem como para manutenção do domínio sprace.org.br. Este servidor também abrigará o serviço CDS Indico, para gerenciamento dos meetings e workshops do SPRACE. Também incluímos mais dois servidores topo de linha, para serem usados diretamente pelos pesquisadores nas análises físicas. Um deles será adquirido na primeira etapa e servirá aos pesquisadores e estudantes da UFABC. O outro será adquirido na segunda fase e será usado pelos pesquisadores e estudantes da UNESP. Finalmente, considerando novamente a rápida obsolescência dos sistemas computacionais em função do acelerado avanço tecnológico - a experiência acumulada no decorrer do projeto atual nos mostrou que em 2 ou 3 anos os servidores principais tornam-se inadequados para exercer funções vitais -, decidimos também incluir dois servidores de controle extras no orçamento, a serem adquiridos na fase 2 do projeto. Tais servidores serão usados para atualizar o CE e o SE por volta de 2010, e os antigos serão adicionados ao subsistema de gerência do dCache.

Ampliação da capacidade de backup Uma das deficiências que nos deparamos na administração do SPRACE nos 2

últimos anos do projeto foi com relação ao backup de dados essenciais: a unidade de backup em fita adquirida na fase 1 já não é capaz de atender às necessidades de armazenamento atuais, por sua lentidão e capacidade limitada, além de não dispor da flexibilidade de uso disponível em uma unidade portátil. Decidimos então incluir uma

Page 107: Scientific Project (2008)

107

unidade de backup portátil, muito versátil, que usa discos magnéticos como mídia, portanto tem maior velocidade de acesso, e que pode ser ligada a qualquer servidor através da porta USB. Esta unidade deverá ser adquirida já na fase 1, para suprir as deficiências atuais. Na segunda etapa do projeto, incluímos uma tape library com capacidade para 10 TB e interface SCSI, para armazenamento de longo prazo em fita magnética. Nesta etapa do projeto esse tipo de armazenamento se tornará absolutamente necessário, pois o volume de dados acumulados no decorrer do projeto será grande o suficiente para justificar o investimento num meio de armazenamento mais seguro e mais duradouro.

Equipamentos, partes e peças auxiliares para o datacenter Para acomodar os novos servidores e unidades de armazenamento, a infra-

estrutura física do centro de processamento de dados do SPRACE também precisará sofrer uma atualização. Incluímos no orçamento o custo da ampliação do espaço físico do datacenter, que poderá assim passar dos atuais 25 m2 para cerca de 45 m2. Um novo quadro elétrico precisará ser instalado, pois a quantidade de tomadas atualmente disponíveis não é suficiente para a nova demanda de equipamentos. Será necessário também um novo conjunto de no-breaks. Embora o SPRACE atualmente use no-breaks de 3 KVA, escolhemos no-breaks de maior capacidade, pois, além de o consumo de potência das novas gerações de servidores ser mais elevado devido ao uso de processadores multi-núcleos e à grande quantidade de memória, a experiência na administração dos recursos atuais nos mostrou que os no-breaks de 3 KVA trabalham muito perto do limite de sua capacidade, quando o processamento dos servidores se torna intenso. Nessas situações de alto consumo, em caso de queda de energia os no-breaks são capazes de sustentar a energia nos servidores por um tempo inferior a 2 minutos, tempo este que em algumas situações não é suficiente para que o shutdown de um servidor mais carregado de serviços se complete. Quando isso acontece, o no-break deixa de cumprir sua função de proteção mais básica. Uma forma de resolver esse problema é recorrer a no-breaks de maior capacidade. A potência exigida pelos servidores de armazenamento, cada um com 48 discos, é muito maior do que a exigida por servidores comuns, podendo chegar próximo de 500 W (0.750 KVA). Além disso, esses servidores dispõem de fontes redundantes, e a redundância na alimentação elétrica só faz sentido se cada fonte for ligada a um no-break diferente. Para uniformizar a infra-estrutura, decidimos utilizar um par de no-breaks de 6 KVA em cada um dos novos racks. Os dois racks de armazenamento acomodarão duas unidades X4500 cada, sendo que cada uma das fontes redundantes será ligada a um dos no-breaks do par. Em regime normal, o consumo de energia é balanceado pelas duas fontes operando em conjunto, mas numa eventual falha num dos no-breaks, o par correspondente terá que sustentar as duas unidades, mesmo quando ambas estiverem operando a plena carga. Nesse caso, um no-break de 6 KVA torna-se indispensável. Também tivemos que incluir um no-break de 8 KVA para o novo roteador de rede, que tem uma fonte de alimentação de 3000 W. Embora o no-break de 6 KVA seja capaz de sustentar essa potência (o limite dele é 4200 W), suas tomadas têm um limite de corrente de 16 A, muito próximo do consumo de corrente do roteador a plena carga, cerca de 13 A. O no-break de 8 KVA dispõe de uma saída para alta corrente, capaz de fornecer até 40 A. Esta mesma saída poderá então ser usada para alimentar os demais equipamentos de rede a serem instalados no novo rack de rede. Este no-break necessitará de um disjuntor de entrada externo de 50 A, de maior capacidade do que os que temos atualmente no quadro de entrada de energia do laboratório (20 A). Esta instalação está prevista no orçamento referente à instalação de novo quadro de força, item relacionado à ampliação da infra-estrutura física do datacenter.

Page 108: Scientific Project (2008)

108

O orçamento também inclui um dispositivo denominado IP KVM (acesso a keyboard, vídeo, mouse via protocolo IP) que permite o acesso direto à console de até 8 servidores remotamente, via Internet ou modem, permitindo que o administrador tenha acesso a esses equipamentos mesmo nas situações em os sistemas operacionais estejam inoperantes. Através de um recurso denominado “virtual media”, o administrador pode até mesmo instalar o sistema operacional, usando uma unidade de CD que esteja no local em que ele se encontra. Estas facilidades são complementadas por uma unidade de gerenciamento de energia, também incluída no orçamento, que disponibiliza 10 tomadas que podem ser ligadas ou desligadas através de controle remoto, sob comando do IP KVM. Esses dois recursos permitem que os administradores tenham controle completo de até 8 servidores principais do SPRACE, que poderão ser gerenciados sem uma presença física no datacenter. Para um centro de processamento que deve operar em regime 24 x 7, esse é um recurso indispensável, já que não é possível manter uma equipe de operadores em turnos de 24 horas. Este tipo de facilidade, conhecida como out-of-band management, tem sido cada vez mais utilizada por permitir uma via acesso alternativa aos recursos computacionais, quando não se é possível alcançá-los através da rede de produção. O acesso remoto permite reduzir drasticamente os custos de deslocamento da equipe técnica fora do horário comercial (por exemplo, finais de semana), já que boa parte das falhas causa um travamento do sistema operacional, cuja solução é um simples apertar de botão. Este recurso torna-se ainda mais importante quando se considera que o SPRACE é uma infra-estrutura administrada por pesquisadores, técnicos e estudantes de 3 universidades. Este dispositivo KVM ainda permite a ligação de unidades KVM analógicas de baixo custo, comumente encontradas no mercado, permitindo ampliar o recurso de gerenciamento remoto para dezenas de servidores. A ANSP dispõe de dispositivos KVM para controlar seus recursos instalados em dois datacenters remotos: em Barueri e em Cotia. O Centro de Computação da USP também está investindo nessa solução. Optamos pela empresa Avocent por ela ser a líder no mercado de soluções desse tipo, e por oferecer descontos agressivos em seus produtos para a comunidade USP.

Para completar a infra-estrutura do datacenter, também incluímos no orçamento um rack de 28 RU para abrigar os equipamentos de rede, que atualmente estão precariamente instalados num rack rudimentar, como pode ser observado na Figura 39 a seguir.

Figura 39: Foto tirada recentemente do rack de rede do SPRACE

A Figura 39 também realça a situação precária da infra-estrutura de

cabeamento. Na montagem atual, os patch-cords vindos dos servidores e switches de agregação dos racks são ligados diretamente nas portas do switch/router de borda do

Page 109: Scientific Project (2008)

109

data-center, o Cisco Catalyst 3750. Este tipo de ligação não cumpre com as normas de cabeamento para telecomunicações em edifícios comerciais (TIA/EIA-568B) ou com as normas de infra-estruturas de telecomunicações para datacenters (ANSI/TIA/EIA-942). Além disso, ainda peca pelo perigo oferecido no manuseio constante dos patch-cords conectados nas portas do elemento central da rede, o Catalyst 3750, um equipamento de pelo menos US$ 14.000. Para melhorar esta situação, incluímos no orçamento os elementos necessários para implementar minimamente uma infra-estrutura de cabeamento estruturado. Essa infra-estrutura facilitará sobremaneira o manuseio diário das conexões entre os servidores e os elementos ativos instalados no rack de rede, e ao mesmo tempo protegerá as portas dos ativos de rede mais caros, como os Catalysts.

O orçamento também contempla a aquisição de 2 switches extras de 24 portas gigabit com uplink de 10 Gbps, para substituir os atuais switches da fase 3, permitindo que os servidores dessa fase tenham um uplink a 10 Gbps para o novo Catalyst, através do novo switch. Os switches da fase 3 que sobrarem dessa substituição serão usados para atualizar os switches da fase 2, que são equipamentos antigos e sem capacidade de gerenciamento. Com essas alterações, a rede interna do cluster sofrerá uma melhoria considerável. Um dos benefícios será a possibilidade de se usar frames Ethernet de 9 kbytes na rede interna do cluster (os chamados jumbo-frames), aproveitando melhor a largura de banda disponibulizada por uma gigabit. Atualmente não é possível implementar essa melhoria porque os switches mais antigos não têm essa capacidade. Os switches mais antigos, das fases 1 e 2, serão por sua vez usados para melhorar as redes locais que interligarão os equipamentos destinados à pesquisa, na UFABC e na UNESP. Nenhum equipamento será portanto aposentado ou deixado sem uso.

As peças de reposição incluídas no orçamento (discos SCSI, baterias para no-break e coolers de CPU) destinam-se à manutenção do parque atual do SPRACE, cujo período de garantia vence em 2008. As baterias dos no-breaks atuais já entraram no período de troca recomendado pelo fabricante. As demais peças correspondem àquelas que têm maior probabilidade de dar defeito (sabemos disso devido à experiência acumulada em 4 anos de manutenção do site atual).

Equipamentos auxiliares para apoio à pesquisa Finalmente, o orçamento inclui um conjunto de equipamentos de uso individual,

como desktops, laptops e impressoras, além de livros e de um sistema de videoconferência para a UFABC, para dar suporte às atividades de análise dos estudantes e pesquisadores.

Serviços de Terceiros no Exterior – M&O Os custos cotidianos de um experimento como o CMS são cobertos pela verba

de Maintenance & Operations (M&O). Nesse orçamento estão incluídos os custos de manutenção e operações do experimento que envolvem os gastos com os detectores (magnetos, criogenia, hidráulica, vácuo, controle), comunicações (telefonia, videoconferência), computação (processamento on-line, software, suporte ao usuário, armazenamento de dados), testes e calibração do feixe, serviços gerais (secretaria, engenharia, transporte pesado, survey), eletricidade, etc.

Estes custos são compartilhados entre todos os países que compões a colaboração e são divididos proporcionalmente aos pesquisadores doutores ativos. Não são incluídos nessa partilha nem estudantes nem técnicos e engenheiros.

Page 110: Scientific Project (2008)

110

Mostramos na Tabela 4 como se dá a divisão da verba de M&O86 entre os diversos países que participam da colaboração, mostrando o número total de doutores e o percentual correspondente a cada país. Ao Brasil cabem 0,7%.

Tabela 4: Número de Ph.D.’s por país

O grupo do SPRACE87 participa oficialmente com 7 membros da colaboração

que inclui 5 físicos, 1 engenheiro e 1 estudante de doutorado. Dentre os físicos, apenas 2 pesquisadores pagam atualmente a verba de M&O. Os demais doutores referentes ao Brasil são da Universidade do Estado do Rio de Janeiro (4 pesquisadores) e do Centro Brasileiro de Pesquisas Fisicas (3 pesquisadores), perfazendo ao total de 9 pesquisadores brasileiros que contribuem para a partilha do M&O.

86 Preliminary Draft Budget for CMS Maintenance & Operations for 2009, CERN-RRB-2008-030. 87 http://cmsdoc.cern.ch/institfind?LAB=SAO_PAULO

Page 111: Scientific Project (2008)

111

Do montante total do M&O esperado para o ano de 2009 é de CHF 12 milhões, cabendo portanto a cada pesquisador aproximadamente CHF 10.500,00.

Tabela 5: Orçamento para M&O solicitado em 2009 nas diferentes rubricas.

Page 112: Scientific Project (2008)

112

A Tabela 5 mostra em detalhes como essa verba é dividida entre os diversos itens do orçamento. Uma estimativa desses custos até 2012 pode ser vista na Tabela 6.

Tabela 6: Estimativa de custos para os anos de 2008 a 2012

Page 113: Scientific Project (2008)

117

XIV. Descrição da Equipe Apresentamos a seguir uma lista das pessoas envolvidas no projeto.

Nome Função Currículo Lattes

Sérgio Ferraz Novaes Coordenador http://lattes.cnpq.br/7924815022468819

Eduardo de Moraes Gregores Pesquisador Principal http://lattes.cnpq.br/6024077393559967

Pedro Galli Mercadante Pesquisador Principal http://lattes.cnpq.br/3222374562566665

Sergio Morais Lietti Posdoc http://lattes.cnpq.br/5937985523259091

Franciole da Cunha Marinho Candidato a Posdoc http://lattes.cnpq.br/8747367480526582

José Roberto Bollis Gimenez Engenheiro Elétrico http://lattes.cnpq.br/2793685256291869

Marco André Ferreira Dias Informática http://lattes.cnpq.br/3302189026105008

Rogério Luiz Iope Informática http://lattes.cnpq.br/3483174559424089

João Basso Marques Divulgação Científica http://lattes.cnpq.br/7504881282942727

Thiago Rafael Fernandez Perez Tomei Doutorado http://lattes.cnpq.br/8046594106198115

Camilla Kassar Borges Mestrado http://lattes.cnpq.br/2993080509321238

Ângelo de Souza Santos Mestrado http://lattes.cnpq.br/3021924737826617

Flavia de Almeida Dias Iniciação Científica http://lattes.cnpq.br/0020737124988320

Eduardo Bach Estudante Graduação88 http://lattes.cnpq.br/4594449506946238

Iris Silva de Oliveira Estudante Graduação69 http://lattes.cnpq.br/4523003366812045

Matheus Ichimaru Bedendo Estudante Graduação http://lattes.cnpq.br/6138549744299201

Caio Laganá Fernandes Estudante Graduação http://lattes.cnpq.br/3188782393578363

Tiago dos Anjos Costa Estudante Graduação http://lattes.cnpq.br/9217497477982440

Tamara Guimarães Bucalo Estudante Graduação http://lattes.cnpq.br/9871058446524904

Sérgio Ferraz Novaes – Coordenador Professor Titular do Instituto de Física Teórica da Universidade Estadual Paulista.

Graduado em Física e Doutor pela Universidade de São Paulo, fez Pós-Doutoramento no Lawrence Berkeley Laboratory, Estados Unidos. Foi Professor Visitante das Universidades de Wisconsin, Estados Unidos e Valencia, Espanha. Iniciou a carreira na área de Fenomenologia das Partículas Elementares. Desde 1999 é membro da Colaboração DZero do Fermilab e atualmente faz parte também da Colaboração CMS do CERN. Foi coordenador de Pesquisa e Vice-diretor do Instituto de Física Teórica da UNESP e membro da Coordenação da Área de Física da FAPESP de 1997 a 2000 e do "International Committee for Future Accelerators" de 2005 a 2007. É membro do

88 Embaixador da Sun Microsystems do Brasil

Page 114: Scientific Project (2008)

118

"Standing Committee on Interregional Connectivity". É coordenador dos projetos SPRACE e GridUNESP.

Eduardo de Moraes Gregores – Pesquisador Principal Físico formado pela Universidade de São Paulo (USP) com Licenciatura obtida

em 1984 e Bacharelado em 1990, Doutorado pelo Instituto de Física Teórica da UNESP (IFT) em 1997 e Pós-Doutorado na Universidade de Wisconsin, EUA, em 1999. Participa da realização dos experimentos DZero e CMS. É pesquisador principal do Projeto Temático SPRACE da FAPESP, coordenador técnico do projeto GridUNESP e bolsista de produtividade em pesquisa do CNPq. Foi professor do IFT-UNESP entre 2002 e 2004 e é, atualmente, Professor Adjunto da Universidade Federal do ABC, onde é Vice-Coordenador da Pós-Graduação em Física e Pró-Reitor de Pós-Graduação da Universidade.

Pedro Galli Mercadante – Pesquisador Principal Possui Bacharelado (1990), Mestrado (1993) e Doutorado (1997) em Física pela

Universidade de São Paulo e pós-doutorado nas University of Hawaii, Florida State University e Universidade de São Paulo (1997-2004), atuando na área de fenomenologia das partículas elementares. Atuou como jovem pesquisador (FAPESP) do Instituto de Física Teórica da Universidade Estadual Paulista em Fisica Experimental de Altas Energias (2004-2007). Atualmente é Professor Colaborador deste instituto. É membro da colaboração DZero do Fermilab e CMS do LHC, atuando junto ao grupo SPRACE.

Sergio Morais Lietti – Posdoc Possui Bacharelado em Física pela Universidade de São Paulo (1991). Obteve na

área de Fenomenologia de Partículas Elementares os títulos de Mestre em Física pela Universidade de São Paulo (1994) e Doutor em Física pela Universidade Estadual Paulista Júlio de Mesquita Filho (1998). Ainda na área de Fenomenologia de Partículas Elementares, fez Pós-Doutoramento no Lawrence Berkeley Laboratory, Estados Unidos, no Instituto de Física Teórica da UNESP e no Departamento de Física Matemática do IFUSP. Desde 2004 atua na área de Física Experimental de Altas Energias, sendo membro do projeto SPRACE, e das Colaborações Internacionais DZero do Fermilab e CMS do CERN.

Franciole da Cunha Marinho – Candidato a Posdoc Graduado em Física pela Universidade Federal do Rio de Janeiro (2003).

Concluiu o mestrado em 2005 pelo instituto de Física da Universidade Federal do Rio de Janeiro, sob a orientação da Prof. Sandra Amato. Atualmente é doutorando no Department of Physics & Astronomy da University of Glasgow, Escócia, sob orientação do Prof. Chris Parkes. Tem experiência na área de Física, com ênfase em Física das Partículas Elementares e Campos. Trabalhou diretamente com as medidas de qualidade e desempenho dos módulos de silício do detector de vértices (VELO) do experimento LHCb. Atualmente dedica-se a área de física dos mesons-b com ênfase em decaimentos raros por trocas de sabor em correntes neutras.

José Roberto Bollis Gimenez – Engenheiro Elétrico Coordenador de TI do projeto GridUNESP. Doutor, Mestre e Bacharel em

Engenharia Elétrica pela Universidade Estadual de Campinas. Projetou, implantou e administrou a Rede de Computadores da UNESP (unespNET). Coordenou o curso de Mestrado em Ciência da Computação da Universidade de Guarulhos (1997-2004). Foi professor titular da Universidade Ibirapuera (1997-1998). Atuou no projeto do Supercomputador Ômicron (1990-1991). Foi membro do Comitê Gestor da Rede ANSP e representante da UNESP no programa INTRAGOV da Casa Civil do Governo do Estado

Page 115: Scientific Project (2008)

119

de São Paulo e na definição da RedeComep de São Paulo proposta pela RNP. Tem experiência na área de Ciência da Computação, com ênfase em Segurança de Redes, Transmissão de Dados e Computação de Alto Desempenho.

Marco André Ferreira Dias – Informática Possui graduação em Licenciatura e Bacharelado em Física pela Universidade

Estadual de Campinas (2000), mestrado em Física pela Universidade Estadual de Campinas (2002) e doutorado em Física pela Universidade Estadual Paulista Júlio de Mesquita Filho (2007). Atualmente trabalha no projeto de Desenvolvimento de um Provedor de Autenticação de Grid e é membro do SPRACE. Trabalha também com Fisica Teórica, especialmente Teoria Quântica de Campos e Gravitação.

Rogério Luiz Iope – Informática (Procontes/USP) Possui graduação em Bacharelado em Física Aplicada com ênfase em

Microeletrônica pela Universidade de São Paulo - USP (2000). Atualmente é aluno de doutorado do Departamento de Engenharia de Computação e Sistemas Digitais da Escola Politécnica da mesma Universidade. Atua como analista de sistemas na própria USP desde 2001, tendo trabalhado, junto ao Centro de Computação, na implantação e administração de diversos sistemas computacionais científicos e administrativos, bem como em vários projetos relacionados ao provimento e manutenção da infra-estrutura de rede da Universidade. A partir de 2005 passou a atuar, como auxiliar de pesquisa, no SPRACE, sendo atualmente o responsável pela implantação, administração e atualização dos sistemas computacionais, infra-estrutura de rede e de software do datacenter deste centro, instalado nas dependências do Instituto de Física da USP.

João Basso Marques – Divulgação Científica (CNPq) Possui graduação em Licenciatura Plena em Física pela Universidade Federal de

Mato Grosso (2003) e atualmente é mestrando em Física no Intituto de Física da USP, atuando principalmente em perda de energia de íons acelerados e poder de freamento. É Bolsista de Extensão no País (E) pela Universidade Estadual Paulista Júlio de Mesquita Filho participando do projeto “Estrutura Elementar da Matéria: Um Cartaz em Cada Escola”.

Thiago Rafael F. Perez Tomei – Estudante de Doutorado (FAPESP) Físico formado pelo Instituto de Física da Universidade de São Paulo com

Bacharelado obtido em 2006. Estudante de Doutorado do Instituto de Física da UNESP desde 2006. Tem experiência na área de Física Experimental, tendo sido estudante de Iniciação Científica do Laboratório de Instrumentação e Partículas do Departamento de Física Geral do IFUSP em 2004 e 2005 como bolsista da CAPES. Participante da Colaboração CMS do CERN e do projeto SPRACE.

Camilla Kassar Borges – Estudante de Mestrado Graduada em Licenciatura em Física pela UFMT (2007). Com experiência de três

anos de Iniciação Científica, orientada pela Dra. Iraida Cabrera Carnero, em Modelos Integráveis de Soluções Tipo Solitons. Atualmente é aluna de Mestrado em Física de Partículas Elementares e Campos, pela Universidade Federal do ABC, orientanda pelo Professor Dr. Eduardo M. Gregores, e participante do Projeto SPRACE.

Ângelo de Souza Santos – Estudante de Mestrado Possui Bacharelado em Física pela Universidade de São Paulo (2007), tendo sido

orientado pelo Dr. Oscar J. P. Éboli em iniciação científica na área de fenomenologia de partículas elementares. Atualmente é estudante de mestrado no Instituto de Física

Page 116: Scientific Project (2008)

120

Teórica, orientado pelo Prof. Dr. Sérgio F. Novaes na área de física experimental de altas energias, e Papiloscopista Policial pela Secretaria de Segurança Pública de São Paulo.

Flavia de Almeida Dias – Estudante de Iniciação Científica (FAPESP) Aluna de graduação do Instituto de Física da Universidade de São Paulo, com

formatura prevista para dezembro de 2008. Faz Iniciação Científica na área de Física Experimental de Altas Energias, sob orientação do Prof. Dr. Sérgio Ferraz Novaes, do Instituto de Física Teórica da Universidade Estadual Paulista.

Tiago dos Anjos Costa – Estudante de Iniciação Científica (CNPq) Aluno de graduação do Instituto de Física da Universidade de São Paulo, USP.

Tem experiência na área de Geociências, com ênfase em Paleomagnetismo. Atualmente desenvolve projeto de iniciação científica financiado por Bolsa de Iniciação Científica do CNPq, em física de altas energias no SPRACE. Conclusão da graduação prevista para meados de 2009.

Eduardo Bach – Estudante de Graduação Atualmente é graduando em Física no Instituto de Física da USP. Trabalhou junto

à Coordenadoria de Tecnologia da Informação da USP (2005-2006). Desde 2007 participa do programa Ambassador promovido pela Sun do Brasil na área de High Performance Computing. Também em 2007 passou a ser membro do projeto SPRACE, atuando na área de Física Experimental de Altas Energias como aluno de iniciação científica.

Iris Silva de Oliveira – Estudante de Graduação Aluna de graduação do Instituto de Física da Universidade de São Paulo. Tem

experiência na área de Física, com ênfase Biofísica Teórica. Experiência também em programação em JAVA e PHP, bem como em desenvolvimento de sistemas.

Matheus Ichimaru Bedendo – Estudante de Graduação Aluno de graduação do Instituto de Física da USP. Atualmente cursando

bacharelado em física com habilitação em astronomia. Participa de projeto de iniciação científica na área de física de altas energias sob a orientação do Prof. Dr. Pedro Galli Mercadante, do Instituto de Física Teórica da Universidade Estadual Paulista, UNESP. Conclusão da graduação prevista para o final de 2009.

Caio Laganá Fernandes – Estudante de Graduação Aluno do curso de Física na Universidade de São Paulo com iniciação científica

na área de Altas Energias, orientado pelo Prof. Dr. Eduardo Gregores. Tem sua formatura prevista para o início de 2010.

Tamara Guimarães Bucalo – Estudante de Graduação Aluna do Bacharelado em Ciência e Tecnologia da Universidade Federal do

ABC realizando iniciação científica na área de Altas Energias, sob orientaçãp do Prof. Dr. Eduardo Gregores.

Page 117: Scientific Project (2008)

121

XV. Resultados de Auxílios Anteriores Apresentamos abaixo uma relação dos auxílios anteriores recebidos pelo grupo

nos últimos 5 anos de agências de fomento nacionais. Para uma lista dos apoios internacionais, ver a introdução deste projeto.

Projeto Temático da FAPESP Processo: 2003/04519–9 Título: “Física Experimental de Anéis de Colisão: SPRACE e HEP Grid Brazil” Vigência: 11/2003 a 04/2008. Coordenador: Sérgio F. Novaes Orçamento: R$ 1.559.758,87 (Material Permanente)

Jovem Pesquisador em Centros Emergentes da FAPESP Processo: 2004/00378-4 Título: “Física Experimental de Altas Energias: Os Experimentos DZero do Fermilab e CMS do CERN” Vigência: 07/2004 a 07/2007. Coordenador: Eduardo de M. Gregores Orçamento: R$ 39.970,00 (Material Permanente)

ProINFRA 01/2005 do MCT/FINEP/CT-INFRA Processo: 1.126/06 Título: “GridUNESP: Integração da Capacidade Computacional da UNESP” Vigência: 07/2006 a 06/2008. Coordenador: Sérgio F. Novaes (Coordenador Técnico do Sub-Projeto) Orçamento: R$ 4.415.477,00

Projetos de Difusão e Popularização da Ciência e Tecnologia do CNPq

Processo: 552.553/2006-9 Título: “Estrutura Elementar da Matéria: Um Cartaz em Cada Escola” Vigência: 11/2006 a 04/2009 Coordenador: Sérgio F. Novaes Orçamento: R$ 153.376,70

Page 118: Scientific Project (2008)

122

Visita, Estágio, Curso ou Intercâmbio do CNPq Processo: 452453/2006-2 Título: “Análise de sinais de dimensões extras universais no experimento DZero do Fermilab” Vigência: 06/08/2006 a 30/09/2006 Coordenador: Sérgio M. Lietti Orçamento: R$ 6.230,00

Visita, Estágio, Curso ou Intercâmbio do CNPq Processo: 452459/2006-0 Título: “Análise de sinais de dimensões extras universais no experimento DZero do Fermilab” Vigência: 06/08/2006 a 30/09/2006 Coordenador: Pedro G. Mercadante Orçamento: R$ 6.230,00

Page 119: Scientific Project (2008)

123

XVI. Métrica e Avaliação A Física de Altas Energias difere de forma significativa da maioria das pesquisas

em ciência básica. Em primeiro lugar, os experimentos na área requerem equipamentos de grande porte que superam em muito os custos usuais da instrumentação científica usual. Os aceleradores de partículas, essenciais para a investigação do comportamento da matéria a pequenas distâncias (10-18 m) são instumentos extremamente caros e complexos. Como consequência disto, existe apenas um pequeno número destes equipamentos e as colaborações experimentais possuem um grande número de pesquisadores de diferentes países. Para se ter uma idéia das ordens de magnitude envolvidas, a operação do Fermilab tem um orçamento equivalente a um milhão de dólares por dia. Compare-se, por exemplo, com os US$ 10 milhões de dólares que são gastos anualmente no Brasil pelo Laboratório Nacional de Luz Síncrotron (LNLS).

Além da instrumentação propriamente dita, também é peculiar a forma como são gerados os novos conhecimentos científicos que dão origem às publicações da área. Um experimento de Física de Altas Energias exige vários anos de preparativos para iniciar o estágio de tomada de dados. O processo que vai desde a construção do acelerador, passando pela montagem dos diversos detectores, da eletrônica, do hardware e do software de até se chegar à tomada de dados requer o trabalho árduo de centenas de profissionais das mais diferentes especialidades durante vários anos. O CMS, por exemplo, começou a ser projetado em meados da década de 80 e apenas agora, 20 anos depois do início do projeto, os dados começarão a ser coletados e analisados.

Assim, um artigo científico ao ser enviado para publicação está representando a etapa final de um longo processo que levou à geração deste conhecimento científico, que contou com o trabalho coordenado de centenas de pessoas durante mais de uma década. Para fazer justiça à participação de centenas de pesquisadores na consecução dos resultados, as pubicações contam inevitavelmente com vários autores.

É importante também ressaltar a irregularilade natural destas publicações. Como o resultado científico representa o final de um processo que requereu anos de trabalho de pesquisa, é de se esperar que as publicações tenham uma natural sazonalidade. Após longos anos de preparação, durante os quais não há resultado algum para ser publicado, chega-se finalmente ao período de análise de dados quando é colhido o resultado do esforço desses anos de empenho. Neste momento, uma avalanche de artigos científicos é submetida para publicação. Às vezes os pesquisadores da área são acusados de publicar pouco e às vezes de publicar em excesso. No entanto, isto tem que ser entendido como um processo natural e inevitável devido às características intrínsicas da área.

O objetivo fundamental da pesquisa em Física de Altas Energias é explorar os domínios da matéria gerando novos conhecimentos e a consequente disseminação desses avanços através da publicação científica. No entanto, além dos resultados da pesquisa fundamental, um parâmetro relevante a ser levado em conta é a capacidade de o projeto gerar benefícios secundários, indo além das fronteiras da ciência básica. Historicamente este é um dos pontos fortes da Física de Altas Energias, o que tem permitido a indução de novos projetos científicos e de inovação tecnológica, além da geração de capacitação profissional em áreas correlatas.

Page 120: Scientific Project (2008)

124

XVII. Cartas de Apoio ao Projeto Apresentamos a seguir algumas cartas de apoio e endosso do presente projeto.

Essas cartas foram subscritas por:

Prof. Harvey B. Newman Professor of Physics do California Institute of Technology Chair do Caltech Exchange Programs and Study Abroad Chair do CMS Collaboration Board Chair Principal Investigator dos projetos LHCNet e UltraLight Chair do Standing Committee on Inter-regional Connectivity do International Committee on Future Accelerators (ICFA) Endereço: Charles C. Lauritsen Laboratory of High Energy Physics, Mail Code 256-48, Pasadena, CA 91125-3100, EUA Tel: +1 (626) 395-6656 E-mail: [email protected]

Dr. Julio Ibarra Executive Director do Center for Internet Augmented Research & Assessment (CIARA) Principal Investigator dos projetos Western Hemisphere Research and Networking (WHREN), Links Interconnecting Latin America (LILA) e International Exchange Point for Latin America and the Caribbean R&E networks (AMPATH) Endereço: Florida International University, 11200 SW 8th Street, VH166, Miami, FL 33199, EUA Tel: +1 (305) 348.4105 E-mail: [email protected]

Prof. Dr. Alejandro Szanto de Toledo Lider no Brasil da Colaboração STAR do Relativistic Heavy Ion Collider (RHIC) do Brookhaven National Laboratory e da Colaboração ALICE d o Large Hadron Collider (LHC) do CERN. Endereço: Departamento de Física Nuclear, Instituto de Física – USP, Caixa Postal 66318, 05415-970 – São Paulo, SP Tel: (11) 3091-6939 E-mail: [email protected]

Page 121: Scientific Project (2008)

California Institute of Technology CHARLES C. LAURITSEN LABORATORY OF HIGH ENERGY PHYSICS Mail Code 256-48

Pasadena, CA 91125-3100

March 22, 2008 Prof. Carlos Henrique de Brito Cruz Scientific Director FAPESP R. Pio XI, 1500 05468-901 - São Paulo, SP BRAZIL

I am writing this letter in strong support of Professor Sergio Novaes’ proposal for support for his high energy physics group over the next four years, and for the upgrade of the São Paulo Regional Analysis Center (SPRACE) to the level of processing power and storage capacity required for his group to play a major role in the first round of discoveries anticipated in CMS at CERN’s Large Hadron Collider, which will start operating this year.

Professor Novaes’ group has established a strong international reputation for research in

fundamental physics at the frontier of the highest available energies, searching for new processes beyond the Standard Model of particle physics, at both the D0 experiment at Fermilab and CMS at the LHC. His group and ours at Caltech share a common theme, namely the use of isolated lepton signatures in the search, which has been at the root of many discoveries in our field over the last decades. The SPRACE computing cluster, coupled to high speed regional and wide area networks linking São Paulo to the US Tier1 center and to CERN via Miami, and the US LHCNet transatlantic network that I manage, has been a key element driving these explorations, while making Novaes’ group strong partners in the overall D0 and CMS data analysis efforts.

Professor Novaes has been a pioneer in bringing Grid Computing to Latin America over

the last several years, through the successful design, implementation and operation of SPRACE. The proposed plan is highly cost-effective in its adoption of low-cost cluster designs that have been proven to be reliable, following the LHC Data Grid Hierarchy concept that I first proposed in 1999 and which is now adopted by the LHC experiments as well as some other major physics programs.

The cost-effectiveness is greatly enhanced through the excellent relationships established

by Novaes and his team with local computing vendors and more recently with leading manufacturers such as Sun, as well as the strong support of the ANSP regional network organization in São Paulo. ANSP is carrying out a world-class, forward looking plan to upgrade the networks linking many key research institutions in the region, as well as the international link to Miami co-funded with the US National Science Foundation, to 10 Gigabts/sec. Interfacing

TELEPHONE: 626 395-6656 FAX: 626 795-3951 EMAIL: [email protected]

Page 122: Scientific Project (2008)

SPRACE to this network at full speed, as part of the regional Grid initiative in São Paulo, will provide the physicists in São Paulo with the data transfer capacity needed to effectively exchange datasets and play a major role in CMS as the accumulated data volumes and the computational requirements expand.

Part of the great merit of Professor Novaes’ proposal is its breadth and vision, and its

outstanding leadership and commitment to fostering progress in many fields of science as well as education throughout the state of São Paulo. Novaes has correctly identified the key need, and the opportunity for advancing many fields of “data intensive” science, engineering and biomedicine in Brazil, through the establishment of a state-wide Grid spanning the UNESP campuses. Another key aspect is the ability to leverage and integrate with existing computing resources through the use of Grid technologies, including partnering with similar initiatives at the other two São Paulo state universities: USP and Unicamp. This will make the GridUNESP project the first extensive grid supporting data intensive science, engineering and clinical practice in Latin America, covering an area greater than many European countries. Once upgraded to the level proposed, SPRACE will be an important element in GridUNESP as well.

The well-formulated high energy physics and SPRACE proposal upgrade builds on

Professor Novaes extensive experience in the Fermilab Run 2 and LHC high energy physics programs. It also takes full advantage of the technical expertise Novaes and his group have developed in the course of their successful design, development and operation of SPRACE, which is now an important contributor to the simulation and analysis of events both for D0 at Fermilab and more recently CMS at LHC. The integration of SPRACE into the worldwide LCG (LHC Computing Grid) and OSG (Open Science Grid) computing infrastructures, into the EELA Grid linking Latin America and Europe, as well as the DOSAR grid serving D0 and the SAMGrid coordinated by Fermilab, attest to the excellent track record of success of his team. Novaes’ partnership in our world-leading network developments in the UltraLight project that I lead, as well as in the Giga Project of RNP and the Kyatera project of FAPESP, further establish this record of success, and provide a strong foundation for the proposed project.

A key element in the long-term success of the proposed plan is the deployment and

progressive improvement of the networks linking the various sites. Professor Novaes is uniquely well-placed in the region to lead these aspects of the initiative he proposes. He has been an active participant in our development and deployment of new TCP-based network protocols, computing and network tuning methods to reach unprecedented levels of data throughput. This includes the records set by our team at the SuperComputing conferences during 2004-2007, which included the first data streams of several Gigabits/sec sustained between the Southern and Northern hemispheres, originating in São Paulo and Rio de Janeiro. Over the last year, we have begun to move these developments into production, and have donated a state-of-the-art data server to the São Paulo group for this purpose.

In addition to our joint developments in UltraLight, we also look forward to partnering

with Professor Novaes and his team, as well as ANSP, in the Kyatera project that aims to develop the next generation of “hybrid” packet- and circuit-switched networks. Kyatera’s aims are closely matched to the plans which we have underway for building circuit-based dynamic networks throughout the US together with Internet2 and the Energy Sciences Network (ESnet) as

TELEPHONE: 626 395-6656 FAX: 626 795-3951 EMAIL: [email protected]

Page 123: Scientific Project (2008)

well as US LHCNet that has been re-architected to provide circuits between the US and CERN. The planned upgrade of the link to Miami will include the installation of optical multiplexers to extend these circuits to Brazil, in the context of the NSF-funded CHEPREO project.

I would also like to note Professor Novaes’ work with the ICFA Standing Committee on

Inter-Regional Connectivity that I chair. This work aims to develop state-of-the-art networks that enable scientists in all world regions to be equal partners in the next-generation discoveries in science, while fostering technological developments that broadly benefit the world community. Through the development of these networks and Grid systems for analyzing data rapidly, we hope to close the Digital Divide that separates scientists in the less economically favored regions from those in the more favored regions, and to apply these developments to the benefit of many fields of research and society at large.

These developments in international networking, along with the rapid development by

RNP and ANSP of state and national networks for research and education, have made Brazil an important partner in our UltraLight project, and have set the example for other regions. A recent major example of this phenomenon is India, where the progress in Brazil was presented at a workshop in Mumbai that I co-organized in February 2006, along with our implementation of the first OC-12 link (622 Mbps) to the region (with the assistance of the World Bank, the Tata Institute of Fundamental Research, the IEEAF, and Internet2). Following Brazil’s lead, the goal is now to bring 10 Gigabits/sec to both India and Pakistan.

Professor Novaes’ leadership and commitment to education are also outstanding. He has

developed a proposal for a “Grid in a Box” to provide grid training to students and researchers through the region and the nation. He has developed a chart on the Elementary Structure of Matter covering the essentials of frontier research in high energy physics, along with a website and a discussion forum, and has distributed the chart to all 24,131 high schools in the state. And he has begun interactive Masterclasses using our Enabling Virtual Organization (EVO) system to give students hands-on experience in the process that scientists use to make discoveries in high energy physics.

I am very pleased to have this opportunity to strongly recommend Professor Novaes’

high energy physics and SPRACE upgrade proposal to you. If it is funded, my Caltech high energy physics group, and the UltraLight and US LHCNet projects that I lead, pledge to continue our partnership with Professor Novaes’ group, to provide the project with the most advanced methods and technologies available in the relevant technical areas, to ensure its success, in the context of a global partnership linking Latin America, the US, Europe and Asia. Specific technologies we will provide include Caltech’s global MonALISA (http://monalisa.caltech.edu) agent-based system for real-time monitoring, management and provisioning of networks and Grids, the UltraLight Linux kernel and Fast Data Transfer software (http://monalisa.caltech.edu/FDT) which is optimized for high speed data transfer, and our EVO system for worldwide collaboration (http://evo.caltech.edu ) that will be used both for our joint work in high energy physics, and for fostering education and research in many fields in Brazil.

TELEPHONE: 626 395-6656 FAX: 626 795-3951 EMAIL: [email protected]

Page 124: Scientific Project (2008)

Sincerely,

Harvey B Newman [*] Professor of Physics

Chair, Caltech Exchange Programs and Study Abroad US CMS Collaboration Board Chair Principal Investigator: LHCNet, and UltraLight Projects Chair, Standing Committee on Inter-regional Connectivity of the Int’l Committee on Future Accelerators

[*]Harvey Newman (Sc. D, MIT 1974, D.h.c.) is a Professor of Physics at the California Institute of Technology, and a Caltech faculty member since 1982. He co-led the MARK J Collaboration that discovered the gluon, the carrier of the strong force, at the DESY laboratory in Hamburg in 1979. His current activities in physics include the use of precision photon and lepton measurements to search for the Higgs particles thought to be related to the generation of particle masses in the universe, as well as other new physics signatures, with the Compact Muon Solenoid (CMS) at CERN’s Large Hadron Collider (LHC) that will begin operation in 2008. He also leads the Caltech MINOS and NOvA group studying neutrino flavor oscillations, the only confirmed evidence for physics beyond the Standard Model of particle physics. Since 1998 he has served as the Chair of the Collaboration Board of the U.S. contingent of CMS, which includes more than 800 physicists and engineers from 47 universities and the Fermi and Livermore national labs. Newman has had a leading role in the strategic planning, development, operation and management of international networks and collaborative systems serving the High Energy and Nuclear Physics communities since 1982, and served on the Technical Advisory Group for the NSFNet in 1986. He originated the Data Grid Hierarchy concept adopted by the four LHC high energy physics collaborations. He is the Principal Investigator of the US LHCNet project, linking the US and CERN in support of the LHC physics program, and the PI of the NSF-funded UltraLight project developing the next generation of network-integrated grid system. He has chaired the ICFA Standing Committee on Inter-regional Connectivity since 2002, working on bridging the Digital Divide that exists among scientific communities in many nations, through the use of advanced network technologies. He and his team have established more than a dozen Internet2 Land Speed Records since 2002, and he led the international consortium that won the SC2003, SC2004 and SC2005 Bandwidth Challenge Awards, with a 2005 record of 151 Gigabits/sec. He currently represents the U.S. scientific community on the Internet2 Strategic Planning Steering Committee and the Architecture and Operations Advisory Council. In 2007 he was awarded Doctor Honoris Causa degrees from the Politechnica University in Bucharest, Romania and the Pavel Josef Safarik University in Kosice, Slovakia.

TELEPHONE: 626 395-6656 FAX: 626 795-3951 EMAIL: [email protected]

Page 125: Scientific Project (2008)

Center for Internet Augmented Research & Assessment

March 23, 2008 Dear Professor Sergio Novaes, It is with great pleasure that I write this letter of support for the São Paulo Regional Analysis Center (SPRACE). The capabilities of the SPRACE facility are extremely important as a regional resource for the high-energy physics community. It is in the interest of the U.S.-Brazil high-energy physics science research and education collaborations for SPRACE to reach its full capabilities as a CMS Tier2 facility for the region. In support of the inter-regional Center for High-Energy Physics Research Education and Outreach (CHEPREO) program and the full participation of the SPRACE, we are committed to enhancing the international network resources between the U.S., Brazil and CERN. Through the AtlanticWave project, two NSF IRNC links (Brazil and Latin America through WHREN-LILA, and Europe through TransLight/StarLight) are configured to improve communications capabilities between SPRACE to U.S. Tier1s, and SPRACE and CERN. Our objective is to provide SPRACE with the network capabilities it needs to fully participate as a CMS partner. The research scientists and engineers at SPRACE are very professional and very competent. In our collaborations involving AMPATH, CHEPREO, UltraLight and WHREN-LILA, the SPRACE team has been very supportive and energetic to accomplishing the project goals. As a result, I view this as a capability that has developed between our teams that fosters trust and a spirit to collaborate. CHEPREO has a strong education and outreach component. The recent reverse site visit review of the CHEPREO proposal for continued funding recognized its significant achievements in transforming physics education. There is much interest from the NSF to enhance the international education and outreach component of CHEPREO. It is a great opportunity to work with you to develop a student exchange program that will mutually benefit our goals to broaden participation in physics at the undergraduate and graduate levels, as well as to educate science and engineering students to engage and succeed in a global workforce. I unequivocally support the proposal for SPRACE. As a member of the international community, I highly recommend to the reviewers that it be funded. Sincerely, Julio Ibarra Executive Director, CIARA Principal Investigator, WHREN-LILA and AMPATH

Florida International University ● 11200 SW 8th Street, VH166, Miami, Florida 33199 ● Phone: 305.348.4105 ● Fax: 305-348-1422 ● Email: [email protected]

www.ciara.fiu.edu

Page 126: Scientific Project (2008)
Page 127: Scientific Project (2008)

131

 

 

 

 

 

 

Apêndices  

               

 

Page 128: Scientific Project (2008)

132

    

Projetos de Iniciação Científica  Nosso grupo vem atuando com sucesso nos experimentos de Física de Altas

Energias DZero do Fermilab e CMS do CERN, tendo construído e mantido em operação um cluster computacional que permite uma contribuição significativa a estes experimentos. Além dessas atividades temos participado de análises no DZero e estamos nos preparando para ter um envolvimento significativo nas análises do CMS, contando inclusive com a presença de um estudante de doutorado atualmente no CERN.

É essencial a presença de estudantes nas áreas de interesse do grupo, com esse intuito preparamos os seguintes projetos de iniciação científica que visam capacitar o estudante de graduação a realizar um doutorado na área de Física Experimental de Altas Energias:

• Fundamentos da Física Experimental de Altas Energias, • Bases Experimentais da Física de Altas Energias e • Computação em Física Experimental de Altas Energias.

Embora cada projeto tenha ênfase em um determinado aspecto da Física de

Altas Energias, é claro que para um estudante de iniciação é importante ter uma formação geral. Desta forma, os planos de trabalho de cada projeto e sua execução são bastante similares, e idealmente serão executados em conjunto.

 

Page 129: Scientific Project (2008)

133

Fundamentos da Física Experimental de Altas Energias

Resumo O projeto visa fornecer ao estudante os conceitos básicos envolvidos na Física

de Altas Energias, com vistas a prepará-lo para o Doutorado Direto junto aos experimentos aos quais o SPRACE está associado (DZero do Fermilab e CMS do CERN).

Objetivos Este Projeto de Pesquisa tem por objetivo introduzir o estudante nos aspectos

teóricos dos conceitos fundamentais. Visamos complementar a formação acadêmica do estudante, fornecendo um conhecimento básico da pesquisa atual na área e possibilitando sua participação ativa nos experimentos DZero do Fermilab e CMS do CERN. Uma formação geral dos conceitos básicos é fundamental para atividades de análise.

Plano de trabalho Estão previstas reuniões semanais para discussão e apresentação de seminários

sobre os assuntos estudados. Os principais tópicos a serem tratados neste projeto de iniciação científica serão:

Leitura e discussão de textos selecionados • Leitura de nossa seleção de artigos de divulgação científica89. • Estudo do livro “The Charm of Strange Quarks: Mysteries and Revolutions

of Particle Physics”90, elaborado pelo Contemporary Physics Education Project91.

• Estudo das notas do curso de Introdução à Física de Altas Energias92, preparado pelo grupo do SPRACE.

• Leitura de artigos científicos das colaborações DZero e CMS. Cinemática de Partículas93

• Transformações de Lorentz, quadrivetores e álgebra tensorial. • Mecânica Relativística • Decaimento e colisão de partículas, seção de choque e espaço de fase.

Formalismo da Física de Altas Energias • Introdução à Teoria Campos.

89 Ver página dedicada à IC: http://www.sprace.org.br/Twiki/bin/view/Main/EstudantesIC 90 R. M. Barnett, H. Muehry e H. R. Quinn, “The Charm of Strange Quarks: Mysteries and

Revolutions of Particle Physics” (American Institute of Physics, 2002). 91 Contemporary Physics Education Project, http://www.cpepweb.org/ 92 “Introdução à Física de Altas Energias”, SPRACE, http://www.sprace.org.br/novaes/IntHEP/ 93 L. D. Landau e E. M. Lifshitz, “The Classical Theory of Fields”, Fourth Revised English Edition,

(Pergamon Press, 1975).

Page 130: Scientific Project (2008)

134

• Introdução a Teorias de Gauge.

Cronograma O cronograma previsto de execução é sintetizado na tabela abaixo:

Atividades 1º Trim. 2º Trim. 3º Trim. 4º Trim.

Leitura e discussão de textos

Cinemática de Partículas

Formalismo da Física de Altas Energias

Page 131: Scientific Project (2008)

135

Bases Experimentais da Física de Altas Energias

Resumo O projeto visa fornecer ao estudante as ferramentas e conceitos básicos

envolvidos na Física de Altas Energias, com vistas a prepará-lo para o Doutorado Direto junto aos experimentos aos quais o SPRACE está associado (DZero do Fermilab e CMS do CERN).

Objetivos Este Projeto de Pesquisa tem por objetivo introduzir o estudante nas técnicas

experimentais e conceitos fundamentais da Física de Altas Energias. Visamos complementar a formação acadêmica do estudante, fornecendo um conhecimento básico da pesquisa atual na área e possibilitando sua participação ativa nos experimentos DZero do Fermilab e CMS do CERN. Uma formação mais voltada para a parte dos detectores e o sistema de aquisição de dados permitirá ao aluno o envolvimento com serviços relacionados aos grupos de identificação de objetos, essenciais para qualquer análise física.

Plano de Trabalho Estão previstas reuniões semanais para discussão e apresentação de seminários

sobre os assuntos estudados. Os principais tópicos a serem tratados neste projeto de iniciação científica serão:

Leitura e discussão de textos selecionados • Leitura de nossa seleção de artigos de divulgação científica94. • Estudo do livro “The Charm of Strange Quarks: Mysteries and Revolutions

of Particle Physics”95, elaborado pelo Contemporary Physics Education Project96.

• Estudo das notas do curso de Introdução à Física de Altas Energias97, preparado pelo grupo do SPRACE.

• Leitura de artigos científicos das colaborações DZero e CMS. Detectores de Partículas98

• Detectores de partículas utilizados em anéis de colisão • Estudo do detector do Compact Muon Solenoid (CMS)99: infra-estrutura

do detector e o magneto, detector de tracking, calorímetros eletromagnéticos e hadrônicos, detectores frontais e sistema de múons

94 Ver página dedicada à IC: http://www.sprace.org.br/Twiki/bin/view/Main/EstudantesIC 95 R. M. Barnett, H. Muehry e H. R. Quinn, “The Charm of Strange Quarks: Mysteries and

Revolutions of Particle Physics” (American Institute of Physics, 2002). 96 Contemporary Physics Education Project, http://www.cpepweb.org/ 97 “Introdução à Física de Altas Energias”, SPRACE, http://www.sprace.org.br/novaes/IntHEP/ 98 G. F. Knoll, “Radiation Detection and Measurement”, Third Edition (John Wiley & Sons, 2000); R.

Frühwirth, M. Regler, R. K. Bock, H. Grote, D. Notz; W. R. Leo, “Techniques for Nuclear and Particle Physics Experiments”, Second Revised Edition, (Springer-Verlag, 1994).

Page 132: Scientific Project (2008)

136

Sistemas de Aquisição de dados100 • Sistema de Triggers • Estrutura computacional associada.

Cronograma O cronograma previsto de execução é sintetizado na tabela abaixo:

Atividades 1º Trim. 2º Trim. 3º Trim. 4º Trim.

Leitura de textos selecionados

Detectores de Partículas

Sistemas de Aquisição de dados

99 CMS Collaboration, The CMS detector at the CERN LHC, to be submitted for publication,

http://cmsdoc.cern.ch/cms/Publications/detpaper/draft9Nov.pdf. 100 “Data Analysis Techniques for High-Energy Physics”, Second Edition, (Cambridge University

Press, 2000).

Page 133: Scientific Project (2008)

137

Computação em Física Experimental de Altas Energias

Resumo O projeto visa fornecer ao estudante as ferramentas e conceitos básicos

envolvidos na Física de Altas Energias, com vistas a prepará-lo para o Doutorado Direto junto aos experimentos aos quais o SPRACE está associado (DZero do Fermilab e CMS do CERN).

Objetivos Este Projeto de Pesquisa tem por objetivo introduzir o estudante nas técnicas

computacionais da Física de Altas Energias. Visamos complementar a formação acadêmica do estudante, fornecendo um conhecimento básico da pesquisa atual na área e possibilitando sua participação ativa nos experimentos DZero do Fermilab e CMS do CERN. A formação voltada para as técnicas computacionais permitirá ao estudante se envolver em atividades cruciais ao nosso grupo, que presta serviços ligado a computação de alto desempenho para os experimentos que participamos.

Plano de Trabalho Estão previstas reuniões semanais para discussão e apresentação de seminários

sobre os assuntos estudados. Ao término deste programa de Iniciação Científica o aluno deverá estar preparado para iniciar um Doutorado Direto em Física de Altas Energias. Os principais tópicos a serem tratados neste projeto de iniciação científica serão:

Leitura e discussão de textos selecionados • Leitura de nossa seleção de artigos de divulgação científica101. • Estudo do livro “The Charm of Strange Quarks: Mysteries and Revolutions

of Particle Physics”102, elaborado pelo Contemporary Physics Education Project103

• Estudo das notas do curso de Introdução à Física de Altas Energias104, preparado pelo grupo do SPRACE.

• Leitura de artigos científicos das colaborações DZero e CMS. Linguagem de Programação

• Deverá ser estudada a linguagem C++ através do livro Accelerated C++: Practical Programming by Example105.

101 Ver página dedicada à IC: http://www.sprace.org.br/Twiki/bin/view/Main/EstudantesIC 102 R. M. Barnett, H. Muehry e H. R. Quinn, “The Charm of Strange Quarks: Mysteries and

Revolutions of Particle Physics” (American Institute of Physics, 2002). 103 Contemporary Physics Education Project, http://www.cpepweb.org/ 104 “Introdução à Física de Altas Energias”, SPRACE, http://www.sprace.org.br/novaes/IntHEP/ 105 Andrew Koenig, Barbara E. Moo, “Accelerated C++: Practical Programming by Example”

(Addison-Wesley, 2000).

Page 134: Scientific Project (2008)

138

Ferramentas Computacionais • O estudante deverá aprender a utilizar o ROOT106, framework orientado

ao objeto para análise de dados em Física de Altas Energias. Também deverá tomar contato com o framework de análise do CMS107.

Cronograma O cronograma previsto de execução é sintetizado na tabela abaixo:

Atividades 1º Trim. 2º Trim. 3º Trim. 4º Trim.

Leitura de textos selecionados

Linguagem de Programação

Ferramentas Computacionais

  

106 ROOT: An Object Oriented Data Analysis Framework, http://root.cern.ch/ 107 CMS Offline WorkBook, https://twiki.cern.ch/twiki/bin/view/CMS/WorkBook

Page 135: Scientific Project (2008)

139

  

Projetos de Pós‐Doutorado  Nosso grupo se prepara para ter um envolvimento significativo nas análises do

CMS. Em particular, estamos interessados em sinais de uma física além do modelo padrão. O Modelo Padrão das interações eletrofraca e forte tem descrito com grande sucesso a física de partículas elementares. Não deve ser, no entanto, encarado como a teoria final. O Modelo Padrão tem um grande número de parâmetros arbitrários, que indicam nossa ignorância na geração das massas e na estrutura de sabor. Também deixa de lado problemas cruciais da cosmologia como a geração da assimetria matéria-antimatéria e candidatos para matéria e energia escura, além de não incluir uma descrição da gravidade

Um aspecto fundamental do Modelo Padrão precisa ser elucidado: o mecanismo da quebra espontânea de simetria eletrofraca, responsável pela geração de massa dos férmions e bósons de gauge presentes no modelo. Em sua versão mínima, esse mecanismo prevê a existência de uma partícula escalar neutra, o bóson de Higgs. Um grande problema conceitual do modelo é o fato de que ao considerarmos o Modelo Padrão como uma teoria efetiva, o setor escalar do modelo apresenta problemas de instabilidade às correções radiativas: o surgimento de divergências quadráticas nas correções de massa do bóson de Higgs. Desta forma, para que a quebra de simetria ocorra na escala eletrofraca, é preciso um ajuste muito preciso de parâmetros do modelo na escala em que a nova física se faz presente. Para contornar esse problema o setor escalar deve ser protegido de correções quadráticas ou então a escala em que a nova física aparece deve ser próxima da escala eletrofraca. Nesse contexto aparecem as teorias supersimétricas e teorias envolvendo dimensões extras, entre outras. De qualquer forma esperamos indícios de uma nova física já na escala de 1 TeV, passível de ser descoberta no CMS.

Com vistas a formar um grupo sólido capaz de dar uma contribuição significativa à procura de física além do Modelo Padrão, apresentamos quatro propostas de trabalho em nível de Pós-doutorado:

• A Física de Quarks Pesados no CMS, • Busca por Supersimetria no CMS, • Busca por Dimensões Extras no CMS e • Busca por Dimensões Extras de Randall-Sundrun.

Esses tópicos cobrem um espectro bastante amplo da busca por uma nova física e também permitem o compartilhamento de ferramentas comuns de análise.

Page 136: Scientific Project (2008)

140

A Física de Quarks Pesados no CMS

Resumo A análise dos dados envolvendo a produção de quarks pesados oferece

excelentes indícios de existência de novas partículas e dinâmicas, as quais eventualmente não se mostram diretamente. Com esta linha de investigação pretendemos complementar a busca por indícios diretos de nova física, analisando particularmente mecanismos que possam dar origem à violação de CP e a decaimentos raros dos mésons B.

Objetivos A compreensão da estrutura de sabor dos quarks está presente em muitas

questões importantes da física de altas energias. Questões como a existência de apenas 3 gerações, a existência de uma hierarquia de massa extrema (massa do top mt ≈170 GeV), a origem da violação de CP e o entendimento da assimetria matéria e antimatéria no universo são alguns dos exemplos que podem ser citados.

O experimento CMS oferecerá uma oportunidade única para o estudo de violação de CP e decaimentos raros dos mésons B. Em uma escala de energia de centro de massa de √s = 14 TeV, a seção de choque para produção de pares de quarks b anti-b é da ordem de 500 μb no LHC. Isso significa que aproximadamente 1012 pares de quarks b anti-b serão produzidos na fase inicial de operação do LHC. Essa alta estatística aliada à qualidade da determinação dos vértices de decaimento dos mésons permitirá estudos precisos em violação de CP e a detecção de decaimentos raros dos mésons B. Com esses dados será possível fazer medidas mais precisas dos ângulos dos chamados triângulos de unitariedade da matriz CKM e procurar por sinais de física além do modelo padrão.

O CMS possui um extenso programa de física com mésons B. Nosso grupo deve concentrar as atividades de análise nos canais de decaimento com trocas de sabor em correntes neutras. No Modelo Padrão, trocas de sabor em correntes neutras são permitidas apenas em diagramas de loop. Esses processos podem, assim, ser utilizados para a busca indireta de física além do modelo padrão.

Plano de Trabalho O experimento CMS oferecerá excelentes condições para a observação dos

decaimentos do méson B em estados finais com léptons, visto que o CMS é um experimento otimizado para física de alto momento transversal, contando com um sistema de trigger dedicado a seleção de léptons e diléptons (ee, μμ, μe). Exemplos dessas possíveis observações no CMS são os canais de decaimento B μ+ μ-, B k* μ+ μ. Iremos concentrar nossos esforços na análise desses decaimentos.

O decaimento leptônico Bs μ+ μ- é um processo muito raro, decorrente da existência de correntes neutras com troca de sabor em diagramas de ordem superior. A razão de ramificação no Modelo Padrão é estimada108 como sendo da ordem de 3,5 x 10-9. Calcula-se a largura desse decaimento considerando-se que os efeitos de longa distância são pequenos quando comparados àqueles de curta distância. Incertezas na

108 A. Ali, Nucl. Phys. Proc. Suppl. 59, 86 (1997)

Page 137: Scientific Project (2008)

141

estimativa da razão de ramificação são reduzidas de 30% para 2% incluindo-se correções de QCD109. A análise do decaimento Bs μ+ μ- permite assim a realização de testes do Modelo Padrão com grande precisão. Resultados do experimento CDF apontam um limite superior BR(Bs μ+ μ-) ≈ 10-7 para esta razão de ramificação. Em várias extensões supersimétricas do modelo padrão, como modelos mínimos de supergravidade com valores de tanβ altos110, a razão de ramificação desse decaimento pode ser ampliada por um fator de até três ordens de grandeza. A determinação deste valor no CMS pode ser um importante indicativo da existência de nova física.

O decaimento Bd k* μ+ μ- também é um decaimento raro que ocorre via troca de sabor em correntes neutras no Modelo Padrão. Nesse processo o Bd decai através de diagramas de pingüim e box. Sua razão de ramificação é estimada em 11,9 ± 3,9 x 10-7 e o resultado combinado das medidas das colaborações Babar e Belle111 é 12,2 (+3.8/-3.2) x 10-7. Um conjunto de quantidades importantes pode ser medido com o decaimento Bd k* μ+ μ- para se efetuar testes do modelo padrão e buscar nova física. A distribuição de massa do dimúon, a razão de ramificação diferencial e a assimetria frente-verso são todos observáveis sensíveis a contribuição de física nova112. Particularmente, a medida da assimetria frente-verso permite a extração da razão de dois coeficientes de Wilson para os quais existem cálculos teóricos precisos, tanto no Modelo Padrão quanto em modelos supersimétricos.

O experimento CMS fornecerá, já em seus primeiros anos de funcionamento, uma enorme quantidade de dados a serem usados para a busca de física no setor dos mésons B. Os experimentos anteriores e as pesquisas iniciais realizadas pela colaboração CMS indicam a possibilidade de observação dos decaimentos acima mencionados com grande estatística.

De forma a tornar as medidas precisas e livres de desvios sistemáticos, as seguintes etapas deverão ser realizadas:

• Reconstrução e Seleção: Os critérios para a seleção dos eventos de sinal e para a rejeição dos eventos de ruído devem ser otimizados para que uma boa razão Sinal/Ruído seja obtida. O desempenho dessas análises pode também ser quantificado a partir do cálculo de suas eficiências.

• Subtração do Ruído: Uma estratégia para se obter as distribuições dos eventos de ruído deve ser estabelecida uma vez que a sua contribuição deverá ser subtraída das distribuições medidas.

• Efeitos Sistemáticos: Existem várias fontes de efeitos sistemáticos em uma análise desse tipo. Normalmente a reconstrução e seleção dos eventos devem levar em conta o fato de que as distribuições angulares e de massa não devem ser deformadas. Esse tipo de efeito normalmente pode acontecer, por exemplo, se um corte muito restrito no momento transversal dos múons é utilizado para rejeitar os eventos de ruído. O desempenho da identificação dos léptons também pode depender do momento das partículas. Tais efeitos normalmente são corrigidos ou compensados a partir de estudos de simulação de Monte Carlo e com o emprego de canais de calibração.

109 G. Buchalla e A.J. Buras, Nucl. Phys. B400, 225 (1993); G. Buchalla e A.J. Buras, Nucl. Phys.

B398, 285 (1993); G. Buchalla e A.J. Buras, Nucl. Phys. B548, 309 (1999). 110 H. Baer et al., JHEP 0207, 050 (2002); R. Arnowitt et al., Phys Lett. B538, 121 (2002). 111 W.-M. Yao et al, Journal of Physics, G33, 1 (2006). 112 G. Burdman, Phys. Rev. D57, 4254 (1998); A. Ali et al., Phys. Rev. D61, 074024 (2000).

Page 138: Scientific Project (2008)

142

Cronograma de Execução Estimamos uma duração total de 4 anos para a execução destes trabalhos, de

sua análise fenomenológica à publicação dos resultados da análise. Como membro da colaboração CMS também é exigido do bolsista participação em atividades de serviço para a colaboração. Nosso grupo realiza atividades de serviço referentes a computação de alto desempenho, além de atividades de validação de Monte Carlo no grupo de bósons de gauge e jatos. As diversas etapas do programa devem ser desenvolvidas aproximadamente de acordo com o seguinte planejamento:

Atividades 1o Ano 2o Ano 3o Ano 4o Ano

Estudos Fenomenológicos

Elaboração da Proposta

Geração de Eventos Simulados

Seleção dos Eventos

Reconstrução dos Eventos

Análise da Subtração do Ruído

Estudo dos Erros Sistemáticos

Redação de Notas Internas

Redação do Artigo

Serviços para a Colaboração

Page 139: Scientific Project (2008)

143

Busca por Supersimetria no CMS

Resumo O mecanismo responsável pela geração de massa aos férmions e bósons de

gauge presentes no modelo padrão prevê a existência de uma partícula escalar neutra, o bóson de Higgs. A existência de divergências quadráticas nas correções de massa do bóson de Higgs indica, no entanto, a necessidade de uma nova simetria que cancele essas divergências. Ao introduzirem uma nova simetria entre bósons e férmions, os modelos supersimétricos garantem naturalmente esse cancelamento. O CMS terá uma capacidade privilegiada de descobrir supersimetria se esta for realizada na escala de TeV.

Objetivos Supersimetria é uma simetria entre bósons e férmions que garante o

cancelamento das divergências quadráticas, uma vez que as contribuições fermiônicas aos diagramas de loop apresentam sinal oposto às contribuições bosônicas113. Se esta simetria fosse exata observaríamos novas partículas com os mesmos números quânticos e mesma massa das partículas conhecidas, diferindo apenas no spin. Como tais partículas não são observadas, supersimetria, se existente, deve ser quebrada.

A fim de que se mantenha o cancelamento das divergências quadráticas devemos considerar apenas termos soft de quebra de supersimetria. Como o mecanismo dessa quebra não é conhecido, o que se faz usualmente é parametrizá-la considerando todos os termos permitidos pelas simetrias do modelo, chegando ao chamado Modelo Supersimétrico Mínimo (MSSM). O MSSM em sua forma mais geral possui mais de 100 novos parâmetros, tornando-o pouco atraente para um estudo sistemático. O que se faz, em geral, é postular que a supersimetria é quebrada em um setor escondido e comunicada ao setor conhecido, sendo essa quebra parametrizada pelos termos soft de quebra de supersimetria. O mecanismo com que a quebra de supersimetria é comunicada ao setor do MSSM determina certas características para os parâmetros soft.

Existem vários cenários para modelos supersimétricos que permitem a vinculação dos parâmetros do MSSM, tornando-o mais acessível a um estudo experimental. Em especial nosso grupo irá se concentrar em cenários de supergravidade e de modelos em que a quebra de supersimetria é comunicada ao modelo padrão via interações de gauge.

Plano de Trabalho Até o presente momento, nenhum indício direto de supersimetria foi encontrado

experimentalmente. No entanto, a ausência desses indícios experimentais fornece vários vínculos para os termos soft de quebra de supersimetria. Em particular, no MSSM, em sua forma mais geral, termos soft de massa para os squarks com misturas arbitrárias entre as gerações levariam a processos com troca de sabor em correntes neutras (FCNC) e novos termos de violação de CP que não são observados experimentalmente. Os

113 J. Wess e J. Bagger, Supersymmetry and Supergravity (Princeton University Press, USA,

1983); Stephen P. Martin A Supersymmetry Primer [arXiv:hep-ph/9709356].

Page 140: Scientific Project (2008)

144

cenários de supersimetria mais estudados procuram resolver essas questões e fornecem vínculos aos parâmetros do MSSM permitindo um estudo mais sistemático.

Supergravidade Em teorias de supergravidade mínima (mSUGRA) assume-se que a quebra de

supersimetria é comunicada ao setor eletrofraco através da interação gravitacional. Entre os sucessos desse tipo de modelo destacam-se a unificação das constantes de acoplamento de gauge quando incorporamos partículas supersimétricas com massas da ordem de TeV e o fato de que, graças ao alto valor da massa do quark top, o parâmetro de massa do bóson de Higgs evolui para um valor negativo, possibilitando a quebra da simetria eletrofraca, mecanismo chamado de quebra radiativa da simetria eletrofraca. No caso de conservação da paridade R a partícula supersimétrica mais leve é estável sendo um bom candidato a matéria escura e levando a um sinal com energia faltando no CMS.

Vários estudos vêm sendo feitos para diferentes sinais. Sinais inclusivos de jatos + ET missing terão um alcance da ordem de m1/2 = 800 GeV já para uma luminosidade de 10 fb-1. Alguns sinais são de particular interesse para nosso grupo:

• Dois léptons com mesma carga: Sinal que estamos estudando no Experimento DZero. Esse é um canal bastante limpo e de fácil reconstrução.

• Sinais com quarks b no estado final: Existem motivações teóricas que favorecem modelos que levam a esse tipo de sinal cuja fenomenologia vem sendo estudada por colaboradores de nosso grupo, principalmente os chamados modelos de Focus Point114. Além disso, como a física de quarks b é motivo de interesse de nosso grupo, torna-se possível o compartilhamento das ferramentas utilizadas para a identificação de jatos provenientes do quark b.

Gauge Mediated Models Um dos pontos em que se encontram objeções a modelos de mSUGRA é o fato

de que, para suprimir termos de FCNC, é exigido um único termo de massa m0 para todos os escalares. Essa não é uma conseqüência natural do modelo e sim uma exigência ad hoc, daí o termo mínimo para mSUGRA. Modelos em que a quebra de supersimetria é comunicada através de interações de gauge115, GMSB, foram elaborados de forma que os efeitos da corrente neutra com troca de sabor (FCNC) sejam pequenos. Nesses modelos, a informação da quebra de supersimetria é comunicada ao setor eletrofraco via interações de gauge. Assim, parceiros escalares de léptons e quarks com os mesmos números quânticos adquirem a mesma massa, suprimindo termos de FCNC.

A principal característica dessa classe de modelos é que o parceiro supersimétrico do gráviton, o gravitino, é a partícula supersimétrica mais leve. A razão de decaimento das partículas supersimétricas em gravitinos é baixa levando a um sinal em que são produzidas pares da segunda mais leve partícula supersimétrica. A natureza destas partículas vai determinar os sinais experimentais.

• Sinal com dois fótons. Em grande parte do espaço de parâmetros, a segunda partícula supersimétrica mais leve é o parceiro supersimétrico do fóton, que vai decair em fóton + gravitino, levando a um sinal com

114 J. Feng, K. Matchev e T. Moroi, Phys. Rev. Lett. 84, 2322 (2000), P. G. Mercadante, J. K.

Mizukoshi e X. Tata, Phys. Rev. D 72, 035009 (2005). 115 M. Dine, A. Nelson, Y. Nir e Y. Shirman, Phys. ReV. D 53, 2658 (1998).

Page 141: Scientific Project (2008)

145

dois fótons no estado final. Os grupos experimentais da Florida State University e Florida International University, com os quais nosso grupo mantém contato, têm bastante interesse em sinais com fótons de forma que uma colaboração é bastante provável nesta área.

Cronograma de Execução Estimamos uma duração total de 4 anos para a execução destes trabalhos, de

sua análise fenomenológica à publicação dos resultados da análise. Como membro da colaboração CMS também é exigido do bolsista participação em atividades de serviço para a colaboração. Nosso grupo realiza atividades de serviço referentes a computação de alto desempenho, além de atividades de validação de Monte Carlo no grupo de bósons de gauge e jatos. As diversas etapas do programa devem ser desenvolvidas aproximadamente de acordo com o seguinte planejamento:

Atividades 1o Ano 2o Ano 3o Ano 4o Ano

Estudos Fenomenológicos

Elaboração da Proposta

Geração de Eventos Simulados

Seleção dos Eventos

Reconstrução dos Eventos

Análise da Subtração do Ruído

Estudo dos Erros Sistemáticos

Redação de Notas Internas

Redação do Artigo

Serviços para a Colaboração

Page 142: Scientific Project (2008)

146

Busca por Dimensões Extras no CMS

Resumo Teorias com dimensões extras116 -- além das três espaciais e do tempo -- existem

na literatura desde a tentativa pioneira de Kaluza e Klein de unificar o eletromagnetismo com a gravidade no começo do século XX. Recentemente começou a ser explorada a possibilidade de que dimensões extras pudessem ser observados a distâncias comparadas à escala de TeV. Nosso grupo tem interesse em explorar alguns cenários específicos em que dimensões extras possam ser exploradas no CMS.

Objetivos Muitos modelos recentes em fenomenologia de partículas exploram a

possibilidade de efeitos de dimensões extras poderem ser observados na escala de TeV. Essa possibilidade é particularmente atraente por endereçar o problema da grande hierarquia de massa existente entre a escala de Planck, tradicionalmente associada à gravidade, e a escala eletrofraca. Se esse cenário é realizado na natureza seus efeitos serão observados no LHC, isso abrirá uma oportunidade única de se testar a natureza do espaço tempo. Entre os possíveis modelos existentes, temos trabalhado com dimensões extras universais no experimento DZero do Tevatron e iremos aprofundar esse estudo no CMS. Existe também interesse de nosso grupo em participar de análise em modelos com grandes dimensões extras.

Plano de Trabalho Modelos de Grandes Dimensões Extras Nessa classe de modelos, também conhecidos como ADD (dos autores Arkani-

Hamed, Dimopoulos e Dvali), os campos do Modelo Padrão estão confinados nas branas117. Apenas a gravidade se propaga nas dimensões extras. Como a gravidade se propaga em mais dimensões há uma diluição do campo gravitacional, o pequeno valor da constante de Newton pode ser explicado não por uma grande escala de massa, mas pelo tamanho das dimensões extras. Pode-se então assumir que existe uma única escala de energia fundamental, a escala de TeV. O problema da hierarquia das escalas de massa passa a ser traduzido agora em se explicar por que a escala de compactificação das dimensões extras é grande.

Uma vez que só a gravidade pode se propagar pelas dimensões extras, podemos nos perguntar como seria possível testar esse tipo de modelo no LHC. Embora o acoplamento do gráviton seja extremamente fraco, existem (ERc)δ modos de Kaluza Klein que são cinematicamente acessíveis em um acelerador de energia E. Para E=1 TeV e δ=2 são 1030 estados de Kaluza Klein sendo trocados. É a soma desses estados que dará uma contribuição observável em basicamente dois tipos de sinal: missing ET, quando os modos de Kaluza Klein são produzidos e escapam detecção, ou via troca virtual em processos do modelo padrão. Em especial temos interesse nos sinais:

116 Para uma revisão ver: J. L. Hewett e M. Spiropulu,”Particle physics probes of extra spacetime

dimensions”, Ann. Rev. Nucl. Part. Sci. 52, 397 (2002) [arXiv:hep-ph/0205106]. 117 N. Arkani-Hamed, S. Dimopoulos e G. R. Dvali, Phys. Lett. B429, 263 (1998); N. Arkani-

Hamed, S. Dimopoulos e G. R. Dvali, Phys. Rev. D 59, 086004 (1999).

Page 143: Scientific Project (2008)

147

• Sinal de fóton + missing ET: Esse sinal ocorre com a emissão de grávitons via bremsstrahlung. As características principais são a presença de um único fóton de alto pT na região central e missing ET em oposição ao fóton no plano azimutal, com um pT similar ao do fóton. Devemos ter especial atenção a backgrounds instrumentais em que um jato, por exemplo, pode mimetizar um fóton. Os grupos experimentais da Florida State University e Florida International University, com os quais nosso grupo mantém contato, têm bastante interesse em sinais com fótons de forma que uma colaboração é bastante provável nesta área.

• Sinal de 2 múons: A existência de grandes dimensões extras também pode ser estudada via a troca virtual de grávitons em processos 2 → 2, o que levaria a desvios da seção de choque total e assimetrias em relação ao Modelo Padrão, semelhante ao sinal esperado em teorias de modelos compostos. Note que o efeito que se observará é a troca de inúmeros estados de Kaluza Klein, não levando a observação de ressonâncias. O canal de dois múons será um importante canal para esse tipo de reação. Nosso grupo já conta com experiência em sinais envolvendo múons no DZero e tem interesse nesse tipo de sinal no CMS também em outros cenários, como supersimetria e dimensões extras universais.

Modelos de Dimensões Extras Universais Em modelos de Dimensões Extras Universais (UED), todas as partículas do Modelo

Padrão podem se propagar nas dimensões extras, criando estados excitados (torres de Kaluza Klein) para todas as partículas118. O modelo mais simples prevê estados pesados para todas as partículas, com um espectro de massa degenerado, a degenerescência é quebrada por correções radiativas. A conservação de momento nas dimensões extras leva à conservação de uma quantidade multiplicativa, chamada paridade KK. A conservação dessa paridade faz com que todas as partículas excitadas decaiam na partícula excitada mais leve, que é estável. Semelhantemente a supersimetria tem-se um candidato a matéria escura. A fenomenologia é bastante similar a supersimetria, existem parceiros excitados pesados para cada partícula do modelo padrão e o decaimento final leva a uma partícula neutra estável que escapa a detecção.

O modelo mais popular de UED é o modelo mínimo, com apenas uma dimensão extra. O modelo mínimo pode ser determinado apenas pelos parâmetros R e λ, sendo R a escala de compactação e λ a escala de energia a partir da qual o modelo não é mais válido. Tipicamente R fornece a escala de massa dos estados excitados e λ está ligado à diferença de massa entre os estados excitados. A fenomenologia do modelo e seus sinais experimentais serão ditados pelo espectro de massa dos estados KK. Em primeira ordem, a massa dos estados KK para o enésimo modo será dada por mn2 = n2 / R2 + m02 sendo R a escala de compactação e m0 a massa da partícula correspondente no Modelo Padrão. A degenerescência das massas dos estados KK é quebrada pelas correções de 1-loop, que estabelecem um ordenamento nas massas dos estados excitados. O primeiro estado excitado mais pesado é o do glúon, seguido pelos quarks, bósons W, léptons e fóton, respectivamente.

Nos modelos de UED, como os acoplamentos dos estados excitados são semelhantes aos acoplamentos do Modelo Padrão, espera-se uma grande produção de pares de quarks excitados (Q1) no LHC. Após a cadeia de decaimento dos pares Ql,

118 T. Appelquist, H. -C. Cheng e B. A. Dobrescu, Phys. Rev. D 64, 035002 (2001); H.C. Cheng,

K.T. Matchev e M. Schmaltz, Phys. Rev. D 66, 056006 (2002).

Page 144: Scientific Project (2008)

148

haveria o sinal inclusivo de missing ET acompanhado de jatos. No entanto, as massas dos estados excitados são quase degeneradas de forma que o produto do decaimento não é muito energético, resultando em dificuldades adicionais na análise. Devemos estudar sinais envolvendo léptons no estado final.

• Sinal com dois léptons de mesma carga: No Tevatron notamos que sinais com dois léptons de mesma carga são mais promissores do que o sinal de trilépton ou mesmo quatro léptons. Isso graças ao fato do espectro de massa ser degenerado o que leva a produção de partículas de baixo pT, dificultando a identificação. Notamos que esse tipo de sinal também ocorre em modelos supersimétricos aos quais também temos interesse em estudar.

• Sinal com quatro léptons: É considerado o sinal de ouro no LHC graças ao seu pequeno background. No entanto o produto de decaimento dos sinais de UED tem baixo pT, deve se prestar especial atenção à reconstrução de léptons com baixo pT de forma a não perder o sinal.

Cronograma de Execução Estimamos uma duração total de 4 anos para a execução destes trabalhos, de

sua análise fenomenológica à publicação dos resultados da análise. Como membro da colaboração CMS também é exigido do bolsista participação em atividades de serviço para a colaboração. Nosso grupo realiza atividades de serviço referentes a computação de alto desempenho, além de atividades de validação de Monte Carlo no grupo de bósons de gauge e jatos. As diversas etapas do programa devem ser desenvolvidas aproximadamente de acordo com o seguinte planejamento:

Atividades 1o Ano 2o Ano 3o Ano 4o Ano

Estudos Fenomenológicos

Elaboração da Proposta

Geração de Eventos Simulados

Seleção dos Eventos

Reconstrução dos Eventos

Análise da Subtração do Ruído

Estudo dos Erros Sistemáticos

Redação de Notas Internas

Redação do Artigo

Serviços para a Colaboração

Page 145: Scientific Project (2008)

149

Busca por Dimensões Extras de Randall-Sundrun Resumo Um dos modelos mais estudados de Dimensões Extras é o formulado por Randall

e Sundrum. Um dos estudantes de doutorado de nosso grupo iniciou o estudo preliminar deste modelo no CMS e deverá continuá-lo após a conclusão de seu doutoramento, analisando os dados a serem coletados pelo CMS.

Objetivos Teorias com dimensões extras -- além das três espaciais e do tempo -- existem na

literatura desde a tentativa pioneira de Kaluza e Klein de unificar o eletromagnetismo com a gravidade no começo do século XX. Atualmente, teorias de supercordas requerem a existência dessas dimensões. Acreditava-se que essas dimensões estariam compactadas em uma escala muito pequena, sendo irrelevante para a fenomenologia na escala de energia que os aceleradores são capazes de explorar.

No entanto, surgiram recentemente alguns modelos de dimensões extras com o objetivo de tratar o problema da hierarquia de escalas da Física de Partículas Elementares. Se esse cenário é realizado na natureza seus efeitos serão observados no LHC, isso abrirá uma oportunidade única de se testar a natureza do espaço tempo. Um dos cenários mais interessantes de física com dimensões extras são os modelos de Randall e Sundrun. Nosso grupo vem estudando esse tipo de modelo no CMS.

Plano de Trabalho Nos modelos de Randall-Sundrun119 a hierarquia entre a escala de Planck e a

escala eletrofraca é gerada por uma grande curvatura das dimensões extras. O modelo mais simples, também chamado de RSI, consiste em apenas uma dimensão extra aonde a gravidade pode se propagar. A geometria é de um espaço de 5 dimensões anti-de Sitter (AdS5), onde 2 branas tridimensionais de tensões opostas estão localizadas nas fronteiras do espaço. A geometria do espaço induz, graças a uma supressão exponencial, uma escala efetiva da ordem de TeV em uma das branas, chamada de brana TeV, enquanto a outra brana permanece na escala de Planck. Os campos do Modelo Padrão estão confinados a brana tri-dimensional, conhecida como a brana de TeV, só os grávitons podem se propagar na dimensão extra. A hierarquia de escala é gerada sem a necessidade de um ajuste fino, graças a esta supressão exponencial. Nota-se que a escala de compactação é pequena, este não é um modelo com grandes dimensões extras.

Uma vez que o Modelo Padrão está confinado na brana de TeV, assim como em modelos de grandes dimensões extras a fenomenologia se manifesta nos efeitos dos modos de Kaluza Klein do gráviton. Ao contrário de modelos com grandes dimensões extras, os modos de Kaluza Klein têm massas da ordem de TeV e os acoplamentos também são suprimidos apenas pela escala de TeV, de forma que podem ser produzidos no LHC. Os sinais característicos serão sinais de partículas ressonantes da ordem de TeV decaindo em pares de léptons, jatos ou bósons de gauge120. Nosso grupo está interessado em sinais com a produção de pares de fótons, pares de Z e pares de léptons.

119 L. Randall e R. Sundrum, Phys. Rev. Lett. 83 3370 (1999); L. Randall and R. Sundrum, Phys.

Rev. Lett. 83, 4690 (1999). 120 CMS Physics Technical Design Report Volume II: Physics Performance;

http://doc.cern.ch//archive/electronic/cern/preprints/lhcc/public/lhcc-2006-021.pdf

Page 146: Scientific Project (2008)

150

• Sinal com dois fótons: é um sinal particularmente importante, sua presença em conjunto com um sinal no canal de di-léptons irá sinalizar a produção de um gráviton de Randall-Sundrun, distinguido da produção de um Z´. Nosso grupo tem um especial interesse no canal de fótons em vários cenários de uma física além do Modelo Padrão, podendo levar a uma colaboração efetiva com os grupos experimentais da Florida State University e Florida International University, que têm bastante interesse nesse tipo de sinal.

• Sinal com dois léptons: os principais backgrounds irredutíveis são devidos ao processo de Drell-Yan, produção de pares de bósons de gauge e produção de pares de top. É necessário um estudo bastante detalhado dos processos do Modelo Padrão envolvendo a produção de bósons de gauge.

• Sinal em dois Z: Esse sinal em especial levará a produção múltipla de léptons e jatos além de missing ET no caso do decaimento do Z em neutrinos. É essencial um entendimento detalhado da produção de pares de bósons de gauge associados a jatos. Em especial estamos estudando a produção de bósons de gauge associados a jatos para a colaboração a fim de que sejam comparados e validados os diferentes geradores de eventos de Monte Carlo: ALPGEN121, SHERPA122, MADGRAPH123 e outros. Esse tipo de estudo é fundamental para vários sinais de uma física nova que envolve canais com muitos léptons, jatos e grande missing ET.

Cronograma de Execução Estimamos uma duração total de 3 anos para a execução destes trabalhos, pois

ele deverá ser a continuação do trabalho preliminar realizado pelo estudante de doutorado de nosso grupo. Como membro da colaboração CMS também é exigido do bolsista participação em atividades de serviço para a colaboração. Nosso grupo realiza atividades de serviço referentes a computação de alto desempenho, além de atividades de validação de Monte Carlo no grupo de bósons de gauge e jatos. As diversas etapas do programa devem ser desenvolvidas aproximadamente de acordo com o seguinte planejamento:

Atividades 1o Ano 2o Ano 3o Ano 4o Ano

Proposta / Fenomenológia

Geração e Seleção de Eventos

Reconstrução dos Eventos

Análise da Subtração do Ruído

Estudo dos Erros Sistemáticos

Redação de Notas Internas

Redação do Artigo

Serviços para a Colaboração

121 http://mlm.home.cern.ch/mlm/alpgen/ 122 http://www.sherpa-mc.de/ 123 http://madgraph.hep.uiuc.edu/index.html

Page 147: Scientific Project (2008)

151

 Projetos de Treinamento Técnico 

As atividades descritas nos planos de trabalho que são apresentados a seguir

são fundamentais para o bom funcionamento do SPRACE. A complexidade e a alta responsabilidade envolvidas nestas atividades requerem a presença durante todo o período do projeto de dois bolsistas com dedicação de 40 horas semanais. Como o projeto temático tem duração de 48 meses, será necessária a contratação de quatro bolsistas, dois para os primeiros 24 meses e outros dois para os últimos 24 meses do projeto. Desta forma, pretendemos manter por todo o período do projeto um Bolsista TT-5 e um TT-3 com as seguintes características:

• Treinamento Técnico Nível 5 (TT-5): candidato com pelo menos 5 anos de

experiência em TI ou com título de doutorado, e uma dedicação de 40 horas semanais.

• Treinamento Técnico Nível 3 (TT-3): candidato graduado em nível superior e uma dedicação de 40 horas semanais.

O bolsista TT-5 será responsável pelo projeto intitulado “Administração dos

Sistemas de Processamento e de Armazenamento”, enquanto o bolsista TT-3 será responsável pelo projeto intitulado “Administração de Rede e de Infra-Estrutura Computacional”, apresentados a seguir.

Page 148: Scientific Project (2008)

152

Administração dos Sistemas de Processamento e de Armazenamento

Resumo O SPRACE é um centro regional de análise dos dados das colaborações DZero

do Fermilab e CMS do CERN, membro do OSG. Este plano de trabalho tem por objetivo capacitar o bolsista para a realização das atividades relativas à configuração, manutenção, monitoramento e gerenciamento dos sistemas de processamento e de armazenamento de dados do SPRACE.

Objetivos Os experimentos que serão realizados no LHC do CERN a partir de 2008 irão

acumular centenas de Petabytes de dados em poucos anos, que precisarão ser analisados pela comunidade mundial de pesquisadores da área. Como um centro regional de análise dos dados das colaborações DZero do Fermilab e CMS do CERN, o SPRACE passou a fazer parte do Open Science Grid (OSG), iniciativa americana de processamento distribuído que apóia a computação científica através da colaboração entre pesquisadores, desenvolvedores de software e engenheiros de rede.

O OSG pode ser definido como um sistema que coordena recursos computacionais sem a utilização de um sistema central de gerenciamento, no qual o sistema combinado é significativamente maior que suas partes. Dentre as camadas de funcionalidades do Grid do OSG destacamos a Camada de Recursos, responsável pelo Armazenamento e Processamento de Dados e pelos Sistemas de Monitoração de um cluster pertencente Grid.

O objetivo deste plano é capacitar o bolsista para a realização das atividades relativas à configuração, manutenção, monitoramento e gerenciamento dos sistemas de processamento e de armazenamento de dados do SPRACE.

Plano de Trabalho Descrição O sistema de processamento de dados do SPRACE consiste de um conjunto de

servidores em cluster e diversas camadas de software (o middleware do Grid) que gerenciam o trabalho de processamento. O servidor principal (gatekeeper) recebe os pedidos de trabalho (os jobs) e os entrega aos nós de trabalho. Este servidor realiza a interface entre o Grid e o sistema de gerenciamento e distribuição de trabalhos local (software denominado Condor). Já o sistema de armazenamento de dados é formado por dispositivos de armazenamento (discos magnéticos) e servidores de gerenciamento que provêm uma interface padronizada de acesso aos dados, de modo que a infra-estrutura interna seja totalmente transparente aos usuários do Grid.

Metodologia O gerenciamento do sistema de processamento do SPRACE envolve o

aprendizado, o monitoramento constante e a manutenção dos seguintes componentes:

Page 149: Scientific Project (2008)

153

• Middleware do Grid: Conjunto de serviços utilizados pelo OSG. • Condor: Sistema de fila e distribuição de jobs recebidos pelo Globus. • GUMS: Serviço de autenticação e mapeamento local das organizações

virtuais. • Serviços locais: Manutenção do NFS, NIS, NAT, IPTABLES, etc. • Sistema Operacional: Atualização e manutenção dos SO dos servidores.

A administração do sistema de armazenamento envolve as atividades referentes ao aprendizado, monitoramento e atualização dos elementos responsáveis pelo armazenamento dos dados. Esses elementos são:

• pNFS: Sistema de arquivo em recursos de armazenamento fisicamente distribuídos.

• dCache: Sistema de catálogo de arquivos distribuído. • SRM: Interface entre o Grid e o dCache local ao cluster. • PhEDEx: Catalogação e movimentação dos dados globalmente

distribuídos. • Recursos Locais: DAS, SAN e RAIDs.

Cronograma O cronograma previsto de execução é sintetizado na tabela abaixo:

Atividades 1º Sem. 2º Sem. 3º Smm. 4º Sem.

Aprendizado do middleware, do sistema de fila de jobs e do sistema de armazenamento

Monitoramento e manutenção dos sistemas

Realização de atualizações dos sistemas

Page 150: Scientific Project (2008)

154

Administração de Rede e de Infra-Estrutura Computacional

Resumo O SPRACE é um centro regional de análise dos dados das colaborações DZero

do Fermilab e CMS do CERN, membro do OSG. Este plano de trabalho tem por objetivo capacitar o bolsista para a realização das atividades relativas à configuração, manutenção, monitoramento e gerenciamento da rede e ao planejamento e manutenção de infra-estrutura computacional do SPRACE.

Objetivos Os experimentos que serão realizados no LHC do CERN a partir de 2008 irão

acumular centenas de Petabytes de dados em poucos anos, que precisarão ser analisados pela comunidade mundial de pesquisadores da área. Como um centro regional de análise dos dados das colaborações DZero do Fermilab e CMS do CERN, o SPRACE passou a fazer parte do Open Science Grid (OSG), iniciativa americana de processamento distribuído que apóia a computação científica através da colaboração entre pesquisadores, desenvolvedores de software e engenheiros de rede.

O OSG pode ser definido como um sistema que coordena recursos computacionais sem a utilização de um sistema central de gerenciamento, no qual o sistema combinado é significativamente maior que suas partes. Dentre as camadas de funcionalidades do Grid do OSG destacamos a Camada de Infra-Estrutura de Rede, composta por switches, roteadores e equipamentos de transmissão dos dados.

O objetivo deste plano é capacitar o bolsista para a realização das atividades relativas à configuração, manutenção, monitoramento e gerenciamento da rede e ao planejamento e manutenção de infra-estrutura computacional do SPRACE.

Plano de Trabalho Descrição O sistema de rede do SPRACE conta com equipamentos responsáveis pelo

chaveamento e roteamento de todo o tráfego de dados (interno, externo) do SPRACE. A infra-estrutura de hardware consiste atualmente de 90 servidores ligados em cluster.

As atividades de manutenção podem ser resumidas como as tarefas diárias necessárias para manter todo o sistema (infra-estrutura de rede e servidores) em plena operação, tentando minimizar ao máximo o downtime no caso de falha no hardware.

Metodologia A administração do sistema de redes envolve as atividades referentes ao

aprendizado, monitoramento e atualização dos elementos de rede, e ao ajuste dos parâmetros de controle dos protocolos de transmissão de dados. Esses elementos são:

• Switches: elementos de camada 2 que agregam o tráfego do conjunto de nós de processamento de cada rack de servidores que compõe o cluster.

Page 151: Scientific Project (2008)

155

• Switch/Router: elemento de camadas 2 e 3 que agrega o tráfego do conjunto de racks e realiza o roteamento entre as diversas redes às quais o SPRACE está ligado.

O contato com o Núcleo de Apoio à Rede Acadêmica (NARA), para solução de problemas de conexão entre o SPRACE e o NAP do Brasil em Barueri, também faz parte das responsabilidades do bolsista.

A manutenção do hardware engloba todas as ações necessárias para manter os sistemas computacionais em funcionamento:

• Atuar nos servidores em caso de falha. • Realizar consertos ou contatar a assistência técnica. • Monitorar e manter a temperatura ambiente interna ao datacenter na

faixa considerada adequada. • Inspecionar constantemente os sistemas de monitoração do harware. • Adquirir partes e peças. • Manter-se atualizado, através de contato constante com fornecedores

de TI. Cronograma O cronograma previsto de execução é sintetizado na tabela abaixo:

Atividades 1º Sem. 2º Sem. 3º Sem. 4º Sem.

Aprendizado da operação dos equipamentos do SPRACE

Monitoramento e manutenção dos equipamentos de rede e infra-estrutra

Projeto de upgrade dos equipamentos de rede e infra-estrutra