CloudNEXT: Testbed para experimentação em Computação em … · 2019. 5. 2. · criação...

Preview:

Citation preview

Atualmente a infraestrutura computacional para a pesquisaem Computação têm se baseado fortemente em máquinasvirtuais e em contêineres (e.g., Docker), que podem serprovidas tanto por nuvens computacionais acadêmicas (e.g.,Compute@RNP) como por nuvens pública (e.g., AmazonAWS) ou mesmo por servidores próprios das universidades/centros de pesquisa.

Esta estratégia tem sido adotada pelos diversos testbedsvoltados à pesquisa experimental em redes e sistemasdistribuídos, que ofertam estes e outros recursosvirtualizados (e.g, switches e roteadores virtuais) para seusrespectivos usuários/pesquisadores. Nestes ambientes osrecursos físicos e a orquestração/virtualização dos mesmosfica disponível apenas aos administradores do testbed(Figura 1).

Figura 1: Estrutura de Testbeds Experimentais.

Tal abordagem atende uma parcela significativa de usuários.Porém, algumas pesquisas demandam acesso direto ahardwares: são situações onde o próprio hardware ou a infraestrutura de virtualização são investigados, ou então quandoa virtualização em si interfere no resultado da pesquisa. Talsituação frequentemente ocorre em alguns tipos depesquisa, tais como:

• Pesquisas em computação em nuvem, onde énecessário trabalhar nos próprios mecanismos devirtualização e orquestração de recursos físicos, quegeralmente devem ter controle total sobre osrecursos físicos, impedindo o compartilhamentosimultâneo do hardware entre os experimentadores.

• Pesquisas envolvendo arquiteturas de hardware,onde é necessário o acesso direto ao hardware poruma questão de precisão de medidas e/ou pelanecessidade de acesso a funcionalidades que normalmente não são disponibilizadas pela camada devirtualização.

Para estas situações é necessário um testbed que ofereçaaos pesquisadores máquinas físicas de dedicadas (a.k.a. baremetal), bem como mecanismos que facilitem a alocação egerenciamento destes nós em baremetal, incluindo aalocação de ambientes de nuvem customizados.

CloudNEXT

O CloudNEXT (Cloud ComputiNg Experimental Testbed)é um ambiente experimental que oferece aospesquisadores a alocação de servidores baremetal,permitindo o acesso direto ao hardware computacional, como objetivo de atender situações semelhantes às descritasanteriomente.

Seus recursos estão distribuídos em 2 localidades, em SãoPaulo (datacenter da Universidade de São Paulo) e em Recife(Centro de Dados Compartilhados da RNP), com uma latênciaaproximada de 50ms entre si.

Figura 2: Localização dos Clusters do Projeto.

CloudNEXT: Testbed para experimentação em Computação em Nuvem e em Baremetal

EQUIPE

Coordenador Geral:

Profa. Tereza Cristina Melo de Brito Carvalho (USP)

Coordenador Técnico

Fernando Frota Redigolo (USP)

PARCEIROS

Laboratório de Arquitetura e Redes de Computadores-USP (LARC-USP)

Laboratório de Sustentabilidade-USP (LASSU-USP)

Universidade Federal de Campina Grande (UFCG)

SITE

http://cloudlab-brasil.rnp.br

CONTATO

cloudnext-info@larc.usp.br

DESCRIÇÃO

InfraestruturaFísica

Orquestração daInfraestrutura

Recursos Experimentais(Virtuais)

~ 50ms

Arquitetura Geral do Testbed

A Figura 3 ilustra a arquitetura geral do testbed. Na nuvemda RNP (Compute@RNP) encontram-se os servidores decontrole do testbed, incluindo o portal web de interação comos usuário, sistemas de autenticação e de federação. A redede controle central é interligada a cada uma das localidadesdo testbed (denominadas Ilhas) por meio de túneis IPSecentre o roteador virtual da nuvem e os respectivos firewalls.

Cada Ilha conta com um servidor de controle dos recursoslocais, que gerencia o provisionamento, liberação econfiguração dos respectivos recursos experimentais.Dependendo da especificação do experimentador, IPspúblicos podem ser atribuídos a um dado servidor doexperimento.

Recursos Computacionais

A Tabela 1 lista os recursos computacionais disponíveis aosexperimentadores em cada uma das Ilhas do testbed.

Tabela 1: Recursos Computacionais para Experimentação.

Arcabouço de Controle

O testbed utiliza como arcabouço de controle o OMF6, omesmo utilizado no testbed FIBRE. Desta maneira, a formade interação é semelhante, com um portal web para acriação de experimentos (slices), reserva de recursos e para asubmissão de experimentos especificados por meio dalinguagem descritiva OEDL. Tal abordagem não só facilita autilização do ambiente para os usuários existentes do FIBRE,como permitirá uma integração maior dos testbeds.

O OMF6 tem sido estendido para suportar as funcionalidadesdo testbed, tais como para a integração com o sistema deprovisionamento de nós baremetal OpenStack Ironic e para aintegração futura com o sistema Kolla-Ansible, visando acriação automatizada de nuvens Openstack paraos experimentadores.

CloudNEXT e CloudLab-BR

O CloudNEXT faz parte do projeto Cloudlab-BR, emdesenvolvimento pela RNP, cujo objetivo principal é proveruma infraestrutura de computação em nuvemfederada para pesquisa, que permita explorar novasarquiteturas, plataformas e aplicações de computação emnuvem. Além do CloudNEXT, faz parte do projeto o Iguassu,que consiste em um serviço de computação de alta vazãopara suporte a atividades de e-ciência, executado sobre umafederação de nuvens. Caso haja recursos do CloudNEXT nãoutilizados, eles poderão ser alocados pelo Iguassu como o processamento científico, maximizando a utilização do testbed.

O projeto Cloudlab-BR é financiado pela FINEP via Contrato/Convênio 01.17.0004.00.

Figura 3: Visão Geral do Testbed

Internet

Rede Controle Central

Rede Controle recursos

Rede Pública

Virtual Router - Nuvem

Redes ExperimentaisIlhaRecife

Rede Controle recursos

Rede Pública

Firewall CloudNEXT

Redes ExperimentaisIlha São Paulo

Compute@RNP

Firewall CloudNEXT

Túnel IPSec Túnel IPSec

Servidores Experimentais

Servidores Virtuais – Controle central

Servidores Experimentais

Servidor Controle Local Servidor Controle Local

Ilha São Paulo

IlhaRecife

Servidor Baremetal com Intel Xeon 3104 (6-core), 16 GB RAM, 2 TB HDD

3 4

Servidor Baremetal com Intel Xeon E5-2420, 6-core, 128 GB RAM, 4x4 TB HDD (RAID-5)

- 7

Switch White-Box com suporte a Linux / Open vSwitch

1 1

Recommended