45
Anais do III Encontro de Inovação em Sistemas de Informação Castelmar Hotel – Florianópolis/SC – 17 a 20 de maio de 2016 Promoção Organização Patrocínio Apoio XII Simpósio Brasileiro de Sistemas de Informação

$QDLVGR,,,(QFRQWURGH,QRYDomRHP …sbsi2016.ufsc.br/anais/Anais do III EISI.pdf · Sociedade Brasileira de Computação ... do tema “Inovação em Sistemas de Informação na era

Embed Size (px)

Citation preview

Anais do III Encontro de Inovação em Sistemas de InformaçãoCastelmar Hotel – Florianópolis/SC – 17 a 20 de maio de 2016

Promoção Organização Patrocínio Apoio

XII Simpósio Brasileiro de Sistemas de Informação

III Encontro de Inovação em SI (EISI 2016) Evento integrante do XII Simpósio Brasileiro de

Sistemas de Informação

De 17 a 20 de maio de 2016

Florianópolis – SC

ANAIS

Sociedade Brasileira de Computação – SBC

Organizadores Jean Carlo R. Hauck

José Viterbo Filho

Frank Augusto Siqueira

Patrícia Vilain

Realização

INE/UFSC – Departamento de Informática e Estatística/

Universidade Federal de Santa Catarina

Promoção

Sociedade Brasileira de Computação – SBC

Patrocínio Institucional

CAPES – Coordenação de Aperfeiçoamento de Pessoal de Nível Superior

CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico

FAPESC - Fundação de Amparo à Pesquisa e Inovação do Estado de Santa Catarina

Catalogação na fonte pela Biblioteca Universitária

da

Universidade Federal de Santa Catarina

E56 a Encontro de Inovação em SI

(3. : 2016 : Florianópolis, SC)

Anais [do] III Encontro de Inovação em SI (EISI 2016) [recurso

eletrônico] / Organizadores Jean Carlo R. Hauck...[et al.] ; realização

Departamento de Informática e Estatística/UFSC ; promoção: Sociedade

Brasileira de Computação. – Florianópolis : UFSC/Departamento de

Informática e Estatística, 2016.

1 e-book

Evento integrante do XII Simpósio Brasileiro de Sistemas de Informação

Disponível em: http://sbsi2016.ufsc.br/anais/

Evento realizado em Florianópolis de 17 a 20 de maio de 2016.

ISBN 978-85-7669-319-2

1. Sistemas de recuperação da informação – Congressos. 2. Tecnologia

– Serviços de informação – Congressos. 3. Internet na administração pública

– Congressos. I. Hauck, Jean Carlo R.. II. Universidade Federal de Santa

Catarina. Departamento de Informática e Estatística. III. Sociedade

Brasileira de Computação. IV. Título.

CDU: 004.65

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

III EISIIII Encontro de Inovação em SI (EISI)Evento integrante do XII Simpósio Brasileiro de Sistemas de Informação (SBSI)17 a 20 de Maio de 2016Florianópolis, Santa Catarina, Brazil.

Comitês

Coordenação Geral do SBSI 2016Frank Augusto Siqueira (UFSC)Patrícia Vilain (UFSC)

Coordenação do Comitê de Programa do EISI 2016Jean Carlo R. Hauck (UFSC)José Viterbo Filho (UFF)

Comissão Especial de Sistemas de InformaçãoClodis Boscarioli (UNIOESTE)Sean Siqueira (UNIRIO)Bruno Bogaz Zarpelão (UEL)Fernanda Baião (UNIRIO)Renata Araujo (UNIRIO)Sérgio T. de Carvalho (UFG)Valdemar Graciano Neto (UFG)

Comitê de Programa Científico do EISI 2016Christiane Gresse von Wangenheim (UFSC)Fabiane Barreto Vavassori Benitti (UFSC)Flávio Ceci (UNISUL)Jonice Oliveira (UFRJ)José Viterbo (PUC-Rio)Mauricio Floriano Galimberti (UFSC)Renata Araujo (UNIRIO)Richard Henrique de Souza (UFSC)Sergio Mergen (UFSM)Vera Schuhmacher (UNISUL)Wanderson Rigo (IFC)

iv

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

RealizaçãoINE/UFSC – Departamento de Informática e Estatística/ Universidade Federal de Santa Catarina

PromoçãoSBC – Sociedade Brasileira de Computação

PatrocínioCAPES – Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorCNPq - Conselho Nacional de Desenvolvimento Científico e TecnológicoFAPESC - Fundação de Amparo à Pesquisa e Inovação do Estado de Santa CatarinaFAPEU - Fundação de Amparo à Pesquisa e Extensão Universitária

ApoioCentro Tecnológico - UFSCPixel Empresa júnior - UFSC

v

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

ApresentaçãoO Encontro de Inovação em SI (EISI) é uma proposta do Simpósio Brasileiro de Sistemas de Informação, com objetivo de pos-sibilitar o contato, discussão e alinhamento de visões entre os problemas e soluções inovadoras encontrados pela Indústria e pelaSociedade e os tópicos de pesquisa abordados pela Comunidade Científica, no que se refere à modelagem, ao desenvolvimento,ao uso e ao gerenciamento de Sistemas de Informação.

Em sua terceira edição, o foco do EISI visa o compartilhamento de experiências da indústria e da comunidade científicano desenvolvimento de ações de inovação, especialmente tratando do tema “Inovação em Sistemas de Informação na era daComputação em Nuvem”. Por meio de painéis, palestras e mesas de discussão, o III EISI aborda assuntos como: processos deinovação, co-desenvolvimento academia-indústria e o marco legal de CTI.

O EISI objetiva também avançar no estabelecimento de uma visão comum dos temas e desafios estratégicos de inovação emSI para investimento de recursos da indústria, governo e comunidade científica. Para isso, são selecionados relatos de exper-iência em inovação em SI, oriundos da indústria e academia, abordando os principais temas e desafios atuais no setor. Essestemas e desafios foram identificados com base nos principais programas de fomento nacional ao desenvolvimento científico etecnológico no Brasil (ex. TI-Maior, Programa Nacional de Pós-Graduação, Grandes Desafios da Computação) e nas visões etendências sociais e de mercado internacionais (Gartner Hype Cycle).

Em 2016, foi realizada a terceira edição do EISI, contando com 18 artigos inscritos e, destes, 08 foram aprovados (44%) comcompetente avaliação realizada pelos revisores. Durante o evento, os artigos aprovados foram apresentados oralmente pelosseus respectivos autores. Os temas tratados nos artigos envolvem experiências de inovação de processos e produtos em váriasáreas do desenvolvimento de Sistemas de Informação, tais como: educação, extração e manipulação de dados, informaçõesambientais, gerência de projetos e bancos de dados.

Florianópolis, Maio de 2016.

Jean Carlo R. Hauck (UFSC)José Viterbo Filho (UFF)

Coordenação do EISI 2016

vi

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

Biografia dos Coordenadores do Comitê de Programa do WICSI 2016

Jean Carlo R. Hauck é doutor em Engenharia do Conhecimento, e mestre em Ciência da Com-putação pela Universidade Federal de Santa Catarina (UFSC) e graduado em Ciência da Com-putação pela Universidade do Vale do Itajaí (UNIVALI). Adquiriu experiência prática na indús-tria trabalhando em empresas brasileiras de software, iniciando na área de suporte ao usuário,passando por DBA, programador, analista de sistemas, arquiteto de software, gerente de projetose diretor de P&D. Por vários anos liderou projetos de desenvolvimento de software para grandesclientes e, com essa experiência adquirida, prestou consultorias e ministrou treinamentos nasáreas de Modelagem e Arquitetura de Software e de Melhoria de Processos de Software paragrandes empresas de tecnologia.Em paralelo à sua atuação na indústria, foi também professor deEngenharia de Software na Universidade do Sul de Santa Catarina (UNISUL) e na UNIVALI.Ministrou ainda diversas disciplinas em cursos de Pós-Graduação em Engenharia de Softwarena Unisul, Univali, Uniplac, Uniasselvi, Sociesc, Uniarp, Unidavi e Esucri. Foi pesquisadorvisitante no Regulated Software Research Centre - Dundalk Institute of Technology - Irlanda.Atualmente é Professor Adjunto no Departamento de Informática e Estatística da UniversidadeFederal de Santa Catarina e pesquisador do Grupo de Qualidade de Software (GQS) do INCoD.

José Viterbo Filho é graduado em Engenharia Elétrica (com ênfase em Computação) pela Es-cola Politécnica da Universidade de São Paulo, possui Mestrado em Computação, pela Univer-sidade Federal Fluminense, e doutorado em Informática, pela Pontifícia Universidade Católicado Rio de Janeiro. Atualmente é Professor Adjunto no Instituto de Computação da UniversidadeFederal Fluminense (IC/UFF), pesquisador no Laboratório de Sistemas de Tempo Real e Embar-cados (LabTempo) e pesquisador colaborador no Laboratório de Documentação Ativa e DesignInteligente (ADDLabs) e no Laboratório de Gestão em Tecnologia da Informação e Comuni-cação (GTecCom), na mesma universidade. Além disso, é Diretor de Publicações da SociedadeBrasileira de Computação (SBC). Atua no Programa de Pós-Graduação em Computação da UFF(PPGC/UFF) onde desenvolve pesquisas na área de computação ubíqua, inferência distribuída,dados abertos e análise de dados.

vii

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

Artigos TécnicosRelato Convidado: Indicadores da primeira edição do Programa Nacional de Aceleração de Startups – Start-UpBrasil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1Leonardo Souza de Freitas (CNPq)

A focus+context compact scalable Gantt chart with drag-and-drop capabilities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Celmar G. da Silva (UNICAMP), João Meidanis (UNICAMP), Arnaldo Vieira Moura (UNICAMP),Marcello R. de Oliveira (Scylla Bioinformática), Bruno F. Medina (UNICAMP), Gabriel A.C. Lima (UNICAMP)

Análise Comparativa dos Bancos Orientados a Grafos de Primeira e Segunda Geração - Uma Aplicaçãona Análise Social . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Guilherme M. Alvarez (UFSC), Flavio Ceci (Unisul), Alexandre L. Gonçalves (UFSC)

Estudo de casos sobre os aplicativos móveis ALERTABLU e Alerta Brusque focados na previsão de tempo,catástrofes de chuvas, enchentes e deslizamentos na região do Vale do Itajaí . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Christian R.C. de Abreu (FURB), Wagner Correia (UNIFEBE), Pedro S. Zanchett (UNIFEBE),Marcos Rodrigo Momo (IFC)

Estudos Dirigidos à Inovação: Uma experiência na formação de pesquisadores-inovadores em SI . . . . . . . . . . . . . . . . . . 16Renata Mendes de Araujo (UNIRIO)

Modelagem de processos na gestão da segurança da informação: Um relato de experiência . . . . . . . . . . . . . . . . . . . . . . . . 20Cristiano Tolfo (UNIPAMPA), Fernando Della Flora (UNIPAMPA), Maurício Martinuzzi Fiorenza (UNIPAMPA)

Orientações para Implantação de um Plano de Conscientização de Segurança da Informação na MaternidadeEscola Januário Cicco - UFRN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24Carlos Eduardo Barros Santos Júnior (EBSERH/MEJC/UFRN), Bruna Patrícia da Silva Braga (Fac. Estácio de Natal)

Roteamento do Espaço Urbano em Dispositivos Móveis para Sugestão de Itinerários do Transporte Coletivo . . . . . . . 28Alexandre Soares da Silva (IFMS), Mateus Ragazzi Balbino (IFMS)

Uso de Tecnologia NoSQL para Extração de Informação sobre Unidades de Exploração e Produção de Petróleo . . . . 32Pedro Jardim (UNIRIO), Augusto Taboransky (UNIRIO), Geiza M.H. da Silva (UNIRIO), Paulo Ivson (PUC-Rio)

Index of Authors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

viii

Relato Convidado

Indicadores da primeira edição do Programa Nacional de Aceleração de Startups – Start-Up Brasil

Leonardo Sousa de Freitas Analista Pleno em Ciência e Tecnologia

Gestor das Chamadas 2013 e 2014 do Programa Start-Up Brasil Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

SHIS QI 1 Conjunto B - Bloco C, Sl. 203, Edifício Santos Dumont, Lago Sul Brasília/DF – 70605-180

[email protected]

RESUMO

Este relato discute os resultados preliminares do Start-Up Brasil,

Programa Nacional de Aceleração de Startups. Inicialmente, é

discutido a motivação para a criação do Programa Estratégico de

Software e Serviços de TI e apresentada a arquitetura do Programa

Start-Up Brasil, ressaltando o ineditismo no seu modelo de

Parceria Público-Privada. Além disso, são discutidos aspectos

gerais do programa, tais como os requisitos para submissão, o

processo de seleção, o perfil das aceleradoras etc. Na apresentação

e discussão do tema, serão relatados casos de sucesso e

apresentada uma avaliação do estágio de desenvolvimento e

indicadores das empresas aceleradas na primeira edição do

programa.

ABSTRACT

This report discusses the preliminary results of Start-up Brazil, the

Brazilian National Program for Startups Acceleration. Initially, it

is discussed the motivation for the creation of the Brazilian

Strategic Program for Software and IT Services and presented the

architecture of the Start-Up Brazil Program, highlighting it’s

uniqueness of the Public-Private Partnership model. Moreover,

they discussed general aspects of the program, such as the

requirements for submission, selection process, the accelerators

profiles etc. In the presentation and discussion of the topic, will be

reported successful cases and presented an assessment of the stage

of development and indicators of companies accelerated in the

first edition of the program.

Palavras-chave

Inovação tecnológica; Aceleração de empresas, Start-ups

Keywords

Tecnologic innovation; Business accelerators, Startups

1. INTRODUÇÃO A competição global entre os países é uma faceta da economia

moderna da qual nenhum Estado pode deixar de considerar.

Inevitáveis são, portanto, o fluxo entre países, de pessoas,

recursos financeiros, bens, informação e, consequentemente, de

negócios. Esta nova faceta traz uma nova necessidade de

reorganização e capacidade de resposta dos respectivos países

para que possam fazer frente às novas demandas das sociedades a

qual representam. O que se observa com muita clareza nos países

com economias mais competitivas é uma incessante participação

do Estado no estímulo a empresas, no tocante da pesquisa,

desenvolvimento e inovação. Os objetivos são muito claros:

posicionar empresas nos pontos de maior valor agregado das

cadeias de produção, mitigar os impactos da migração de

operações de empresas de suas fronteiras nacionais para outros

países em desenvolvimento com estrutura de custo inferior e

garantir emprego e renda de suas populações no médio e longo

prazo. Neste tocante, a inovação, como um processo econômico-

tecnológico, tem sido o motor principal das ações de estímulo à

indústria nos países mais desenvolvidos.

Dentro das várias indústrias existentes em uma economia, a

das Tecnologias da Informação e Comunicação (TICs) tem se

apresentado como uma das mais intensas quando nos deparamos

com fatores que influenciaram a transformação social e

tecnológica que se tem visto nos últimos 20 anos. Dessa forma,

com a necessidade de se inovar constantemente e buscar a escala

global de produtos e serviços, institui-se, primordialmente nos

EUA, a visão dos investimentos em empresas de base tecnológica

de pequeno porte, que obteriam a vantagem de arriscarem nas

tecnologias e modelos de negócio inovadores, fenômeno

conhecido como startups.

Tal movimento vem no bojo da constituição de uma cadeia de

capital de risco que busca selecionar idéias baseadas em

tecnologia, de empresas ou de empreendedores em estágio inicial

de desenvolvimento, que rompam paradigmas no mercado.

Depois da seleção, estas empresas e empreendedores recebem

aportes financeiros de alto risco que, em compensação, podem

maturar e atingir retornos financeiros elevados. Tal movimento

startup criou grande parte das empresas de grande fama

internacional na área de TICs, tais como Facebook, Google,

Dropbox, Twitter e Whatsapp.

Dentro do contexto internacional das startups, o que se

observa é um novo fenômeno-movimento denominado de

‘aceleradoras de empresas’. Estas são instituições ligadas a

atividades de investimento de risco que buscam mitigar o risco

dos estágios iniciais de uma idéia ou de uma empresa nascente.

Diferente dos investidores de risco tradicionais, estas aceleradores

proporcionam, além do aporte de recursos e de pessoal (para

desempenhar atividades tecnológicas, de mercado e de gestão),

suporte do tipo ‘mentorado’, isto é, cedem pessoas com

experiência em negócios que orientam estrategicamente os

empreendedores das startups.

Uma característica que marca a atuação das aceleradoras é a

rapidez do processo de apoio/mentorado a que são submetidas as

startups até serem posicionadas no mercado (go-to-market).

Outras duas características que podem ser identificadas nesta ação

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

1

de aceleração são (i) preparação dos gestores da empresa a grande

agressividade comercial, e (ii) a formatação destas startups para

receberem o suporte adequado da indústria de venture capital por

meio de aportes de capital necessários ao sucesso do

empreendimento no médio prazo.

Hoje, o movimento das aceleradoras está praticamente

concentrado no Vale do Silício (Califórnia, EUA). No entanto,

outras experiências semelhantes podem ser identificadas em

outros países, o que constitui uma evidência de que a indústria

financeira de investimento está disposta a prover, com resposta

ágil, a diluição dos riscos de negócio envolvidos em empresas

intensivas em inovação tecnológica nos estágios iniciais de seu

desenvolvimento.

No caso brasileiro, o diagnóstico que fundamentou o

Programa Estratégico de Software e Serviços de TI identificou a

necessidade de um tratamento distinto para as startups de TICs.

Este tratamento especial estaria na necessidade de conferir um

apoio concentrado e de rápida resposta junto à startup, buscando

desenvolver o negócio em consonância com a rapidez típica (time-

to-market) do mercado ligado às TICs. No mesmo diagnóstico,

uma análise das ações de apoio existentes no País indicou um

número significativo de startups de TICs que participam de

programas de incubação de empresas. Em 2013 existiam mais de

380 incubadoras; nelas, aproximadamente 60% dos

empreendimentos incubados eram ligados a esse setor. Outro

ponto do diagnóstico indicou um baixo potencial para

internacionalização destes negócios. Tal potencial constitui um

importante indicador de competitividade para a inovação, e em

especial para as TICs que possuem em sua natureza de negócio

um mercado praticamente sem fronteiras.

Outra conclusão importante do diagnóstico foi a constatação

de uma ampla oferta de apoio ao empreendedorismo com grande

foco na mitigação do risco tecnológico, ou seja, no

desenvolvimento da tecnologia. Havia, porém, uma oferta escassa

de apoio em gestão de mercado, busca de funding (financiamento

pós-startup) e acesso a mercado para as empresas que

desenvolvem estas tecnologias. Como resultado do diagnóstico,

houve uma clara indicação da necessidade de estruturação de uma

ação específica de apoio às aceleradoras de empresas, ampliando

assim a probabilidade de sucesso das empresas de base

tecnológica nascentes, presentes nas incubadoras existentes no

País [1].

2. O PROGRAMA START-UP BRASIL Com base nestas informações a Secretaria de Política de

Informática do MCTI trabalhou na elaboração do Programa

Estratégico de Software e Serviços de TI [2]. Neste contexto,

endereçou a demanda por aceleradoras em um Programa

exclusivo de apoio às startups e sua ligação às aceleradoras,

denominado Start-Up Brasil.

O Start-Up Brasil, Programa Nacional de Aceleração de

Startups, tem por definição uma parceria público-privada para

apoiar o desenvolvimento no Brasil de empresas nascentes de

base tecnológica nacionais e internacionais. É um desdobramento

na linha de fomento à indústria de softwares e serviços da

Estratégia Nacional de Ciência, Tecnologia e Inovação 2012-

2015, que elege as Tecnologias de Informação e Comunicação

(TIC) entre os programas prioritários para impulsionar a economia

brasileira [3]. Em sua primeira edição, em 2013, tratou-se de uma

iniciativa em prol do ecossistema de empreendedorismo brasileiro

do Ministério da Ciência, Tecnologia e Inovação (MCTI) em

parceria com o Conselho Nacional de Desenvolvimento Científico

e Tecnológico (CNPq), a Agência de Promoção de Exportações e

Investimentos (Apex Brasil) e 12 aceleradoras privadas brasileiras

habilitadas. Sendo essas aceleradoras empresas ligadas a

atividades de investimento que buscam mitigar o risco dos

estágios iniciais de um negócio nascente. Os projetos são

selecionados por meio de chamada pública, sendo todo o processo

de submissão, avaliação, seleção e concessão efetuado pelo

CNPq.

O Programa criou em seu modelo operacional uma estrutura

de apoio a serviços em aceleradoras selecionadas em um processo

seletivo nacional, que contempla apoio às empresas com

marketing e vendas, suporte legal, dentre outros serviços de apoio

ao empreendedor. Outrossim, implementou apoio com suporte

financeiro para a Pesquisa, Desenvolvimento e Inovação de cada

empresa nascente, bem como a estruturação de um pólo (hub)

internacional para atração de investimentos, apoio à captação de

recursos de fundos internacionais de venture capital e presença

institucional do Brasil no exterior [1].

Como objetivos específicos, pode-se relatar: capacitar

empresas nascentes de TI nos processos de pesquisa &

desenvolvimento (P&D); auxiliar empresas nascentes no processo

de vinculação da P&D à inovação tecnológica; possibilitar a

inserção de pesquisadores nas empresas; capacitar pesquisadores,

técnicos e demais gestores das empresas nas práticas de gestão da

inovação; estimular o empreendedorismo e a criação de negócios

no setor de TI; contribuir para o esforço de desenvolvimento

econômico do País, em especial no seu longo prazo, conferindo à

economia empresas de serviços competitivas e com viés de

internacionalização; contribuir para a dinamização do ecossistema

de empreendedorismo e assim, contribuir nas outras ações do

Programa TI Maior; estimular, de maneira indireta, a criação e o

amadurecimento de ações de apoio à aceleração de negócios de

base tecnológica; apoiar o Programa Nacional de Incubadoras de

Empresas e Parques Tecnológicos (PNI) com ações de apoio

direto ao P,D&I de empresas nascentes incubadas ou participantes

de parques tecnológicos; e introduzir um processo estruturado que

abrange a concepção, implementação e monitoramento de um

instrumento de um programa de governo (TI Maior).

3. A CRITICIDADE DO PROBLEMA O momento atual da indústria brasileira de software e serviços

pode ser caracterizado como de fragilidade e de oportunidade. Por

um lado o mercado brasileiro de software: é o maior mercado da

América Latina no segmento e está entre os 10 maiores do

mundo; cresce a taxas médias de 8% ao ano, totalizando US$19,5

bilhões em 2012 e previsão de US$60 bilhões em 2020; e absorve

600 mil pessoas, sendo 80% destas assalariadas. Por outro, esta

indústria caracteriza-se por [4]: pulverização de competências;

carência em recursos humanos especializados e de nível técnico;

baixa densidade tecnológica; falta de posicionamento consolidado

e de uma identidade e imagem robustas; investimento direto

estrangeiro pouco equacionado (que gera baixa agregação de valor

para o País na área de TICs e acentuado movimento de aquisição

de empresas nacionais pelo capital estrangeiro). Portanto, de um

lado, há um mercado com crescimento robusto, mas uma indústria

brasileira fragilizada para aproveitar as oportunidades que

surgirão no curto e médio prazo, implicando no aumento da

importação de tecnologia e ampliação da participação de empresas

estrangeiras no Brasil.

Estimular o nascimento e o fortalecimento por meio do

desenvolvimento de P,D&I de empresas emergentes na área de

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

2

software e serviços de TI é uma necessidade para a economia

nacional. Para que este desenvolvimento ocorra, é essencial o

aporte de pessoal qualificado (pesquisadores e técnicos) para que,

em um processo de capacitação hands-on-job, capacitem a

empresa em processos de inovação. Apenas empresas

competitivas serão capazes de responder à competição

internacional e ainda angariar divisas para o País por meio de

atividades de internacionalização. Sendo assim, as ações de apoio

do Programa Start-Up Brasil são um importante instrumento para

modificar este quadro de fragilidade da indústria, contribuindo

para a sustentabilidade econômica de longo prazo do País.

4. MODELO DO PROGRAMA O modelo operativo do Programa dá conta de um processo de

seleção em duas fases: a primeira onde serão habilitadas as

aceleradoras, processo de responsabilidade da Secretaria de

Política de Informática (SEPIN/MCTI); e a outra fase, a de

seleção de projetos de startups. A habilitação de aceleradoras é

feita por meio de edital competitivo, com base em critérios que

possam garantir a participação de empresas que tenham potencial

para contribuir com o sucesso do Programa. O perfil e os critérios

de julgamento são, em resumo: equipe e estrutura da aceleradora;

rede de relacionamentos; alinhamento com o Programa Start-Up

Brasil; e posicionamento no ecossitema digital. Não está

envolvido o aporte de recursos públicos de qualquer natureza para

as aceleradoras.

Na segunda fase, se dá o processo de escolha dos projetos das

startups candidatas, segundo um processo seletivo que considera

critérios relacionados a questões técnicas (tecnológicas),

mercadológicas, econômicas e financeiras e relativas ao perfil dos

empreendedores e aspectos organizacionais. São consideradas

também, especialmente no processo de matching, as linhas de

atuação prioritárias de cada aceleradora, suas capacidades,

competências e limitações físicas e operacionais. Da mesma

forma, trata-se de processo competitivo, operacionalizado com

base em chamada pública de ampla divulgação.

5. INDICADORES INICIAIS Em sua primeira edição, em um período de até 18 meses, 88

startups obtiveram acesso a até R$200.000,00 em bolsas de

desenvolvimento tecnológico, para o desenvolvimento de ações de

inserção de produtos e tecnologia no mercado, escalabilidade e

possível internacionalização, investimentos financeiros e

coaching. Este recurso foi disponibilizado pelas aceleradoras

selecionadas pelo Programa, em troca de participação acionária.

Dessas, apenas 47% apresentavam, antes do Programa, algum tipo

de faturamento, cenário este que, após o início do Programa se

alterou para 65% das startups. No que se refere às equipes, houve

um aumento de 63%, isto é, indo de 4,7 pessoas para 7,7 por

empresa. Além disso, o faturamento total das startups cresceu

139% durante a execução da ação [5].

6. REFERÊNCIAS [1] MCTI. Termo de Referência para o Programa Start-Up

Brasil. Brasília, 2013.

[2] MCTI. TI Maior – Programa Estratégico de Software e

Serviços de Tecnologia de Informação 2012 - 2015.

http://timaior.mcti.gov.br, 2012

[3] MCTI. Estratégia Nacional de Ciência, Tecnologia e

Inovação 2012 - 2015. Brasília, 2012.

[4] CTI/FACTI. Estudo de cenários para a Indústria Brasileira de

Software. 2011.

[5] MCTI. Apresentação para o DemoDay do Programa Start-Up

Brasil. São Paulo, 2014.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

3

A focus+context compact scalable Gantt chart withdrag-and-drop capabilities

Celmar G. da SilvaSchool of Technology

University of CampinasR. Paschoal Marmo, 1888

Limeira, SP, [email protected]

João Meidanis∗

Scylla BioinformáticaR. F. Otaviano, 60, sala 52

Campinas, SP, [email protected]

Arnaldo Vieira MouraInstitute of ComputingUniversity of Campinas

Av. Albert Einstein, 1251Campinas, SP, Brazil

[email protected] R. de Oliveira

Scylla BioinformáticaR. F. Otaviano, 60, sala 52

Campinas, SP, [email protected]

Bruno F. MedinaSchool of Technology

University of CampinasR. Paschoal Marmo, 1888

Limeira, SP, Brazilbruno.medina@pos.

ft.unicamp.br

Gabriel A. C. LimaAREMAS

R. Reg. Feijó, 221Campinas, SP, Brazil

[email protected]

ABSTRACTInteractive Gantt charts are a well known technique to rep-resent and edit interval and point events. Providing scal-ability to these editable charts in the presence of a largeamount of events is a challenging problem that is under-explored. We propose a scalable and compact variation ofeditable Gantt charts based on focus+context, animation,and clustering. Drag-and-drop functionalities are availablefor relocating events in time. In this paper we discuss ourdesign decisions when elaborating this interactive graphics,and how they may be applied to analyze sizeable sets ofprojects from a real company in the power generation sec-tor.

CCS Concepts•Human-centered computing→Visualization systemsand tools;

KeywordsVisualization; Gantt chart; timeline; scalability

1. INTRODUCTIONVoluminous datasets are increasingly available not only

for computing professionals but for enterprise managers and

∗Also at Institute of Computing, University of Campinas,Campinas, Brazil.

Permission to make digital or hard copies of all or part of this work for personal orclassroom use is granted without fee provided that copies are not made or distributedfor profit or commercial advantage and that copies bear this notice and the full cita-tion on the first page. Copyrights for components of this work owned by others thanACM must be honored. Abstracting with credit is permitted. To copy otherwise, or re-publish, to post on servers or to redistribute to lists, requires prior specific permissionand/or a fee. Request permissions from [email protected].

SBSI ’2016 Florianópolis, Santa Catarina, Brazilc© 2016 ACM. ISBN (to be defined). . . $15.00

DOI: (to be defined)

also for the general public. Information Visualization pro-vides interactive graphical solutions that may help users tounderstand and explore these datasets. However, there isstill a need for improving these solutions with respect toscalability. Indeed, Thomas and Cook [8] pointed out theneed of ways to transform data into “new scalable represen-tations that faithfully represent the underlying data’s rele-vant content”.

We are especially interested in providing scalable solutionsfor interactive Gantt charts. These charts are used world-wide to represent events along time (mainly interval events,but also point events). Despite this, few recent researchreports focus on scalable Gantt charts.

In this paper we propose a scalable, compact, editable,and interactive Gantt chart. Based on a “focus + context”technique, these charts represent clusters of interval events.Users may expand these clusters, and may also inspect anddrag interval events contained in such clusters. Our methodextends that of Silva et al. [7].

This paper is organized as follows. Section 2 presents abibliographic review on recent techniques to construct Ganttcharts. Section 3 discusses our method. Section 4 presenta case study that exemplifies the use of our approach in areal dataset stemming from the power generation industry.Section 5 concludes and suggests future research directions.

2. RELATED WORKFew recent reports deal with scalability in Gantt charts.

Scroll bars and zoom, as discussed in FlowOpt [1] and Chrono-zoom [9], for instance, are simple solutions that augmentthe drawing space, thus providing scalability to some ex-tent. However, they provide views of the datasets that maybe too small for users, without a dataset overview to guidethem on their exploration of the data space, i.e., they donot implement the overview+detail technique.

Clustering techniques may help providing this overview.SchemaLine [5] enables users to manually group point eventsin schemas (frames), represented as stripes. This process

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

4

may help dealing with scalability, but it is more suitableto scenarios with very few events, due to the need of userintervention. Besides, it deals with point events instead ofinterval events.

The automatic clustering approach of LiveGantt [3] groupsinterval events according to their start and end times, anddisplays these clusters as rectangles, hiding their clusteredevents. Users may use lenses with semantic zoom to in-vestigate cluster contents. The scalability of this approachseems to be limited, since the height of interval bars may bevery small when there are many concomitant events. Thissituation may hamper event relocation by drag-and-drop op-erations.

The Temporal Mosaics technique [4] applies a space-fillingapproach to Gantt charts. Their authors argue that thesemosaics “facilitate the detection of concurrent and overlap-ping events, even as the number of events to be representedincreases” . However, its scalability seems to suffer from thesame problem as does LiveGantt.

LifeFlow [11] implements a clustering approach that hi-erarchically aggregates point event sequences according toprefixes of these sequences. It may present any number ofrecords using the same amount of screen space. However,like SchemaLine, LifeFlow works only with point events andnot with interval events.

LifeLines [6] and LifeLines2 [10] group points and inter-val events according to predefined event categories. Usersmay visually compact or expand these groups, based on fo-cus+context and semantic zoom techniques. Scrolling isavailable for situations in which these techniques are notproperly scalable.

We highlight two approaches that adapt Gantt charts inorder to do compact layouts: Temporal Mosaics [4] and theproject timeline of Silva et al. [7]. Both provide a compactview of interval events, in which interval bars may sharevertical positions when they do not have time intersection.This is possible because the chart Y-axis is not mapped toany event variable.

Here, we are interested on editable Gantt charts, i.e., wewant to provide drag-and-drop capabilities for interval eventrelocation in time. FlowOpt, LiveGantt and SchemaLine en-able this operation. In LiveGantt, users must first reveal theevents inside a cluster in order to move them. In Schema-Line, users may perform drag-and-drop operations to relo-cate events and to edit frames. FlowOpt’s Gantt Viewer andSilva et al.’s project timeline all implement drag-and-dropoperations that enable users to move events in time. Life-Lines, LifeLines2, LifeFlow, Temporal Mosaics and Chrono-zoom do not seem to provide drag-and-drop facilities fortime relocation of events.

3. METHODIn this section we discuss the design decisions we made in

the definition of our interactive Gantt chart. As most Ganttcharts, it has an horizontal axis that represents time, and itdepicts interval events as rectangles that do not share pixels.

The vertical axis of our chart may be split into areas ac-cording to a given nominal variable. If there is no variableassigned to this axis, we consider that the axis has a singlearea. Each area receives a background color in order to helpusers single out which events belong to this area. Each areamay have concomitant interval events, in contrast to otherGantt chart implementations, e.g. LiveGantt [3]. Rectan-

gles may also have colors, as we explain later.The central part of our solution is related to scalability.

Our solution initially clusters events and present these clus-ters to users as striped rectangles. When a user clicks onone of these rectangles, it expands vertically and revealsits internal events. A click in the background triggers theinverse action. Note that the height of a closed (i.e., notexpanded) cluster rectangle and the height of an event rect-angle are the same. Therefore, the expansion of a clusterreduces the height of the rectangles outside it. This causesa focus+context [2] effect in which users may focus on theexpanded cluster without losing context. Figure 1 illustratesthis approach. It is important to use a clustering methodthat provides a limited number of clusters (e.g. 100), oth-erwise the height of each rectangle become too reduced forcomfortable selection and dragging operations.

We also implemented drag-and-drop capabilities for inter-val events. Any event rectangle may be horizontally dragged.If it is part of a cluster, it leaves this cluster and is not in-serted into another one. Therefore, removed projects arealways visible to the user, and so it is not necessary to dis-cover to which cluster the project was moved.

We defined a compact layout inside each area, followingSilva et al. [7]. For each area, given a fixed height, we wantedto reduce the amount of rectangle rows, since fewer rowsimply more vertical space available, which in turn facilitateslocating and clicking on rectangles. This way, our layoutalgorithm enables rectangles of interval or cluster events toshare the same graphical row, but without visually overlap-ping each other.

4. RESULTSThe scenario that inspired our work stems from a real

company in the power generation sector. It comprises alarge set of projects (in other words, a portfolio) which haverisks and monthly costs associated to them. Decision makersmust analyze these data and decide if and how they shouldreschedule those projects in order to fit them to the annualbudget. The problem is solved by the execution of an it-erative 2-step process, which includes the execution of anoptimization procedure (which is not the subject of this pa-per) followed by an interactive, visual, and exploratory dataanalysis phase. Our solution should detect and highlight in-feasibilities as well as provide sufficient information so thatusers could try to solve those issues.

Given this scenario, we provided a dashboard composedby two cost and risk charts, since the original problem stip-ulated two kinds of resources. We also proposed an interac-tive Gantt chart adhering to our current proposal. Movingprojects on the Gantt chart automatically changes the val-ues on the cost and risk charts.

We customized our solution to this scenario by choos-ing appropriate colors for rectangles. Event rectangles aregreen, yellow or red according to the cost of the projectsthey represent. A cluster rectangle receives the color of themost expensive project that it groups. Therefore, expensiveprojects may be perceived by users even when they are clus-tered. Those projects should be the focus of decision makerswhen they try to turn an infeasible portfolio into a feasibleone. For this scenario, we also defined that our clusteringfunction should group projects with similar start and endtimes, and with similar costs. Figure 2 presents this dash-board. There is a budget infeasibility in the first year (the

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

5

Figure 1: A Gantt chart with clustered projects.

red portion in the “Cost - CAPEX Projects” bar chart). Anexpanded red cluster at the CAPEX (orange background)area of the Gantt chart presents 3 projects. The first twoare expensive (red) and may be moved in order to reach afeasible portfolio.

It is worth noting that this portfolio has about 3,000projects, where many groups of projects have a very sim-ilar start and end date. The scalability techniques proposedin our Gantt chart seem to deal correctly with this use case.

Our approach is limited by the number of rectangle rowsit generates when clusters are not expanded, the maximumnumber of projects grouped by clusters, and the availablevertical space on the screen.

5. CONCLUSIONSThis paper presented our proposal for an interactive Gantt

chart with clustering capabilities. We showed how we mappedvisual properties to the available data, and exemplified ourapproach with a real case containing almost 3,000 events,demonstrating how our mapping deals with large sets. Welearned that the customization of clustering algorithms withrespect to the available data made possible better groupingresults than other traditional clustering approaches.

Future work includes doing usability tests with this tool,correcting possible problems, and integrating it into a soft-ware that optimizes event relocation. Besides, we aim toinsert our proposal into a risk management tool of a largepower generation company.

6. ACKNOWLEDGMENTSWe thank ANEEL and AES for their financial support to

our research.

7. ADDITIONAL AUTHORSAdditional author: Rafael S. V. de Barros (AES-Tiete,

email: [email protected]).

8. REFERENCES[1] R. Bartak, M. Jaska, L. Novak, V. Rovensky,

T. Skalicky, M. Cully, C. Sheahan, andD. Thanh-Tung. Workflow optimization withFlowOpt: On modelling, optimizing, visualizing, andanalysing production workflows. In Technologies andApplications of Artificial Intelligence (TAAI), 2011International Conference on, pages 167–172, Nov 2011.

[2] S. K. Card, J. D. Mackinlay, and B. Shneiderman,editors. Readings in Information Visualization: UsingVision to Think. Morgan Kaufmann Publishers Inc.,San Francisco, CA, USA, 1999.

[3] J. Jo, J. Huh, J. Park, B. H. Kim, and J. Seo.LiveGantt: Interactively visualizing a largemanufacturing schedule. IEEE Trans. Vis. Comput.Graph., 20(12):2329–2338, 2014.

[4] S. Luz and M. Masoodian. Comparing static ganttand mosaic charts for visualization of task schedules.In Proceedings of 15th International Conference onInformation Visualisation, pages 182–187. IEEEComputer Society, 2011.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

6

Figure 2: Visualization screen of Portfolio Optimization and Visualization System with our interactive Ganttchart.

[5] P. H. Nguyen, K. Xu, R. Walker, and B. L. W. Wong.SchemaLine: Timeline visualization for sensemaking.In Information Visualisation (IV), 2014 18thInternational Conference on, pages 225–233. IEEE,July 2014.

[6] C. Plaisant, R. Mushlin, A. Snyder, J. Li, D. Heller,B. Shneiderman, and K. P. Colorado. LifeLines: Usingvisualization to enhance navigation and analysis ofpatient records. In In Proceedings of the 1998American Medical Informatic Association Annual FallSymposium, pages 76–80, 1998.

[7] C. G. Silva, J. Meidanis, A. V. Moura, M. A. Souza,P. Viadanna, G. A. Costa Lima, and R. S. V. Barros.New Advances in Information Systems andTechnologies, chapter A Visualization-Based Approachfor Project Portfolio Selection, pages 835–844.Springer International Publishing, Cham, 2016.

[8] J. Thomas and K. Cook. A visual analytics agenda.Computer Graphics and Applications, IEEE,26(1):10–13, Jan 2006.

[9] R. L. Walter, S. Berezin, and A. Teredesai.ChronoZoom: Travel through time for education,

exploration, and information technology research. InProceedings of the 2nd Annual Conference on Researchin Information Technology, RIIT ’13, pages 31–36,New York, NY, USA, 2013. ACM.

[10] T. D. Wang, C. Plaisant, B. Shneiderman, N. Spring,D. Roseman, G. Marchand, V. Mukherjee, andM. Smith. Temporal summaries: Supporting temporalcategorical searching, aggregation and comparison.IEEE Transactions on Visualization and ComputerGraphics, 15(6):1049–1056, 2009.

[11] K. Wongsuphasawat, J. A. Guerra Gomez, C. Plaisant,T. D. Wang, M. Taieb-Maimon, and B. Shneiderman.LifeFlow: Visualizing an overview of event sequences.In Proceedings of the SIGCHI Conference on HumanFactors in Computing Systems, CHI ’11, pages1747–1756, New York, NY, USA, 2011. ACM.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

7

Análise Comparativa dos Bancos Orientados a Grafos de Primeira e Segunda Geração – Uma Aplicação na Análise Social

Guilherme M. Alvarez Universidade Federal de Santa

Catarina Campus Universitário Reitor João

David Ferreira Lima, Trindade, Florianópolis, SC, Brasil

CEP 88040-900

[email protected]

Flávio Ceci Universidade do Sul de Santa

Catarina Av.Pedra Branca, 25. Cidade

Universitária Pedra Branca, Palhoça, SC, Brasil

CEP 88137-270 +55 (48) 3279-1071

[email protected]

Alexandre L. Gonçalves Universidade Federal de Santa

Catarina Rodovia Governador Jorge Lacerda, nº 3201 - Km 35,4, Araranguá, SC,

Brasil CEP 88906-072

+55 (48) 3721-6448

[email protected]

RESUMO

Durante os últimos anos, a quantidade de informações acumuladas

em grandes repositórios de dados se tornou um impeditivo para o

alto desempenho das Tecnologias de Informação e Comunicação.

Essas massas de dados, Big Data, se tornaram muito complexas

para serem manipuladas e analisadas através modelos tradicionais

de banco de dados. O uso de bancos orientados a grafos tem

ganhado cada vez mais espaço, principalmente no contexto da

análise social. Este trabalho tem como objetivo comparar dois

bancos desta natureza, de primeira e segunda geração. Verificou-se

que o uso do banco OrientDB® apresenta uma solução mais

amigável, mas para consultas recursivas o Neo4J apresenta um

melhor resultado.

Palavras-chave

Modelagem Orientada a Grafos; Banco de Dados; Big Data e

Teoria de Grafos.

ABSTRACT

During the past few years, the amount of accumulated information

in large data repositories has become an impediment to the high

performance of Information and Communication Technologies.

These masses of data, Big Data, have become too complex to be

manipulated and analyzed using traditional database models. The

use of graph-oriented databases has gained more and more space,

especially in the context of social analysis. This study aims to

compare two databases of this type of first and second generation.

It has been found that the use of OrientDB® database presents a

more friendly solution, but for the recursive queries Neo4J shows a

better result.

Categories and Subject Descriptors

• Information systems➝ Database management system

engines • Information systems➝ Database management

system➝ Database design and models➝ Graph-based

database models • Information systems➝ Database

management system➝ Database design and models➝ Data

model extensions

General Terms

Experimentation, Applications

Keywords

Graph-Oriented Data Models; Databases; Big Data and Graph

Theory.

1. INTRODUÇÃO

Os últimos anos foram marcados pelo uso massivo de Tecnologias

de Informação e Comunicação (TICs), cujo principal agente de

transformação foi a Internet. Este cenário contribuiu para o avanço

na geração de instrumentos de comunicação e compartilhamento de

informações.

Com a disseminação das TICs, a expansão das redes de

informações e o anseio de se obter o melhor desempenho ao menor

custo, contribuíram para aumentar o grau de exigência do mercado.

O volume de dados armazenados nas TICs, a complexidade e a

quantidade de relacionamentos entre as informações, tal como a

necessidade de manter e integrar modelos heterogêneos, crescem

exponencialmente a cada dia. Portanto, analisar esse grande volume

de dados tornou-se um requisito essencial de mercado.

As bases de dados NoSQL (Not Only Structured Query Language)

vem ganhando popularidade na era da Web 2.0. Pois, a promessa

de alto desempenho quando se envolve dados altamente

interconectados, atraiu a atenção dos consumidores de tecnologia.

Particularmente, os dados da Web 2.0 em redes sociais são

altamente interligados, e.g., redes de pessoas, comentários,

avaliações e atividades. Eles estão formando diversas redes de

amizades, tópicos e interesses, que naturalmente podem ser

expressas através de grafos [1].

Essas redes contém um grande volume de dados, estruturados e não

estruturados, difícil de armazenar e organizar em estruturas

tradicionais de bancos de dados. Segundo Vicknair et al. [2],

utilizar um novo paradigma de banco de dados, como banco

orientado a grafos, pode ser uma solução uma vez que o volume de

dados e seus relacionamentos não são um impeditivo para um ótimo

desempenho.

Bancos de dados NoSQL proporcionam flexibilidade e

desempenho, pois eles não são limitados pela abordagem

tradicional de armazenamento de dados [3]. Nesse sentido,

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

8

estruturas multi-modelo, têm sido utilizadas para otimizar o

desempenho das bases de dados. Assim, pode-se combinar a

flexibilidade do paradigma orientado a documentos e a

interconectividade do orientado a grafos.

Este trabalho tem como objetivo modelar e implementar uma base

de dados orientada a grafos, a fim de identificar suas diferenças em

relação a abordagem multi-modelo, de segunda geração. Por meio

de uma pesquisa aplicada, envolvendo levantamento bibliográfico

e um experimento, serão elencadas e discutidas algumas questões

envolvendo o desempenho e a modelagem de dados, tanto a

orientada a grafos quanto a multi-modelo.

O trabalho está organizado em cinco seções principais. Após a

introdução, a segunda apresenta a fundamentação teórica

relacionada a banco de dados orientado a grafos. A terceira seção

descreve o método utilizado. Na quarta, é apresentado o

experimento e avaliação de resultados da solução proposta. Por fim,

na última seção, são apresentadas as considerações finais.

2. FUNDAMENTAÇÃO TEÓRICA

Esta seção apresenta uma breve fundamentação teórica sobre o

paradigma de modelagem orientada a grafos, que é fundamental

para o entendimento do experimento proposto.

2.1 Modelagem Orientada a Grafos

Os bancos de dados do orientados a grafos podem ser

caracterizados como aqueles nos quais as estruturas de dados são

modeladas na forma de grafos, e a manipulação de dados é expressa

através de operações orientadas a grafos [4]. Nesse tipo de

estrutura, os dados são representados por nós, arestas e

propriedades. Os nós representam as entidades, as arestas

expressam as relações entre os nós e as propriedades apresentam

características das entidades e relacionamentos.

Recuperar a informação a partir de um grafo requer algo que é

conhecido como travessia, que envolve o conceito de caminhar ao

longo dos vértices do grafo [2]. Uma diferença importante entre

uma travessia e uma consulta SQL é que travessia é uma operação

localizada, na qual não há índice de adjacência global. Cada vértice

e aresta no grafo armazenam um índice dos objetos conectados a

ele, e, dessa maneira, o tamanho do grafo não ocasiona a perda de

desempenho em uma travessia [5, 6].

As bases de dados orientadas a grafos processam com eficiência

densos conjuntos de dados e o seu design permite a construção de

modelos preditivos e análise de correlações e padrões de dados.

Segundo Hwang et al. [7], este modelo de dados, onde todos os nós

estão ligados por relações, permite travessias rápidas entre os

vértices ao longo das arestas.

Para Robinson, Webber e Eifrem [6], as vantagens de se

utilizar o modelo orientado a grafos são: o alto desempenho

independentemente do tamanho total do conjunto de dados

(garantido pelas travessias nos grafos), o modelo de grafos

aproxima os domínios técnicos e de negócios facilitando a

modelagem dos dados e a facilidade de se alterar o esquema de

dados incluindo novas entidades e relacionamentos sem a

necessidade de reestruturar o esquema de dados.

3. MÉTODO UTILIZADO

Nesta seção, objetiva-se apresentar o método adotado nesta

pesquisa, bem como os elementos que fazem parte do experimento

desenvolvido.

Para realizar o experimento proposto, são implementadas duas

bases de dados com as mesmas informações armazenadas, uma

utilizando o modelo híbrido, e a outra, utilizando o modelo

orientado a grafos.

A primeira geração de bancos de dados NoSQL era direcionada a

utilização de um modelo único de dados. Porém, alguns modelos

de dados podem ser adequados para certos tipos de dados, e para

outros não. A fim de resolver a necessidade de múltiplos modelos

de dados, foram criados os bancos de dados de segunda geração,

permitindo a manipulação de grafos, documentos, chave-valor e até

orientação a objetos, no modelo de dados.

A base de dados multi-modelo, de segunda geração, utilizou o

OrientDB® como Sistema Gerenciador de Banco de Dados, e o

banco de dados orientado a grafos, de primeira geração, utilizou o

Neo4J®.

O OrientDB® é um banco de dados multi-modelo que suporta os

paradigmas orientado a grafos, documentos, chave-valor e objetos,

combinando suas características em uma mesma arquitetura. É um

banco de dados baseado em documentos, mas os seus

relacionamentos são gerenciados como em um banco de dados

orientado a grafos, com conexões diretas entre registros [8].

Neo4J® é um banco de dados orientado a grafos de primeira

geração, que fornece uma maneira programática de inserir e

consultar dados em um grafo [9]. Para Batra e Tyagi [10], é um

banco de dados orientado a grafos de alto desempenho, robusto,

escalável e pequeno o suficiente para ser incorporado em

praticamente qualquer aplicativo.

As bases de dados foram armazenadas em um mesmo servidor para

que fossem estabelecidas as mesmas condições nas consultas e

testes necessários.

A Figura 1 ilustra o modelo desenvolvido como proposta de

solução para o problema.

Figura 1. Solução proposta

A solução proposta utilizou informações fictícias simulando uma

rede social. Os dados selecionados para montar o grafo social foram

o código e nome do indivíduo, além das relações de amizade

formadas entre estes sujeitos, estabelecendo-se como as arestas do

grafo social.

Após a conclusão do desenvolvimento das bases de dados, foram

aplicadas consultas complexas envolvendo relacionamentos entre

os dados armazenados para que os resultados obtidos fossem

analisados e comparados.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

9

4. EXPERIMENTO E RESULTADOS

Nesta seção, é apresentado o modelo de dados utilizado neste

trabalho, o histórico do desenvolvimento do experimento e os

resultados dos testes comparativos entre a abordagem multi-

modelo e a orientada a grafos.

O modelo do grafo define seus tipos de vértices e arestas,

propriedades e atributos. Diversos modelos podem ser utilizados ao

mesmo tempo e diversos grafos podem estar associados a cada

modelo. Dessa forma, podemos ter grafos com inúmeros tipos de

entidades se relacionando entre si.

A Figura 2 ilustra a modelagem tanto da base de dados orientada a

grafos quanto da multi-modelo. Nela, pode-se identificar as

entidades Person, representadas pelos vértices do grafo, ligadas

através do relacionamento Friend. Os atributos das entidades

Person, são relacionados como suas propriedades.

Figura 2. Modelo de dados

Esta estrutura simples é tudo o que se necessita para criar modelos

sofisticados e semanticamente ricos. O modelo de dados orientado

a grafos é uma ferramenta eficaz para a modelagem de dados

quando o foco no relacionamento entre as entidades é o ponto

principal da concepção do modelo de dados.

De acordo com Aggarwal [11], identificar os nós mais próximos

em um grafo é a peça-chave em um conjunto diversificado de

aplicações, e.g., busca e sugestão de amigos em uma rede social,

marketing viral na web, busca e análise inteligente de palavras-

chave em uma base de dados.

Redes sociais, como o Facebook®, apresentam sugestões aos

usuários de possíveis amigos até um determinado grau de

profundidade, baseando-se nas relações entre os indivíduos da rede.

Porém, a busca desse tipo de dados em Big Data não se trata de

algo simples, pois, para encontrar os amigos de amigos de um

usuário, é necessário consultar um grande número de informações

no grafo social.

No modelo de dados orientado a grafos, os usuários do grafo social

são os nós e as relações de amizade estabelecidas na rede social são

os relacionamentos entre os nós. Ao realizar a travessia, o banco de

dados acessa um conjunto destes deslocando-se entre os nós através

das arestas formadas pelos seus relacionamentos. Dessa maneira, a

travessia só considera os dados necessários para a consulta, sem a

necessidade de envolver o repositório inteiro de dados.

No contexto de análise das redes e das relações sociais, existem

dois tipos básicos de dados que podem ser analisados:

• Análise estrutural da rede, baseada na estrutura dos

relacionamentos e ligações da rede de dados.

• Análise de conteúdo da rede, baseada nas informações contidas

na rede de dados.

No experimento apresentado neste trabalho, somente a segunda

forma de análise será abordada, demonstrando as diferenças de

desempenho entre os modelos orientados a grafos de primeira e

segunda geração.

Analistas de redes sociais muitas vezes representam a rede através

de um grafo. Na sua forma mais simples, um grafo de rede social

contém nós que representam atores e arestas que representam

relações ou interações entre os atores [12].

As teorias de motivação do estudo de redes sociais geralmente

determinam quais variáveis devem ser mensuradas, e, muitas vezes,

que técnicas são as mais adequadas para a sua medição. As

variáveis estruturais de uma rede são medidas em pares de atores e

são fundamentais para os conjuntos de dados de redes sociais, pois

elas medem ligações entre pares de um tipo específico de atores. As

variáveis de conteúdo ou composição são medidas de atributos dos

atores, que são definidas individualmente para cada ator [13].

Para dar início a análise e validação de dados, é necessário que as

informações estejam devidamente inseridas nas bases de dados

concebidas para o experimento. A fim de que os dados fossem

persistidos de maneira eficiente nas bases de dados utilizadas neste

trabalho, foi desenvolvido um sistema em Java® para realizar a

carga inicial de dados.

Durante o desenvolvimento do sistema, verificou-se que o Neo4J®

apresenta uma extensa documentação disponível na web, ao

contrário do OrientDB®. Os dois sistemas gerenciadores de banco

de dados apresentam métodos de busca em grafos, como Breadth-

First e Depth-First. Enquanto as consultas na base de dados do

Neo4J® são feitas utilizando SPARQL, Gremlin ou Cypher, no

OrientDB® podem ser feitas utilizando Gremlin ou SQL, o que

facilita a utilização deste sistema.

A API do Neo4J® possui métodos especializados em realizar

travessias no grafo buscando o melhor desempenho. Dessa

maneira, a análise de grandes volumes de dados torna-se simples

em um esquema de dados orientado a grafos, pois as travessias

tornam a pesquisa de dados mais eficiente.

Independentemente do tamanho do grafo, a travessia irá acessar

somente os nós que são essenciais à consulta. Quanto maior a

profundidade estabelecida nesta, maior será a quantidade de nós

que a travessia precisa visitar, tornando a consulta mais longa.

Entretanto, este acréscimo de tempo é linear e independente do

tamanho total do grafo.

Visando simular uma rede social com um grande volume dados,

foram criadas duas bases com registros fictícios aplicando a mesma

estrutura de uma rede social, já demonstrada neste trabalho. As

estruturas geradas possuem 1 milhão de pessoas e cada pessoa

possui 100 relacionamentos de amizade.

Os dados relacionados aos indivíduos e suas relações de amizade

no grafo social foram gerados de maneira randômica através do

sistema de persistência de dados, utilizando métodos disponíveis na

API da linguagem de programação Java®.

No Quadro 1, pode-se visualizar os resultados obtidos nos testes de

desempenho realizados em ambos os sistemas gerenciadores de

banco de dados.

Quadro 1. Resultados de desempenho

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

10

Através dos resultados apresentados no Quadro 1, é possível

identificar que o desempenho na consulta com 1 milhão de

indivíduos na profundidade 2 é semelhante para os bancos de

dados. Mas quando a profundidade envolvida na consulta aumenta,

a base de dados de primeira geração apresenta um desempenho

significativamente melhor que a de segunda geração.

Não foi possível concluir os testes de desempenho para as consultas

nas profundidades 4 e 5 no OrientDB® devido a falhas de memória

no garbage collector e heap do Java®. Após uma série de pesquisas

na documentação do sistema e em relatos de outros usuários, foram

alteradas algumas configurações na JVM (Java Virtual Machine),

sugeridas pelos desenvolvedores do OrientDB®, porém os erros

persistiram. Vale salientar que as configurações da JVM ou banco

de dados não foram alteradas para os testes de desempenho

realizados com o Neo4J®.

Em relação ao espaço ocupado em disco, o OrientDB ocupou 14,5

GB e o Neo4J 16,7 GB em suas configurações padrão. Porém os

dois sistemas de bancos de dados possuem configurações que

priorizam o espaçamento em disco.

As consultas foram realizadas com cache quente, ou seja, cada

consulta foi repetida 10 vezes e o menor resultado obtido foi

apresentado. Os testes de desempenho apresentados foram

realizados em uma máquina com o processador AMD FX 6100 de

3.3 GHz com 6 núcleos, 8 GB de memória RAM DDR3 1600 Dual

Chanel da Corsair, fonte CX600 de 600 watts reais da Corsair, placa

mãe ASUS M5A97 PRO e placa de vídeo XFX Radeon HD 7850

Core Edition 2048MB DDR5.

5. CONCLUSÕES

As bases de dados NoSQL, tem se tornado cada vez mais populares,

pois são altamente escaláveis e conseguem operar com grandes

cargas de dados. Corporações como o Facebook®, Google®,

Twitter® e Amazon®, utilizam bases de dados NoSQL para

armazenar e gerenciar seus dados.

A fim de avaliar as diferenças e benefícios de se utilizar bases de

dados NoSQL, este trabalho apresentou um experimento baseado

em análise social, em que foram implementadas bases de dados

orientadas a grafos de primeira e segunda geração.

Ao analisar os resultados obtidos nos testes, é possível identificar a

diferença de desempenho entre o Neo4J® e o OrientDB®, visto que

as consultas realizadas na base de dados orientado a grafos de

primeira geração apresentaram um desempenho superior ao

apresentado pela de segunda geração.

Após analisar a problemática apresentada neste trabalho, a proposta

de solução e os resultados obtidos através dos testes de

desempenho, conclui-se que a proposta de utilização de uma base

orientada a grafos de primeira geração para análise social é válida,

podendo também ser utilizada em outros cenários.

6. REFERÊNCIAS [1] Holzschuher, F. and Peinl, R. 2013. Performance of graph

query languages: comparison of cypher, gremlin and native

access in Neo4j. In Proceedings of the Joint EDBT/ICDT

2013 Workshops. 195-204. ACM. DOI =

http://dl.acm.org/citation.cfm?doid=2457317.2457351

[2] Vicknair, C., Macias, M., Zhao, Z., Nan, X., Chen, Y., and

Wilkins, D. 2010. A comparison of a graph database and a

relational database: a data provenance perspective. In

Proceedings of the 48th Annual Southeast Regional

Conference, pages 42:1– 42:6, 2010

[3] Stonebraker, M. 2010. SQL Databases vs NoSQL Databases.

Commun. ACM. DOI =

http://dl.acm.org/citation.cfm?doid=1721654.1721659

[4] Angles, R., and Gutierrez, C. 2008. Survey of graph database

models. ACM Computing Surveys (CSUR). DOI =

http://dl.acm.org/citation.cfm?doid=1322432.1322433

[5] Miller, J. J. 2013. Graph database applications and concepts

with Neo4j. In Proceedings of the Southern Association for

Information Systems Conference.( Atlanta, GA, USA, 2013,

March). v. 2324.

[6] Robinson, Ian., Webber, Jim., and Eifrem, Emil. 2013.

Graph Databases. O’Reilly Media,Inc.

[7] Hwang, J. S., Lee, S., Lee, Y., and Park, S. 2015. A Selection

Method of Database System in Bigdata Environment: A Case

Study From Smart Education Service in Korea. International

Journal of Advances in Soft Computing & Its Applications.

7(1).

[8] Abubakar, Y., Adeyi, T. S., and Auta, I. G. 2014.

Performance Evaluation of NoSQL Systems using YCSB in

a Resource Austere Environment. International Journal of

Applied, 7, 23-27.

[9] Barmpis, K., and Kolovos, D. S. 2012. Comparative analysis

of data persistence technologies for large-scale models. In

Proceedings of the 2012 Extreme Modeling Workshop. 33-

38. ACM. DOI =

http://dl.acm.org/citation.cfm?doid=2467307.2467314

[10] BATRA, Shalini; TYAGI, Charu. Comparative analysis of

relational and graph databases. International Journal of Soft

Computing, vol 2, 2012

[11] Aggarwal, C. C., and Abdelzaher, T.2011. Integrating

sensors and social networks. Social Network Data Analytics.

379-412. Springer US.

[12] COOK, Diane. J.; HOLDER, Lawrence. B. Mining Graph

Data. Nova Jersey: John Wiley & Sons, Inc., 2007

[13] WASSERMAN, Stanley; FAUST, Katherine. Social

Network Analysis: Methods and Application. Nova York:

Cambridge University Press, 1994.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

11

Estudo de caso sobre os aplicativos móveis ALERTABLU e Alerta Brusque focados na previsão de tempo, catástrofes de chuvas,

enchentes e deslizamentos na região do Vale do Itajaí

Christian R. C. de Abreu Prefeitura Municipal de Blumenau

Av. Castelo Branco, 2, sala 41 Blumenau – SC - Brasil [email protected]

Marcos Rodrigo Momo

Instituto Federal de Educação - IFC Rua José de Oliveira, 81

Brusque – SC - Brasil [email protected]

Wagner Correia UNIFEBE

Rua Dorval Luz, 123 Brusque – SC - Brasil

[email protected]

Pedro S. Zanchett UNIFEBE

Rua Dorval Luz, 123 Brusque – SC - Brasil

[email protected]

ABSTRACT The region of Vale has in its historical floods, flooding and landslides. These natural phenomena cause great losses to society, such as human lives, the homeless, as well as impacts on the economic development of the region. The use of mobile devices such as smartphones and tablets is high and demonstrates growth. This work brings highlighted the ALERTABLU applications and “Alerta Brusque” for Android and iOS, created by the authors of this work, seeking to provide official information to the people and help people in preventing risky situations caused by the rains. At the end of this article is a comparative of the weather forecast application similar in scope to focus on this work.

RESUMO A região do Vale do Itajaí tem em seu histórico enchentes, alagamentos e escorregamentos. Estes fenômenos naturais causam grandes perdas para a sociedade, como vidas humanas, desabrigados, como também impacta no desenvolvimento econômico da região. O uso de equipamentos móveis, como smartphones e tablets é alto e demonstra crescimento. Este trabalho traz em destaque os aplicativos ALERTABLU e Alerta Brusque pra Android e iOS, criados pelos autores deste trabalho, que buscam disponibilizar informações oficiais para a população e ajudar a população na prevenção de situações de risco causado pelas chuvas. Ao final, é feito um comparativo de aplicativos de previsão do tempo com escopo similar aos em foco neste trabalho.

General Terms Experimentation and Verification.

Categories and Subject Descriptors D.1.1 [Programming Techniques]: Applicative (Functional) Programming. C.1.3 [Other Architecture Styles]: Cellular architecture (e.g., mobile).

Keywords Computação móvel; Desastres ambientais; Sistemas de informação.

1. INTRODUÇÃO A mesorregião do Vale do Itajaí, localizada no sul do Brasil, vem desde o começo de sua ocupação sofrendo com as cheias do rio regulamente.

Existem registros históricos em 1880, 1957, 1961, 1984 de grandes enchentes em Blumenau, como em 2008, quando um mar de água e lama causou 136 mortes e prejuízos milionários. Afirma-se que a melhor forma de prevenção de escorregamentos é a cartografia geotécnica para mapear e identificar áreas de risco. [10]

“Na década de 80 devido a grandes enchentes houve uma reviravolta no cenário político nacional. Desta forma o Brasil começava a refletir sobre o estado desgastado que se apresentavam os recursos naturais” [9].

Com a ocorrência frequente dos eventos de cheias e a ascensão da computação móvel e web, departamentos de tecnologia da informação e desenvolvedores de diversos municípios do Vale do Itajaí começam a criar aplicações voltadas a desastres das cheias.

No Vale do Itajaí há aplicativos para previsão do tempo em relação a catástrofes resultantes das grandes chuvas e enchentes. Este trabalho foca-se nos aplicativos das cidades de Blumenau e Brusque, ALERTABLU e Alerta Brusque.

Nos próximos tópicos aborda-se sobre: trabalhos correlatos ao tema; serão descritas algumas das funcionalidades de cada aplicativo; uma análise comparativa entre os pesquisados; ao término estão as considerações finais e trabalhos futuros.

2. TRABALHOS CORRELATOS Existem trabalhos relacionados a aplicativos móveis para catástrofes que ocorrem em decorrência das chuvas. Um exemplo é o aplicativo do AlertaRio da Prefeitura do Rio de Janeiro, que é distribuído conforme AlertaRio no Google Play [3] e AlertaRio no iTunes [4]. Esta ferramenta faz a previsão do tempo desta cidade em tempo real com variáveis como chuva, umidade do ar que são medidas pelas estações pluviométricas e outras.

O trabalho de Cristofolini [12] é um aplicativo que traz uma visualização de dados da Agência Nacional de Águas [2]. O

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

12

objetivo principal é a monitoração do nível dos rios, baseado em 3.757 estações do Brasil.

O Aplicativo Alerta de enchentes de Mustachio [16] permite acompanhar de uma maneira simples o nível do Rio Itajaí-Açú em cada uma de suas estações e o contato a Defesa Civil.

Estas obras poderiam ser analisadas e comparadas para levantar questões sobre o tema e propostas deste tipo de solução para ambientes móveis. A seguir serão apresentados detalhes sobre os aplicativos objeto deste.

3. APLICATIVO ALERTABLU O Sistema ALERTABLU [20] obtém informações sobre a situação de chuvas, nível do rio e funções relacionadas. Este Sistema de Alerta [21] foi construído pela empresa Squitter para trazer dados das estações pluviométricas. O aplicativo ALERTABLU é a sua interface para smartphones.

Neste aplicativo na tela inicial, apresentado (Figura 1), em tempo real o nível do rio e a situação daquele momento (que pode ser estado de vigilância, atenção, alerta e prontidão), também traz uma mensagem descritiva da situação atual. A versão Android está disponível no link <https://goo.gl/8rKHnP> e a para iOS em <https://goo.gl/ENElUn>.

Tela Inicial no iPhone 6S Plus com iOS

9

Tela de Histórico de Nível no Nexus 4 com

Android 5.1.1

Entre suas principais funcionalidades, o aplicativo ALERTABLU traz: informações sobre o nível do rio, abrigos, ruas e cotas de enchente, alertas e notificações.

4. APLICATIVO ALERTA BRUSQUE Este aplicativo está disponível para as plataformas móveis Android <https://goo.gl/Yn8PSD> e IOS <https://goo.gl/T1LNdy>, que permite consultar o nível do rio Itajaí Mirim, dentre outros ribeirões, e inclusive verificar a quantidade de chuva. Este também permite consultar telefones úteis, sites de utilidade pública e notícias. Foi desenvolvido em parceria com a Defesa Civil de Brusque e apoio da prefeitura municipal de Brusque. A tela de Ruas e Cotas é apresentada (Figura 2).

Tela Inicial no iPhone 6S Plus com

iOS 9.

Tela de Ruas e Cotas no Nexus 4 com Android

5.1.1

5. RECURSOS E TECNOLOGIAS UTILIZADAS Para análise e projeto do ALERTABLU foram consultados setores de Infraestrutura, Gerencia de Novos Desenvolvimentos e a Defesa Civil da Prefeitura de Blumenau em várias reuniões de brainstormimg (troca de ideias). O diagrama de colaboração da UML (Unified Modeling Language), apresentado (Figura 3), traz parte do projeto, onde o usuário final acessa o aplicativo e clica para exibir a tela de Condições de Escorregamento, via um Web Service, que acessa o banco de dados do aplicativo. Outro caso é o envio de uma notificação de um funcionário aos cidadãos.

O aplicativo ALERTABLU foi construído para Android e iOS utilizando a ferramenta CASE (Computer-Aided Software Engineering) Genexus, que conforme Artech [5] é uma plataforma que permite desenvolver e manter aplicativos corporativos para múltiplas plataformas. Também foram utilizados os patterns Work With Plus (WWP) [22] e Smart Devices Plus (SDP). [19].

sd Aplicativ o ALERTABLU

UsuárioAplicativo ALERTABLU

<<WebService>> ObterCondições de

Escorregamento

Banco de DadosAplicativo ALERTABLU

Carregar dados doSistema ALERTABLU

Banco de DadosSistema ALERTABLU

Funcionário da Prefeitura

Módulo AdministrativoAplicativo ALERTABLU

Enviar NotificaçãoPush

Obter Condiçõesde Escorregamento

Acessar TelaCondições deEscorregamento

Enviar Notificação Push

Figura 3. Diagrama de colaboração do ALERTABLU.

Figura 1. Telas do Aplicativo ALERTABLU no Android e iOS.

Figura 2. Telas do Aplicativo Alerta Brusque no Android e iOS.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

13

O projeto de análise sistêmica do aplicativo Alerta Brusque iniciou-se por meio do SIAH (Projeto de Pesquisa do Sistema de Informação de Análise Hidrológicas da UNIFEBE) juntamente reuniões com a Defesa Civil da Prefeitura de Brusque. A (Figura 4) apresenta a integração, via API (Application Programming Interface), dos dados telemétricos e hidrológicos do SIAH com o aplicativo.

No desenvolvimento do aplicativo Alerta Brusque utilizou-se o Apache Cordova, que é um framework para desenvolvimento móvel de aplicações universais, baseado em tecnologias voltadas à web (HTML5, CSS3 e JavaScript). Esta tecnologia traz scripts, imagens, arquivos de mídia ou outros recursos num WebView (dentro do invólucro no aplicativo) [11].

A camada de negócio utiliza o framework AngularJS, de acordo com Balasubramanee et al. [6], este framework implementa o modelo MVC (Model-View-Controller) diferente do tradicional. Onde usa o conceito “Single Page Application”, que de acordo com PEREIRA [17], são aplicações web que carregam num único ponto de entrada (entry point) da aplicação.

5.1 NÍVEL DO RIO E HISTÓRICO Ao todo o aplicativo Alerta Brusque conta com dados fornecidos periodicamente por onze estações de telemetria, todas realizam a medição de nível de chuva do nível do Rio Itajaí Mirim.

A equipe de meteorologistas do ALERTABLU baseia-se nos dados fornecidos pelo CEOPS e Agência Nacional de Águas [2] para informar no aplicativo o histórico e o atual nível do rio no aplicativo móvel.

5.2 RUAS E COTAS O aplicativo Alerta Brusque disponibiliza para consulta off-line (sem acesso à internet), 1878 cotas de ruas, para isto utiliza-se um banco de dados relacional Websql dentro do software.

Em 2012 a Universidade Regional de Blumenau atualizou suas cotas [14]. Similar ao Alerta Brusque, o aplicativo ALERTABLU disponibiliza todas as suas cotas para consulta off-line.

5.3 NOTIFICAÇÕES PUSH Acer et al. [1], descreve que as Notificações Push são mensagens pequenas, usadas por aplicações de celular para informar aos usuários sobre novos eventos e atualizações. Existem as notificações Apple Push Notification Server (APN) e o Google

Cloud Messaging Server (GCMS). O aplicativo ALERTABLU recebe notificações do tipo Push do APN e GCMS. Um caso de uso é o “Cadastro de Meus Lugares”, onde o cidadão pode cadastrar um lugar (um ponto de Latitude e Longitude) para receber alertas.

6. COMPARATIVO ENTRE OS APLICATIVOS PESQUISADOS Neste tópico é comparado o sistema ALERTABLU, Alerta Brusque e os trabalhos correlatos pesquisados (vide tópico acima no presente artigo) por meio da contagem dos Casos de uso (UC), onde o foco é analisar a funcionalidade em nível macro. Conforme Basu [8] um UC é a descrição de uma particularidade de uso de um sistema por um ator (usuário do sistema). Para o comparativo foram levantados e contatos todos os UC de cada aplicativo pesquisado, seus totais estão na (Figura 5).

Com base neste levantamento, pode-se notar que os aplicativos ALERTABLU e Alerta Brusque são os que possuem o maior número de funcionalidades e plataformas disponíveis (para iOS e Android). O trabalho de Cristofolini [12] e de Mustachio [16] trazem informações sobre o nível do rio de várias cidades do Brasil, porém não apresentam tantas funcionalidades diferentes quanto às outras obras pesquisadas. A Defesa Civil Municipal do Rio de Janeiro considera os deslizamentos de encostas o maior problema das chuvas fortes nesta cidade, por isto seu principal foco é a proteção de suas áreas de risco. [7]. Desta forma, este pode ser o motivo pelo qual o aplicativo não dispor de tantas funcionalidades para enchentes como os pesquisados na região do Vale do Itajaí neste trabalho.

7. CONCLUSÕES E TRABALHOS FUTUROS No Vale do Itajaí ocorrem enchentes de maiores ou menores proporções em qualquer período do ano devido a grandes quantidades de chuva que caem na região [13]. Sendo assim, tecnologias que visam trazer informação oficial para população, onde o cidadão está (via Wifi ou 4G), podem ser vitais em situações de risco. Ambos os aplicativos estão sendo utilizados na prática e trazem resultados positivos a população e a Defesa Civil.

Em 23 de Outubro de 2015, o nível do rio em Blumenau atingiu 10,3 metros acima do normal. Com isto o aplicativo ALERTABLU chegou a 25 mil downloads para Android. A versão iOS [15] foi publicada após isto, em Dezembro de 2015.

1699

33

ALERTABLUAlerta Brusque

AlertaRioCristofolini (2016)Mustachio (2016)

0 5 10 15 20

UC por Aplicativo

Figura 4. Diagrama de componentes do Alerta Brusque.

Figura 5. Comparativo entre funcionalidades dos aplicativos ALERTABLU, Alerta Brusque e trabalhos

correlatos.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

14

Na época desta crise, o aplicativo ajudou a reduzir a quantidade de ligações telefônicas e os servidores da Prefeitura de Blumenau não caíram, como aconteceu em outros eventos, devido à redução de tráfego de dados. Atualmente, a aceitação no Google Play é positiva, com destaque da nota 4,5 (vai de 0 a 5), há muitos comentários aprovando-o, principalmente a função de alertas via notificações Push. Onde se recebe avisos como previsão de tempo, cheias, deslizamentos, chuva por região.

Em novembro de 2015, foi lançado o aplicativo Alerta Brusque, que traz a população informações da Defesa Civil do município de forma rápida, por meio de smartphones e tablets [18]. O lançamento deste software teve grande repercussão na mídia. Este já ajudou a população nas últimas chuvas fortes e cheias a manter-se bem informada. Sua aceitação é boa, no Google Play está com nota 4,8.

Na próxima versão do Alerta Brusque pretende-se analisar e construir a funcionalidade de alerta com notificações Push.

Em trabalhos futuros pretende-se trocar experiências, ideias, tecnologias, informações de bancos de dados e mão de obra de recursos humanos em projetos relacionados ao ALERTABLU e ao Alerta Brusque, por meio de parceria das suas entidades e também do comprometimento dos próprios autores do presente artigo. Assim trazer inovações no tema para o cidadão.

8. REFERÊNCIAS [1] Acer, Utku; Kawsar, Fahim; Mashhadi, Afra. 2015. Energy

Efficient Scheduling for Mobile Push Notifications. In: 12th International Conference on Mobile and Ubiquitous Systems: Computing, Networking and Services (MobiQuitous 2015). Coimbra, Portugal, p. 22–24.

[2] Agência Nacional de Águas. 2016. 16/01/2015DOI=http://www2.ana.gov.br.

[3] AlertaRio no Google Play. 2016. Aplicativo AlertaRio. 16/01/2015.DOI= https://play.google.com/store/apps/details?id=br.com.squitter.alertario.

[4] AlertaRio no iTunes. 2016. Aplicativo AlertaRio. 16/01/2015.DOI= https://itunes.apple.com/br/app/alertario/id988815025?mt=8&ign-mpt=uo%3D4.

[5] Artech. 2016. Genexus X. 20/01/2015.DOI= http://www.genexus.com/produtos/genexus?pt.

[6] Balasubramanee, Viknes; Pierce, Marlon; Singh, Raminder; Wimalasena, Chathuri. 2013. Twitter bootstrap and AngularJS: Frontend frameworks to expedite science gateway development. In: 2013 IEEE International Conference on Cluster Computing (CLUSTER), 13, 2013, Indiana, Anais. Indiana: IEEE, 2013. p. 1.

[7] Baratto, Romullo. 2015. Prefeitura do Rio de Janeiro aponta caminhos para enfrentar as mudanças climáticas. DOI= http://www.archdaily.com.br/br/761258/prefeitura-do-rio-de-janeiro-aponta-caminhos-para-enfrentar-as-mudancas-climaticas.

[8] Basu, Airban. 2015. Software quality assurance, testing and metrics. Nova Deli: Editora PHI Learning Pvt. Ltd. 2015. 288 p.

[9] CEOPS. 2014. Histórico das Obras de Contenção e o Sistema de Alerta de Cheia na Bacia do Itajaí. 14/08/2014.DOI= http://ceops.furb.br/index.php/institucional/historico.

[10] Chiossi, Nivaldo. 2015. Geologia de engenharia Oficina de Textos. São Paulo, 3a edição. 424p.

[11] CORDOVA. 2015. Componentes Básicos. 15/11/2015.DOI= https://cordova.apache.org/docs/en/latest/guide/overview.

[12] Cristofolini, Fabio. 2016. Nível Do Rio Brasil. 16/01/2016.DOI= https://play.google.com/store/apps/details?id=org.cristofolini.niveldorio.brasil.

[13] Franco, Maria de Assunção Ribeiro. 2008. Planejamento ambiental para a cidade sustentável. Oficina de Textos. São Paulo: Annablume Editora, 2000. 296 p.

[14] G1. 2012. Prefeitura de Blumenau atualiza cotas de enchente do município catarinense. 23/01/2016.DOI= http://g1.globo.com/sc/santa-catarina/noticia/2012/08/prefeitura-de-blumenau-atualiza-cotas-de-enchente-do-municipio-catarinense.html.

[15] G1. 2015. Blumenau lança aplicativo para auxiliar moradores em enchentes. 23/01/2016.DOI= http://g1.globo.com/sc/santa-catarina/noticia/2015/07/blumenau-lanca-aplicativo-para-auxiliar-moradores-em-enchentes.html.

[16] Mustachio, Gorgeous. 2016. Alerta enchente. 16/01/2016.DOI= https://play.google.com/store/apps/details?id=com.ionicframework.enchenteapp310835.

[17] Pereira, M. H. R. 2014. AngularJS uma abordagem prática e objetiva. São Paulo: Novatec Editora, 2014. 207 p.

[18] Prefeitura de Brusque. 2015. Aplicativo Alerta Brusque auxiliará a comunidade em momentos de cheias. 31/01/2016.DOI= http://brusque.sc.gov.br/web/noticia.php?id=12592|aplicativo-alerta-brusque-auxiliara-a-comunidade-em-momentos-de-cheias.

[19] SDP. 2016. Pattern Work With Plus. 21/01/2016.DOI= http://dvelopsoftware.com/smartdeviceplus.

[20] Sistema AlertaBlu. 2016. Sistema AlertaBlu. 21/01/2016.DOI= http://alertablu.cob.sc.gov.br.

[21] Sistema de Alerta. 2016. Sistemas de Alerta Squitter. 21/01/2016.DOI= http://www.squitter.com.br/areas-de-atuacao/2/sistemas-de-alerta.

[22] WWP. 2016. Pattern Work With Plus. 21/01/2016.DOI= http://www.genexus.com/produtos/genexus?pt

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

15

Estudos Dirigidos à Inovação: Uma experiência na formação de pesquisadores-inovadores em SI

Renata Mendes de Araujo Programa de Pós-Graduação em

Informática - UNIRIO Av. Pasteur 458, Urca, Rio de Janeiro

RJ – 22290-040 +55 21 25308088

[email protected]

RESUMO

Este artigo relata a primeira experiência de realização de disciplina

voltada a capacitar alunos de doutorado do Programa de Pós-

Graduação em Informática na Universidade Federal do Estado do

Rio de Janeiro (UNIRIO) nos processos de inovação tecnológica.

O intuito deste relato é compartilhar o pensamento estratégico do

Programa na inclusão deste conteúdo em sua grade de formação, a

definição dos objetivos e programação dos conteúdos da disciplina,

seus resultados, e expectativas de impacto na formação de

pesquisadores na área.

ABSTRACT

This paper reports on the first experience of conducting a course

intended to qualify the DSc students of the Graduate Program in

Information Systems at the Federal University of the Rio de Janeiro

State (UNIRIO) in technology innovation processes. The aim of

this report is to share the Program strategic view which led to the

inclusion of this content in the students´ educational path, the

course program and objectives, main results, and the expected

impact in future research work performed by students.

CCS Concepts

• Social and professional topics~Economic impact

Palavras-chave

Inovação tecnológica; formação em pós-graduação em S.

1. INTRODUÇÃO Entende-se que a pesquisa em SI busca compreender a Computação

como meio ou instrumento para a solução de problemas do mundo

real, da sociedade e das organizações. Seu caráter aplicado gera

desafios devido à necessidade de se apropriar de modelos teóricos

para a sua consecução, além de modelos de validação prática, que

possam ser considerados relevantes e suficientemente rigorosos

para sua aplicação [1].

Araujo, Graeml, Ralha e Cidral [2], a partir da descrição de um

panorama da área de pesquisa em SI no Brasil que se congrega no

Simpósio Brasileiro de Sistemas de Informação nos últimos 10

anos, apontam diversos desafios para a evolução desta comunidade

de pesquisa. Dentre eles, destacam-se: o exercício contínuo de

pesquisa aplicada aos problemas da indústria, do governo ou da

sociedade, de forma realmente integrada e conjunta; a

caracterização do perfil profissional do pós-graduado em Sistemas

de Informação, alinhada às demandas da indústria e do Mercado; e

1 http://www.pnud.org.br/ods.aspx

2 https://www.capes.gov.br/plano-nacional-de-pos-graduacao

o desenvolvimento de novas alternativas de disseminação de seus

resultados que envolvam mais do que a comunidade acadêmica,

mas também as organizações e a Sociedade em si.

Tendo em vista que as implicações da pesquisa em SI impactam

diretamente o cotidiano de pessoas e organizações, estes desafios

tratam de posicionar a comunidade de pesquisa quanto à

necessidade de alterar suas concepções e estratégias, bem como

capacitar esta comunidade à utilização de métodos que alcancem os

objetivos de uma pesquisa realmente aplicada e de alto nível. Em

paralelo, vemos no cenário nacional e global um forte movimento

no sentido da necessidade cada vez maior de investimento de

recursos e esforços nos processos de inovação tecnológica [4],

como estratégia para solução dos problemas nacionais, globais e de

enfrentamento aos desafios de sustentabilidade do mundo1.

No Brasil, a Lei de Inovação [11] e mais recentemente o Marco

Legal da Ciência Tecnologia e Inovação [12] têm tentado fomentar

os processos de inovação, estimulando, por exemplo, a criação de

Núcleos de Inovação Tecnológica dentro das universidades e

centros de pesquisa nacionais, bem como tentando flexibilizar a

legislação nacional, mais refratária à dinâmica necessária às

parcerias, desenvolvimento conjunto e transferência de

conhecimento entre instituições de pesquisa, governo, indústria e

mercado. O Plano Nacional de Pós-Graduação 2011-20202,

elaborado pela CAPES-MEC, aponta preocupação a respeito da

formação de doutores para atuação na indústria, para a inovação e

o empreendedorismo, além da formação acadêmica,

tradicionalmente voltada à atuação em universidades e institutos de

pesquisa.

A despeito do alcance na flexibilização legal, dos estímulos

econômicos à inovação e da abertura à inovação por parte das

políticas públicas de financiamento à pesquisa, percebe-se um

movimento da comunidade de pesquisa - um dos atores

fundamentais neste sistema – ainda tênue no sentido de responder

à dinâmica dos ecossistemas de inovação nacional e mundial. Em

parte, pela falta de entendimento do conceito e processos de

inovação, em parte pela pouca clareza das políticas públicas

nacionais, em parte pelos ainda entraves legais e, por fim, pela

cultura acadêmica de produção científica, focada no estímulo à

publicação de artigos e na formação de pesquisadores para a

pesquisa acadêmica3.

O Curso de Doutorado em Informática do Programa de Pós-

Graduação em Informática da UNIRIO (PPGI-UNIRIO)4 propõe-

se a ser um dos pioneiros na formação de pesquisadores-docentes

3http://www.capes.gov.br/component/content/article?id=4656:cien

cia-da-computacao

4 www.uniriotec.br/ppgi

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

16

especificamente para a área de Sistemas de Informação, com o foco

na atuação de seus egressos nas instituições e cursos de Sistemas

de Informação já existentes no país. O curso, em sua concepção,

apresenta características que contribuem para as ações planejadas

como estratégias nacionais para a pós-graduação, principalmente

no que diz respeito ao fortalecimento da pós-graduação na área de

Ciências Exatas, a atenção à formação de pós-graduação de

qualidade com foco principal para a formação de doutores, a

atenção à formação específica para o ensino e pesquisa em Sistemas

de Informação, e a atenção à forte e crescente demanda por

pesquisadores na indústria.

Neste contexto, o PPGI-UNIRIO instituiu em seu curso de

doutorado uma disciplina denominada “Estudos Dirigidos à

Inovação”. O principal objetivo da disciplina é mudar o modelo

mental de uma nova geração de pesquisadores aptos a compreender

os conceitos e processos de inovação, bem como identificar

oportunidades de inovação em suas pesquisas acadêmicas,

buscando resultados de impacto científico, econômico e social.

Este artigo relata a primeira experiência de realização desta

disciplina. Neste relato, são apresentados os conceitos e processos

de inovação tecnológica (Seção 3); os objetivos pedagógicos,

programação, e resultados principais da disciplina (Seção 4); e a

avaliação e desdobramentos com sua realização (Seção 5).

2. INOVAÇÃO TECNOLÓGICA Segundo o Manual de Oslo [4], Inovações Tecnológicas em

Produtos e Processos (TPP) compreendem “as implantações de

produtos e processos tecnologicamente novos e substanciais

melhorias tecnológicas em produtos e processos. Uma inovação

TPP é considerada implantada se tiver sido introduzida no

mercado (inovação de produto) ou usada no processo de produção

(inovação de processo). Uma inovação TPP envolve uma série de

atividades científicas, tecnológicas, organizacionais, financeiras e

comerciais...”.

Por esta definição, pode-se apreender alguns pontos importantes a

respeito da inovação tecnológica: i) diferentemente de uma

invenção (ideia nova criada a partir do levantamento do estado da

arte de uma tecnologia e sua avaliação e testes em protótipos), uma

inovação pressupõe a transformação desta ideia em produto ou

processo comercializável ou em uso sistemático pelas organizações

ou sociedade; ii) a inovação pressupõe impactos econômicos e/ou

sociais em um determinado nicho de mercado, relacionados à

melhoria que proporciona para um determinado problema

existente; iii) a inovação exige relações de parceria onde as

atividades científicas tem um papel fundamental, relacionado

prioritariamente a avançar no estado da arte de uma área

tecnológica, mas que precisam da atuação de outros agentes –

indústria e governo – para que o processo de introdução de suas

invenções como produtos inovadores no mercado ou sociedade

tenha continuidade. A relação entre os diversos agentes de inovação

– pesquisa, mercado e políticas públicas – conforma o

(ecos)sistema de inovação de um país ou nicho de mercado [5].

Empresas e instituições interessadas em inovação tecnológica

precisam invariavelmente estabelecer processos que as levem a

realizar a gestão de suas ações de inovação. Conforme preveem os

modelos de processos de inovação [3], a gestão da inovação se dá

pela execução de atividades de busca e seleção de oportunidades de

inovação, sua implementação e o aprendizado em relação ao uso da

inovação e da realização do processo de inovação em si (Figura 1).

O processo de inovação, em boa parte compreende os processos

usuais da pesquisa científica no que se refere ao entendimento do

estado-da-arte (busca), identificação de oportunidades (seleção),

desenvolvimento de soluções (implementar) e avaliações com

aprendizado (aprender). Portanto, a capacitação em metodologias

científicas favorece em muito o processo de inovação e o modelo

mental necessário para o entendimento de problemas e a criação de

soluções inovadoras. Por outro lado, a pesquisa científica, de uma

forma geral, tende a se voltar sobre si mesma, podendo deixar de

lado o acompanhamento do estado da prática (mercado). Além

disso, a pesquisa científica objetiva a avaliação controlada com o

intuito de determinar a viabilidade de suas soluções, não sendo

esperados a aplicação de esforço e recursos para transformação

destas soluções em produtos utilizáveis em escala.

Figura 1. Modelo de processo de inovação (adaptado de: Tidd,

Bessant e Pavitt, 2008)

A distância entre a pesquisa científica e o ambiente produtivo torna-

se um desafio para a prática sistemática da inovação em larga

escala. Este desafio é em parte endereçado pelas políticas públicas

de financiamento à pesquisa e inovação, pela atividade de estímulo

à inovação realizada pelos Núcleos de Inovação Tecnológica

estabelecidos nas instituições de pesquisa. No entanto, a prática da

inovação é melhor explorada por pesquisadores que já possuem

mentalidade empreendedora, interessados em direcionar suas

pesquisas desde sua concepção em uma estratégia de

empreendedorismo e inovação.

3. A DISCIPLINA A disciplina “Estudos Dirigidos à Inovação” surge como uma ação

do PPGI-UNIRIO para contribuir com a formação de pesquisadores

em SI com mentalidade inovadora, capacitados a compreender as

particularidades e desafios dos processos de inovação tecnológica,

bem como instrumentá-los para complementar seus processos de

pesquisa científica com atividades relacionadas à inovação. Em sua

primeira realização no escopo do Programa, o objetivo da disciplina

foi concentrado em: i) apresentar os conceitos e processos de

inovação, a discussão de casos, o entendimento de conceitos

importantes diretamente relacionados à inovação (legislação e

propriedade intelectual); ii) refletir quanto às necessidades de

integração de métodos específicos relacionados à inovação ao

processo de pesquisa científica; e iii) exercitar a visão dos artefatos

e contribuições tecnológicas da pesquisa como produtos

inovadores. Neste sentido, a disciplina se estruturou a partir de

módulos focados em temas fundamentais para a compreensão da

inovação tecnológica, estabelecendo um conjunto de competências

a serem desenvolvidas pelos alunos. A Tabela 1 apresenta a lista de

competências definidas, bem como o resultado de seu alcance, na

perspectiva dos alunos (via questionário de avaliação anônima,

total de 7 respostas). A turma possuía 17 alunos, todos profissionais

de empresas públicas/privadas ou consultores independentes.

Tabela 1. Competências esperadas por módulos da disciplina,

seguindo a Taxonomia de Bloom [6]

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

17

Conceito de Inovação

- Entender o conceito de inovação exemplificando produtos

inovadores e interpretando seus impactos na economia e

sociedade. (Totalmente alcançado - 71%)

- Entender a legislação relacionada à inovação interpretando a

Lei da inovação e outras leis de incentivo à pesquisa,

desenvolvimento e inovação. (Parcialmente alcançado - 57%)

Propriedade Intelectual

- Entender os conceitos e processos da Propriedade Intelectual

no Brasil explicando sua aplicabilidade em projetos de pesquisa.

(Totalmente alcançado - 100%)

- Aplicar o processo de prospecção de propriedade intelectual

executando busca em bases de patentes nacionais e

internacionais(Totalmente alcançado - 71%)

Processos de Inovação

-Entender os processos de inovação explicando os objetivos,

resultados e atividades de suas fases principais. (Parcialmente

alcançado - 57%)

-Lembrar os paradigmas da gestão de inovação reconhecendo-

os em projetos e produtos inovadores. (Totalmente alcançado -

57%)

-Avaliar os objetivos da inovação tecnológica criticando sua

visão econômica e social. (Totalmente alcançado - 71%)

-Entender os conceitos de estratégia e inteligência competitiva

resumindo suas relações com o conceito e processos de

inovação. (Totalmente alcançado - 29%)

-Entender o sistema de inovação e difusão tecnológica

explicando o sistema de inovação brasileiro. (Parcialmente

alcançado - 57%)

Inovação e pesquisa

- Analisar as relações dos processos de inovação com os

processos de pesquisa acadêmica concluindo quanto ao papel da

pesquisa no sistema de inovação nacional. (Totalmente

alcançado - 71%)

-Analisar atividades e projetos de pesquisa concluindo quanto

ao seu potencial de inovação. (Totalmente alcançado - 71%)

Projetos de inovação

- Entender as características de um projeto de inovação

exemplificando seus componentes principais. (não avaliado)

- Criar um projeto de inovação planejando suas atividades a

partir de um projeto de pesquisa. (não avaliado)

A dinâmica da disciplina compreendeu aulas predominantemente

de discussão baseadas na leitura de material de referência no tema:

Manual de Oslo (principal documento organizador de conceitos de

inovação tecnológica) [4], pensamentos econômicos relacionados à

inovação [7][8][9] e principais componentes do marco legal (Lei da

Inovação [13], Lei do Bem [14] e Lei da Propriedade Industrial

[15]). As leituras e discussões eram materializadas em mapas

mentais de compreensão coletiva (Figura 2). Um tema não previsto

na programação inicial da disciplina e que surgiu durante as

discussões diz respeito à avaliação e acompanhamento da inovação,

discussão motivada pelo lançamento do Global Innovation Index

20155. A leitura coletiva dos critérios de avaliação dos sistemas de

inovação nacionais ao redor do mundo trouxe uma perspectiva

5https://www.globalinnovationindex.org/content/page/GII-Home/

6 http://gru.inpi.gov.br/pePI/jsp/patentes/ PatenteSearchBasico.jsp

bastante clara dos desafios da inovação no Brasil em termos

econômicos, sociais, infraestruturais e educacionais, motivando a

turma a participar deste processo de crescimento.

Figura 2. Modelo mental sobre conceitos de inovação

Com a evolução das discussões, percebeu-se que boa parte do

conhecimento a respeito da inovação ainda não está totalmente

documentado e que sua natureza é de aprendizado por experiência.

Neste sentido, foi aberta a possibilidade de convites a especialistas

para palestras em assuntos que iam sendo identificados como

importantes para apropriação de conhecimento. Passaram pela

disciplina diversos especialistas nas áreas de: propriedade

intelectual, financiamento à inovação, engenharia do intangível,

liderança e sustentabilidade, sistema de inovação brasileiro,

transferência tecnológica e empreendedorismo. A participação de

especialistas não só foi fundamental para o aprendizado como a

disciplina permitiu a formação de uma rede de contatos e nucleação

de conhecimentos extremamente relevante para o Programa,

reforçando a visão de que inovação se dá em rede.

Ao final da disciplina, era esperado que os alunos pudessem

apresentar uma discussão a respeito das oportunidades de inovação

em suas pesquisas científicas em andamento no curso. Para tal,

foram propostas duas atividades principais: prospecção tecnológica

e modelagem de canvas de negócio. A proposta de realização de

atividades de prospecção tecnológica surgiu durante as discussões

a respeito de propriedade intelectual e a constatação de que parte

considerável do estado da arte tecnológica não está somente na

literatura científica, mas nas bases de patentes nacionais e

mundiais. Com base nas orientações propostas por Nunes [10], a

turma definiu um protocolo para realização de busca de patentes (a

ser publicado) a partir do qual cada aluno pôde realizar buscas nas

bases nacionais – INPI6 - e internacionais – DERWENT7 e WIPO8.

Foi interessante observar o universo diferenciado de propostas de

solução apresentado pelas bases de patentes em comparação aos

resultados obtidos na literatura científica nos diversos temas de

pesquisa da turma. A busca de patentes permitiu uma visão de

janelas de oportunidades de exploração de produtos.

A respeito da exploração de oportunidades de negócio, os alunos

7 http://thomsonreuters.com/en/products-services/intellectual-

property/patent-research-and-analysis/derwent-world-patents-

index.html

8 https://patentscope.wipo.int/search/en/search.jsf

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

18

foram convidados a exercitar a elaboração de um canvas9 voltado à

exploração comercial/social de um ou mais artefatos esperados

como produtos de sua pesquisa. A modelagem do canvas permitiu

aos alunos delinearem com mais clareza os produtos de suas

pesquisas, bem como explorar, mesmo que superficialmente,

trajetórias para sua exploração.

Os alunos produziram um texto como exercício final respondendo

as seguintes perguntas (coletadas do material apresentado pelos

palestrantes convidados): Qual o principal desafio da sua área de

pesquisa nos próximos anos? Que terreno foge aos teus pés? Como

sua pesquisa se alinha a este desafio? Qual o desafio científico

(provar que funciona) e o desafio tecnológico (produzir em escala)

da tua pesquisa? Há desafios além da tua área de pesquisa que

podem ser abordados? Qual seria o mercado do produto gerado e

como você avaliaria sua receptividade? Que implicações este

produto traria para o mercado? Em que tipo de inovação se

encaixaria? Que estratégia de inovação estaria sendo buscada?

Quais os riscos? Quem são seus competidores? Em que seu produto

se diferencia? Quem poderiam ser seus parceiros? Quem poderiam

ser seus financiadores? Que produtos de propriedade intelectual

podem ser gerados? Oportunidades de spin-ins ou spin-offs?

4. CONCLUSÃO A avaliação conduzida ao final da disciplina, apontou como pontos

positivos: a identificação de potenciais 'produtos' oriundos do

trabalho de pesquisa e a desmistificação de determinados conceitos;

a compreensão da importância da inovação em uma pesquisa

científica; a possibilidade de complementação da pesquisa com

resultados de prospecção tecnológica; ter provocado a atenção para

uma pesquisa aplicável à sociedade/mercado; e o conhecimento

agregado pelas palestras convidadas.

Como desafios, os alunos reportaram dificuldades de vislumbrar os

potenciais de inovação de suas pesquisas por estarem em fase

inicial (na disciplina havia alunos em diferentes estágios de

doutoramento), e a abrangência do tema, que exige

aprofundamentos da ementa. Considerando os objetivos de cada

módulo (Tabela 1), houve maior cobertura de objetivos nos

módulos: conceitos de inovação, propriedade intelectual e inovação

e pesquisa. De forma subjetiva, a disciplina suscitou aos alunos

reflexões a respeito da relevância de suas pesquisas, seu papel como

pesquisadores no Brasil e as possibilidades de empreender a partir

de suas pesquisas. De forma objetiva, registramos 2 artigos

submetidos com resultados provenientes da disciplina, e uma

proposta de elaboração de patente. Estes resultados demonstram

mudanças de visão para inovação. O levantamento de disciplinas

similares em programas de pós-graduação nacionais e

internacionais é apontado como trabalho futuro.

5. AGRADECIMENTOS A autora agradece à FAPERJ pelo apoio financeiro parcial às

atividades desenvolvidas no escopo da disciplina, dentro do escopo

do projeto “Implantação dos Processos de Gestão da Inovação

Tecnológica e Cultural do DITC-UNIRIO (processo no. E-

26/010.001696/2014). Este artigo não poderia ter sido escrito sem

as reflexões obtidas junto aos alunos da disciplina Estudos

Dirigidos à Inovação 2015.2 do Programa de Pós-Graduação em

Informática da UNIRIO, a saber: Danielle Astuto, Edmilson Rocha,

João Carlos Gonçalves, José Albuquerque, Lucia Castro, Luciana

Vilanova, Luiz Farias, Luiza de Paula, Maria Teresa Gouvêa,

Miriam dos Santos, Monica Anastassiu, Ricardo Gandelman,

Ronney Castro, Tadeu de Classe, Thiago Procaci e Wander

Vasconcellos; bem como da contribuição valiosa dos palestrantes

convidados: Celso Lemme, Danton Coelho, Eduardo Grizendi,

Erick Rezende, José Afonso de Oliveira Jr, Maria Augusta Nunes,

Nicolas Pflanzl, Ricardo Remer e Sylvia Denerusson.

6. REFERÊNCIAS [1] Recker, J. 2013. Scientific Research in Information Systems.

Springer. 1a. edição.

[2] Araujo, Graeml, Ralha, Cidral. 2015. A Comunidade de

Pesquisa em Sistemas de Informação no Brasil na perspectiva

do Simpósio Brasileiro de Sistemas de Informação. Revista

Brasileira de Sistemas de Informação, 8, 1, (2015), 5-17.

[3] Tidd, J, Bessant, J., Pavitt, K. 2008. Gestão da Inovação.

Bookman. 3a edição.

[4] OECD/FINEP. 2004. Manual de Oslo - Proposta de Diretrizes

para Coleta e Interpretação de Dados sobre Inovação

Tecnológica.http://download.finep.gov.br/imprensa/manual_

de_oslo.pdf

[5] ANPEI - Associação Nacional de Pesquisa e

Desenvolvimento das Empresas Inovadoras. Mapa do Sistema

Brasileiro de Inovação.. http://www.anpei.org.br/mapa

[6] Ferraz, A.P.C., Belhot, R.V. 2010. Taxonomia de Bloom:

revisão teórica e apresentação das adequações do instrumento

para definição de objetivos instrucionais. Gestão da

Produção, 17, 2, (2010), 421-432.

[7] Drucker, P. 1998. The Discipline of Innovation. Harvard

Business Review, Nov-Dec. 1998.

[8] Christensen, C. 1997. The Innovator's Dilemma: When New

Technologies Cause Great Firms to Fail. Harvard Business

School Press.

[9] Schumpeter, J.A. 1909. On the Concept of Social Value. The

Quarterly Journal of Economics. 23(3):213-232.

[10] Nunes, M.A.S.N. 2013. Propriedade Intelectual e Industrial

em Jogos e noções sobre prospecção de tecnologia: em

direção à apropriação nacional/internacional dos ativos

brasileiros desenvolvidos para Jogos, DCOMP/PROCC -

Universidade Federal de Sergipe.

[11] LEI No 10.973, DE 2 DE DEZEMBRO DE 2004.

http://www.planalto.gov.br/ccivil_03/_ato2004-

2006/2004/lei/l10.973.htm.

[12] LEI Nº 13.243, DE 11 DE JANEIRO DE 2016.

http://www.planalto.gov.br/ccivil_03/_Ato2015-

2018/2016/Lei/L13243.htm

[13] LEI No 10.973, DE 2 DE DEZEMBRO DE 2004.

http://www.planalto.gov.br/ccivil_03/_ato2004-

2006/2004/lei/l10.973.htm

[14] LEI Nº 11.196, DE 21 DE NOVEMBRO DE 2005.

http://www.planalto.gov.br/ccivil_03/_ato2004-

2006/2005/lei/l11196.htm

[15] LEI Nº 9.279, DE 14 DE MAIO DE 1996.

http://www.planalto.gov.br/ccivil_03/leis/L9279.htm

9 https://www.sebraecanvas.com/#/

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

19

Modelagem de processos na gestão da segurança da informação: Um relato de experiência

Cristiano Tolfo Universidade Federal do Pampa

Av. Tiarajú, 810 - Bairro: Ibirapuitã - Alegrete – RS. CEP: 97546-550.

[email protected]

Fernando Della Flora Universidade Federal do Pampa

Av. Tiarajú, 810 - Bairro: Ibirapuitã - Alegrete – RS. CEP: 97546-550.

[email protected]

Maurício Martinuzzi Fiorenza Universidade Federal do Pampa

Av. Tiarajú, 810 - Bairro: Ibirapuitã - Alegrete – RS. CEP: 97546-550.

[email protected]

RESUMO A visão por processos proporciona o entendimento dos fluxos

informacionais e oportunidades de melhoria. Neste trabalho é

apresentado um relato de experiência de modelagem de processos

de negócios como uma ferramenta auxiliar na gestão da segurança

da informação. Foi utilizada a modelagem de processos, a notação

BPMN e a abordagem de modelar o estado atual e o estado futuro

de processos. A experiência ocorreu em um Núcleo de Segurança

da Informação em uma Universidade Federal. Os resultados

obtidos foram três processos readequados aos objetivos da gestão

da segurança da informação. Cita-se como lições aprendidas que a

modelagem do estado atual e do estado futuro de processos é

adequada para a análise, discussão e identificação de melhorias na

forma de gerenciar a segurança da informação. Conclui-se que a

perspectiva e a modelagem de processos de negócios auxiliam na

gestão de processos dessa natureza.

Palavras chave

Processos de negócio; modelagem de processos de negócios;

BPMN, gestão da segurança da informação.

ABSTRACT The process view provides the understanding of information flows

and improvement opportunities. This paper presents an account of

business process modeling experience as an auxiliary tool in the

management of information security. It was used the process

modeling, BPMN notation and approach of modeling the current

state and future state processes. The experience occurred in an

Information Security Center in a Federal University. The results

obtained were three processes reconfigured to the goals of

information security management. Remains as lessons learned that

modeling the current state and future state processes is suitable for

analysis, discussion and identification of improvements in the way

to manage information security. It is concluded that the

perspective and modeling business processes assists in the

management of such proceedings.

Keywords

Business Processes; Process Modeling; BPMN, Security

Information Management.

1. INTRODUÇÃO A gestão da informação do conhecimento tem a informação como

um bem intangível que pode gerar diferencial competitivo por

meio da aprendizagem organizacional que gera capacidade de

inovação. O mapeamento de processos de negócios é uma forma

identificar processos essenciais e permitir uma análise sistêmica

da organização para a gestão da informação e do conhecimento

com vista à capacidade de inovação [1]. A gestão da informação,

em suas atividades básicas de tratamento, criação, distribuição,

armazenamento e o uso da informação [2], envolve também a

visão por processos e a gestão da segurança da informação [3].

A aplicabilidade da visão por processos na gestão da segurança

da informação envolve o tema do presente trabalho e representa

um motivador para a apresentação do relato de experiência

vivenciado. Este artigo contempla um relato de experiência do uso

da modelagem processos com uma ferramenta para auxiliar na

gestão da segurança da informação.

O relato de experiência é baseado na aplicação prática da

modelagem BPMN [4] em processos de gestão da segurança da

informação em uma Universidade Federal. Os processos são

gerenciados por uma Coordenação de Segurança da Informação

que vem aprimorando a sua gestão por meio da técnica de

modelar o estado atual do processo para fins de análise e

identificação de melhorias que são representadas na modelagem

do estado futuro do processo que passa a ser implantado.

O presente trabalho está organizado em cinco seções, a primeira

seção introduz como tema e o relato de experiência, de forma

complementar na segunda seção enfatizam-se a perspectiva de

processo na gestão da segurança da informação e a possibilidade

de utilizar-se a modelagem BPMN para discutir e melhorar

processos. Na terceira seção é apresentado um relato de

experiência onde a modelagem de processos com BPMN foi

utilizada para identificar o estado atual de processos de gestão de

segurança da informação e propor melhorias em versões do estado

futuro destes processos. Nas últimas seções são apresentadas as

considerações, seguida das referências.

2. CONCEITOS RELACIONADOS

Por se tratar do uso da perspectiva e modelagem de processos

como uma ferramenta para auxiliar na gestão da segurança da

informação, nesta seção são apresentados conceitos e trabalhos

relacionados ao tema abordado.

2.1 Gestão da segurança da informação

A gestão da segurança da informação é objeto de estudo não

apenas em organizações de grande porte, mas também nas

pequenas e médias [5], [6]. Além disso, há o interesse em aliar a

pesquisa acadêmica com a aplicação prática [7], [8].

A segurança da informação é uma área do conhecimento dedicada

à proteção de ativos da informação contra acessos não

autorizados, alterações indevidas ou sua indisponibilidade [3]. A

gestão da segurança da informação inclui a prevenção a ataques,

redução de vulnerabilidades e a dissuasão de ameaças [9].

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

20

Na perspectiva de processos, a gestão da segurança da informação

é influenciada pela análise e redesenho de processos de negócios,

considerando aspectos informais, formais e técnicos [10].

2.2 Modelagem de processos de negócio

A modelagem de processos de negócios envolve o mapeamento, a

análise e a representação de processos com vista a sua

formalização, melhoria, comunicação e gestão. Trata-se de uma

atividade básica na gestão de processos de negócios, também

denominada de BPM – Business Process Management [11] e [12].

A notação BPMN [4] é uma forma de representação de processos.

A representação de processos utilizando a notação BPMN pode

ser aplicada em diferentes contextos e formas de gestão. O ciclo

PDCA [13] é uma forma de gerir a modelagem de processos, pois

envolve planejar e realizar melhorias, monitor e realizar ajustes

necessários ao longo do uso do processo.

Em iniciativas de gestão de processos de negócios, a modelagem

do estado atual do processo (AS-IS) possibilita a identificar como

e por quem o processo está sendo executado. A partir disso, é

possível ser realizados análise com vista a sua melhoria e

planejamentos para melhor atender aos objetivos organizacionais.

Setores responsáveis, tarefas e artefatos podem ser incluídos ou

removidos, indicadores de desempenho e de qualidade podem ser

definidos ou reavaliados, dentre outras questões que envolvem o

processo são identificadas e discutidas a partir da modelagem do

estado atual do processo.

As mudanças a serem realizadas no processo estudado a partir da

modelagem do AS-IS são projetadas em uma nova modelagem

que representa o estado futuro do processo, trata-se da modelagem

do TO-BE do processo. Na modelagem do TO-BE possibilita a

análise e discussão a respeito de como deverá ocorrer o processo

com as mudanças planejadas. Os trabalhos apresentados por [14],

[15]. [16], [17], [18], [19] mencionam o uso de AS-IS e TO-BE.

3. RELATO DE EXPERIÊNCIA Nesta seção é apresentado o relato de experiência em que a

modelagem de processos foi utilizada como uma ferramenta para

auxiliar na gestão da segurança da informação.

O relato apresentado neste trabalho envolve a experiência

vivenciada por uma Coordenadoria da Segurança da Informação

de uma Universidade Federal. A equipe da coordenação passou a

adotar a perspectiva e a modelagem de processos de negócios

utilizando a notação BPMN para representar, discutir e melhorar

as atividades que envolvem a gestão da segurança da informação.

A técnica adotada foi a de modelar o AS-IS e o TO-BE do

processo com vistas à melhoria contínua. O processo realizado

pela equipe é descrito na Figura 1. A modelagem do AS-IS e do

TO-BE envolve duas etapas compostas de atividades que podem

ser ajustadas ao contexto de aplicação de cada organização. A

ferramenta utilizada para modelagem foi o BizAgi Modeler [20].

Na etapa do AS-IS é definido qual o processo que será analisado,

normalmente são processos que estão sendo executado de maneira

informal e que precisam ser formalizados ou processos com

potencial de melhoria. A atividade de análise do processo consiste

em identificar quais são os atores envolvidos, as entradas e saídas,

as tarefas e subprocesso, os artefatos gerados ou requeridos e

demais informações que retratem como o processo está sendo

atualmente executado. A análise gera subsídios para a modelagem

do AS-IS do processo. Esta modelagem serve para representar

como o processo está sendo executado.

Figura 1. Etapas do AS-IS e TO-BE

As atividades de análise do processo e modelagem do AS-IS

promovem o seu entendimento, o que gera subsídios para iniciar-

se a discussão a respeito das normas, procedimentos, indicadores

envolvidos, bem como demais especificidades de cada processo.

Tendo identificado os pontos de melhoria no processo, inicia-se a

discussão a respeito destes pontos e a definição das mudanças

necessárias. As mudanças e melhorias são representadas no estado

futuro do processo que é modelado na versão TO-BE do processo.

Depois que a versão TO-BE é validada pela equipe, passa-se a

tratar da sua implantação, onde a versão AS-IS do processo é

substituída pela nova forma de executar o processo. Também cabe

ser definido a forma de monitoramento e controle do processo de

acordo com o contexto de aplicação do mesmo.

Entre os processos que foram modelados utilizando as etapas

descritas na Figura 1 cita-se o processo de Liberação de IP

público, o processo de testes de restauração e o processo de

tratamento de incidentes de segurança da informação. As

melhorias identificadas e propostas no AS-IS e no TO-BE de cada

um desses processos, estão descritas na próxima seção.

3.1 Resultados obtidos Nesta seção são apresentados como resultados obtidos as

melhorias identificadas e implantadas nos processos que foram

modelados utilizando a abordagem AS-IS e TO-BE. Para cada um

destes processos foram realizados três encontros de

aproximadamente duas horas cada um, envolvendo de 3 a 4

pessoas em cada encontro. No primeiro encontro foi discutido o

processo e identificado seus atores, entradas, saídas, artefatos e

tarefas. No segundo encontro foi apresentada a modelagem do

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

21

AS-IS e identificado pontos de melhoria. No terceiro encontro foi

apresentada a modelagem do TO-BE e validado o novo processo.

O processo de Liberação de IP público consiste em liberar o

acesso através da internet para um serviço ou host, que pode ser

um site institucional, um servidor ftp, ou outro que necessite estar

disponível para acesso de um usuário que esteja fora da rede da

universidade. Na Figura 2 é apresentado um recorte que mostra

parte da versão TO-BE do processo de liberação de IP público.

Figura 2. Recorte que mostra parte da versão TO-BE do

processo de liberação de IP público

As principais melhorias propostas para o processo de liberação de

IP público são apresentadas por [19] e descritas na Tabela 1.

Tabela 1 – Melhorias no processo de liberação de IP público.

Identificado no AS-IS Implantado no TO-BE

Necessidade de requisitos de

segurança para liberação de IP

Público.

Criação de um checklist de

requisitos de segurança.

Aplicação do checklist.

Necessidade de auditoria no

servidor que receberia o

endereço IP público.

Criação de um formulário de

auditoria.

Aplicação do formulário de

auditoria

Já o processo de testes de restauração consiste em realizar um

teste de restauração de uma instância do backup com o objetivo de

verificar que os dados que estão sendo armazenados serão

suficientes para o restabelecimento de um serviço em caso de

incidente. A Tabela 2 contém melhorias propostas ao processo.

Tabela 2 – Melhorias no processo de testes de restauração.

Identificado no AS-IS Implantado no TO-BE

Necessidade de garantir a

integridade dos backups

realizados.

Criação de novo procedimento

de validação dos testes de

restauração.

Aplicação do novo

procedimento de validação dos

testes de restauração.

Necessidade de validação do

backup por parte do

administrador do serviço.

Criação de procedimento de

validação a ser realizado pelo

administrador do serviço.

Validação do backup pelo

administrador do serviço.

O processo de tratamento de incidentes de segurança da

informação consiste em analisar, tratar, e responder a incidentes

de segurança da informação ocorridos dentro da rede da

universidade. A identificação das melhorias propostas para este

processo teve a contribuição de [21], [22] e [23]. Na Tabela 3

estão descritas as melhorias relacionadas ao referido processo.

Tabela 3. Melhorias no processo de tratamento de incidentes

de segurança da informação

Identificado no AS-IS Implantado no TO-BE

Necessidade de registro dos

incidentes de segurança por

meio de tickets.

Instalação de ferramenta de

gerenciamento de tickets.

Treinamento da equipe para

utilização da ferramenta.

Necessidade de identificar os

dispositivos envolvidos em

incidentes

Criação de ferramentas que

identifiquem os dispositivos

envolvidos em incidentes, com

base em informações

preliminares.

Aplicação dos sistemas

desenvolvidos

Necessidade de diminuir o

tempo de resposta e os danos

gerados por um incidente.

Implementação de sistemas que

automatizem o processo de

identificação e bloqueio de

dispositivos envolvidos em

incidentes.

Aplicação dos sistemas

implementados.

Além das melhorias propostas com a análise de cada um dos

processos descritos nesta seção, são considerados resultados

obtidos com a experiência o fomento na discussão e comunicação

entre os envolvidos nos processos, a busca pela melhoria contínua

e a identificação de melhores formas de realizar as tarefas

envolvidas na gestão da segurança da informação. Estes

resultados obtidos geram também lições aprendidas que são

apresentas na próxima seção.

3.2 Lições aprendidas A experiência vivenciada com a modelagem do AS-IS e do TO-

BE de processos de gestão da segurança da informação geraram as

seguintes lições aprendidas:

A notação BPMN é uma forma de representação de

processos de entendimento facilitado e adequada para a

representação de processos necessários para a gestão da

segurança da informação;

A modelagem de processos é uma técnica que facilita a

realização de discussões e análises a respeito de

melhorias na gestão da segurança da informação;

A gestão da segurança da informação pode utilizar a

técnica AS-IS e TO-BE para formalizar, comunicar,

melhorar e monitorar os processos envolvidos;

Aplicar a abordagem AS-IS e TO-BE faz com que as

necessidades de mudanças e melhorias sejam trazidas

para a pauta de discussão;

O uso da abordagem AS-IS e TO-BE fomenta a busca

pela melhoria contínua e aprendizado organizacional.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

22

Melhorias em processos de negócios podem envolver a

simplificação do processo, reduzindo atores, etapas,

tarefas e artefatos, por outro lado, há casos em que

melhorias envolvem aumentar a complexidade do

processo, sendo necessário incremento.

4. CONCLUSÕES A capacidade de inovação de uma organização está relacionada à

sua gestão do conhecimento o que passa pela adequada gestão da

informação, na qual a gestão da segurança a informação e a visão

sistêmica de processos se fazem necessários. Neste trabalho foi

apresentado um relato de experiência com o uso da modelagem de

processos como ferramenta para auxiliar na gestão da segurança

da informação. Verificou-se que a visão por processos é uma

perspectiva válida para a análise e melhoria de processos de

negócios envolvidos com a gestão da segurança da informação.

Os processos apresentados neste relato de experiência envolvem

atividades básicas de segurança da informação que estão presentes

em diferentes contextos organizacionais. Por outro lado, deve-se

considerar que cada organização define as próprias suas políticas

e modelos de gestão da segurança da informação de acordo com o

seu contexto, área de atuação e demais especificidades.

O relato apresentado neste trabalho retrata a experiência

vivenciada em um núcleo de segurança da informação de uma

Universidade Federal. Deve-se notar que modelagem de processos

com vista a auxiliar na gestão da segurança da informação não

fica restrita a organizações como a apresentada neste estudo. Ou

seja, a mesma experiência pode ser aplicada em quaisquer

organizações, de diferentes portes e segmentos de atuação, que

buscam melhorias na gestão da segurança da informação.

5. REFERÊNCIAS [1] STRAUHS, F. do R. et al. Gestão do Conhecimento nas

Organizações-Série UTFinova. 2012.

[2] CHOO, C. W.; ROCHA, E. A organização do conhecimento:

como as organizações usam a informação para criar

conhecimento, construir conhecimento e tomar decisões. São

Paulo: SENAC, p. 27-61, 2006.

[3] SÊMOLA, Marcos et al. Gestão da segurança da informação:

uma visão executiva. 2 ed. Rio de janeiro: Elsevier, 2014.

[4] OMG/BPMN. Object Management Group - Business Process

Model and Notation. Disponível em:

<http://www.bpmn.org>. Acesso em: 18 mar. 2015.

[5] YILDIRIM, E. Y. et al. Factors influencing information

security management in small-and medium-sized enterprises:

A case study from Turkey. International Journal of

Information Management, v. 31, n. 4, p. 360-365, 2011.

[6] DA SILVA NETTO, A.; DA SILVEIRA, M. A. P. Gestão da

segurança da informação: fatores que influenciam sua adoção

em pequenas e médias empresas. Journal of Information

Systems and Technology Management: JISTEM, v. 4, n. 3,

p. 375, 2007.

[7] AHMAD, A.; MAYNARD, S. B.; SHANKS, G. A case

analysis of information systems and security incident

responses. International Journal of Information Management,

v. 35, n. 6, p. 717-723, 2015.

[8] BASKERVILLE, R.; SPAGNOLETTI, P.; KIM, J. Incident-

centered information security: Managing a strategic balance

between prevention and response. Information &

Management, v. 51, n. 1, p. 138-151, 2014.

[9] NAZARETH, D. L.; CHOI, J. A system dynamics model for

information security management. Information &

Management, v. 52, n. 1, p. 123-134, 2015.

[10] DHILLON, G.; SYED, R.; PEDRON, C.. Interpreting

information security culture: An organizational

transformation case study. Computers & Security, v. 56, p.

63-69, 2016.

[11] CBOK, BPM. Guide to the business process management

common body of knowledge. Versão 2.0. 2009. Disponível

em: <www.abpmp.org>. Acesso em: 10 nov. 2012, 2009.

[12] APQC. American Productivity and Quality Control. Disp.

em: <http://www.apqc.org/pcf>. Acesso em: jun. 2010.

[13] WERKEMA, C. Métodos PDCA e DMAIC e suas

ferramentas analíticas. Rio de janeiro: Elsevier, 2013.

[14] JACOSKI, C. A.; GRZEBIELUCHAS, T.. Modelagem da

contratação de projetos utilizando os conceitos de BPM-

gerenciamento de processos de negócio. Produto &

Produção, v. 12, n. 3, p. 29-37, 2011.

[15] PEREIRA, M. F. et al. Modelo de produção de material

didático: o uso da notação bpmn em curso a distância DOI:

10.5773/rai. v8i4. 898. RAI: Revista de Administração e

Inovação, v. 8, n. 4, p. 45-66, 2011.

[16] LEYER, M.; HOLLMANN, M. Introduction of electronic

documents: How business process simulation can help.

Business Process Management Journal, v. 20, n. 6, 2014.

[17] MUCKENBERGER, E. et al. Gestão de processos aplicada à

realização de convênios internacionais bilaterais em uma

instituição de ensino superior pública brasileira. Prodution,

São Paulo, v. 23, n. 3, 2013.

[18] ISLAM, S.; AHMED, M. D. Business process improvement

of credit card department: case study of a multinational bank.

Business Process Management Journal, v. 18, n. 2, p. 284-

303, 2012.

[19] TOLFO, C.; FLORA, F. D.. A gestão de processos de

negócio como ferramenta de apoio na gestão da segurança da

informação. Revista GEINTEC: gestão, inovação e

tecnologias, v. V.6, p. 2756-2770, 2016.

[20] BIZAGI. BizAgi Modeler. Disp. em:

<http://www.bizagi.com/en/bpm-suite/bpm-

products/modeler>. Acesso em. Jun de 2014.

[21] PEREIRA. I. P.. Modelagem e otimização do processo de

tratamento de incidentes de segurança da informação do

NTIC/UNIPAMPA. 2013. Trabalho de Conclusão de Curso.

(Graduação em Ciência da Computação) - Universidade

Federal do Pampa. Alegrete, 2013.

[22] PEREIRA, I. B. ; TOLFO, C. ; FLORA, F. D. . Modelagem e

otimização do processo de tratamento de incidentes de

segurança da informação. In: Congresso Internacional

Conhecimento e Inovação - CIKI, 2013, Porto Alegre.

Parques tecnológicos e capital intelectual: Inovar em tempos

turbulentos, 2013.

[23] SCHUH, C. Análise e implantação de uma ferramenta de

gestão de tratamento de incidentes de segurança para o

NTIC/UNIPAMPA. 2015. Trabalho de Conclusão de Curso.

(Graduação em Ciência da Computação) - Universidade

Federal do Pampa, Alegrete, 2015.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

23

Orientações para implantação de um Plano de Conscientizaçãode Segurança da Informação na Maternidade Escola Januário

Cicco – UFRN

Carlos Eduardo de Barros Santos JúniorAnalista de TI ­ Suporte e Redes – EBSERH/MEJC/UFRN

Pós­graduando em Segurança de Redes deComputadores – Faculdade Estácio de Natal

Av. Nilo Peçanha, 270 Petrópolis, Natal­RN

[email protected]

Bruna Patrícia da Silva BragaCoordenadora e Prof.ª Pós­graduação em Segurança deRedes de Computadores – Faculdade Estácio de Natal

Av. Alexandrino de Alencar, 708 Alecrim, Natal­RN

[email protected]

RESUMOEste artigo mostra a necessidade de elaborar um Programa deConscientização em Segurança da Informação no HospitalUniversitário Federal, Maternidade Escola Januário Cicco(MEJC), a fim de minimizar os riscos relacionados a segurançadas informações neste ambiente, por meio de um processo bemestruturado e efetivo na prática. Isto deve ser realizadoprincipalmente, devido à importância e o sigilo relacionado aosprontuários médicos, confidenciais por lei, além de relatórios einformações pertinentes aos pacientes. Ao se atingir tais medidas,o hospital estará de acordo com os padrões normativosinternacionais como a International Organization forStandardization (ISO), as recomendações do Tribunal de Contasda União e as leis nacionais atribuídas à Administração PúblicaFederal. Ressalta-se a importância desta temática, visto a nãoocorrência efetiva, por grande parte dos servidores do hospital.Logo é pertinente avaliar este processo criando um plano quevenha orientar e conscientizar os usuários, principalmente quantoao contexto de políticas de segurança da informação local.

Palavras-ChaveConscientização; segurança da informação; hospital universitário.

ABSTRACTThis article shows the need to draw up an Awareness Program inInformation Security at the University Hospital Federal,Maternidade Escola Januário Cicco (MEJC), in order to minimizethe risks related to information security in this environmentthrough a well-structured process and effective in practice. Thisshould be done mainly because of the importance andconfidentiality related to medical records, confidential by law,plus relevant reports and information to patients. To achieve suchmeasures, the hospital will be in accordance with internationalregulatory standards such as the International Organization forStandardization (ISO), the recommendations of the Tribunal deContas da União and national laws attributed to the Federal PublicAdministration. We emphasize the importance of this issue, as theineffective occurrence for much of the hospital's employees. It ispertinent to evaluate this process by creating a plan that will guideand educate users, especially regarding the context of securitypolicies of local information.

CCS Concepts• Security and privacy➝ Formal methods and theory ofsecurity engines.

• Social and professional topics➝Medical information policy.

KeywordsAwareness; information security; universitary hospital.

1. INTRODUÇÃOCom a crescente transformação de processos que utilizam meiosfísicos (como o papel) em informações digitais processadas eintegradas a diversos sistemas, aumenta-se a preocupação com otratamento e o armazenamento destes dados. No âmbito da saúdenão é diferente, pois há recomendações do Conselho Federal deMedicina (CFM) em sua resolução nº 1.821 de 2007 [2], que tratasobre o termo segurança da informação em prontuários médicos.Além disso, caso este hospital seja público e federal, deve seguiros decretos e leis que abordam o assunto dentro da AdministraçãoPública Federal (APF), como o decreto nº 3.505 de 2000 daPresidência da República [1], o qual institui a Política deSegurança da Informação nos órgãos e entidades daAdministração Pública Federal; e o Guia de Boas práticas emSegurança da Informação do Tribunal de Contas da União – TCU[10].

Mesmo se o investimento em tecnologia para fomentar oscontroles em segurança for alto, como a contratação de mão deobra qualificada, compra de equipamentos adequados e umaPolítica de Segurança da Informação e Comunicação (POSIC)bem escrita, se o usuário final não estiver comprometido com acausa e não for capacitado adequadamente, este torna-se um elofraco na corrente da segurança [3]. Este é um controle relatado nanorma ABNT NBR ISO/IEC 27002:2005 [6], que traz na seção8.2.2 a necessidade de um processo de conscientização, educaçãoe treinamento em Segurança da Informação (SI).

Segundo Kim e Solomon [5], um forte programa de treinamento econscientização torna-se um dos melhores controles de Sistema deInformação, visto que, as pessoas são os ativos mais importantesda organização. E estas transmitem, processam e armazenaminformações, o que as tornam alvos de ataques [7]. Usuáriosconscientes e educados em segurança da informação serão aliadosessenciais na aplicação e multiplicação de uma POSIC.

2. PLANEJAMENTOÉ interessante que seja identificado o nível ao qual se encontra oHospital Universitário (HU) em relação ao desenvolvimento deuma política de segurança da informação e de conscientização, ouseja, se está em fase de elaboração, se já existem políticas, masforam esquecidas, ou se estas existem mas, no entanto não estãosendo implementadas [7]. Este artigo tem como propósito abordara importância sobre o real uso das políticas de segurança dainformação, que estão em fase de implantação no HospitalUniversitário, Maternidade Escola Januário Cicco (MEJC).

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

24

Por se tratar de um HU sem uma política de SI definida, estásendo seguido a recomendação do Ramos [7], de iniciarprimeiramente um processo de conscientização, a fim de poderestabelecer controles de segurança de forma participativa, com afinalidade de ter o apoio dos setores envolvidos na evangelizaçãoe divulgação da POSIC. Esta que está em processo de criação pelasede da Empresa Brasileira de Recursos Hospitalares (EBSERH),estatal que administra à MEJC através de sua filial no hospital.

2.1 Definir ObjetivosPara a implantação da campanha de conscientização é relevanteque seja tratado objetivos detalhados, a fim de ser mantido o focoe o alcance desejado com satisfação. Além de delimitar o escopopara um grupo pequeno, com a intenção de iniciar e aprender como processo finalizado [7]. Ao validar este pequeno grupo, épossível galgar para outros, até que seja completado toda aestrutura organizacional do HU. A indicação é que seja iniciadoatravés de um fluxo top-down, como o setor da gerênciaadministrativa ou superintendência, por exemplo, até chegar aosusuários que processam pouca informação relacionada àorganização. Segue alguns exemplos de objetivos claros econcisos:

Convencer a alta administração da importância do tema[7] – pois serão os exemplos a serem seguidos e pelo apoioque darão ao plano de conscientização e à POSIC;

Ensinar usuários sobre aspectos de segurança [5] – quandose entende o que se deseja proteger e a importância disso paraa continuidade e credibilidade do negócio o processo se tornamais convincente;

Informar usuários sobre tendências e ameaças emsegurança [5] – ao entender como são elaborados e utilizadosos ataques, enxergando as possíveis vulnerabilidades, acapacidade de se defender aumenta; e

Que usuários identifiquem e relatem problemas eincidentes de segurança [6] – para que se crie estatísticas ese compreenda onde estão os erros dos controlesimplementados e os riscos não tratados.

Para cada objetivo relatado, faz-se necessário um plano deconscientização adequado, de modo que seja passado o nívelde conhecimento suficiente para que os colaboradoresexerçam seus papeis e responsabilidades com a POSIC.

2.2 Avaliar o Nível Atual de Conscientização

Para que um programa de conscientização se mostre eficaz há anecessidade de medi-lo, de modo que se perceba se foi possívelalcançar os objetivos e qual o nível dos resultados. Para isso,existe a necessidade de avaliar o grau ao qual encontram-se oscolaboradores do HU antes e depois da aplicação do plano, a fimde perceber os acertos e erros da campanha, e assim melhorá-lo,seguindo o ciclo PDCA (Plan-Do-Check-Act / Planejar-Fazer-Verificar-Agir).

Esta avaliação pode ser feita através de vários métodos, um delesé a utilização de formulários online como o Google Forms, poispode alcançar qualquer colaborador com o uso da Internet e osdados são gerados em uma planilha digital, que pode ser usadapara elaboração de gráficos comparativos [4]. Segundo Ramos[7], este formulário deve ter “caráter mais objetivo, para evitar o'efeito entrevistador'”. Segue alguns exemplos de assuntos quepodem ser abordados nestes questionários: os pilares da segurançada informação – confidencialidade, integridade, disponibilidade,não-repúdio, autenticidade; as recomendações para uma senha

segura – quantidade mínima de dígitos, utilização de letras,números e caracteres; como observar um site seguro – uso docadeado, URL correta; porquê é primordial ter um antivírusinstalado e atualizado; a importância dos backups; a identificaçãode mensagens suspeitas; e o descarte seguro de informações [7].

Outro método pode ser as visitas de pessoas responsáveis peladivulgação da POSIC aos setores estabelecidos no escopo doplano de conscientização, a fim de verificar se existem post-it(papeis de lembretes) com senhas, se a mesa encontra-se limpa(sem informações restritas, dados de colaboradores oufinanceiros) quando o usuário está ausente [3].

2.3 Mapeando Papeis e Responsabilidades

Tanto Kim e Solomon [5], quanto Ramos [7] enfatizam anecessidade de que, cada colaborador saiba com detalhes osdireitos e deveres de seu cargo ou função, para que assim possaser definido os papeis e responsabilidades relacionados a SI.Entretanto, sabendo que a incumbência de julgar, se um site éseguro, não compete exclusivamente ao colaborador tendo emvista que muitas páginas web do Governo Federal não possuemum certificado digital válido (reconhecido pelos navegadores deinternet). O que torna difícil do usuário identificar se é ou nãouma página falsa [8]. Para que seja mapeado as necessidades deaprendizado de cada funcionário, Ramos [7] propõe os tópicosabaixo com as suas devidas responsabilidades:

Alta administração – é a responsável pela organização e pelaSI da instituição, no caso do HU pode ser definido pelocolegiado executivo e a superintendência. Estes devem estaratentos as medidas adotadas.

Gerência – tratado aqui como os chefes dos setores. Devemexigir o cumprimento das medidas de segurança.

Custodiantes – são aquelas pessoas que estão sob suasresponsabilidades informações as quais não lhes pertencem.Estas não são afetadas quando ocorre um incidente desegurança, por isso devem ser supervisionadas e treinadasadequadamente.

Profissionais de SI – são os profissionais de TI que tratam desegurança. Estes que devem trazer soluções com a intenção demitigarem problemas de segurança do hospital, através decontato periódico com a alta administração.

Auditoria – avalia se os usuários estão seguindo as políticas,se estas foram elaboradas conforme a necessidade do HU e seestão conforme as legislações, regulamentações e normas.

Usuários – Têm a obrigação de serem comprometidos com aspolíticas e de evitarem situações de risco inaceitável.

2.4 Mapeando Necessidades de Aprendizado

Após cada grupo de colaboradores terem as definições deresponsabilidades conhecidas, cabe agora, a compreensão do nívelde conhecimento necessário para executarem suas funções. Oschefes e a alta administração precisam de conhecimentos inerentesas suas colocações para que possam atuar como multiplicadores,replicando as informações e explicando-as, orientando esupervisionando os demais usuários, que precisam apenasconhecer as regras. Segue como os níveis de profundidade podemser classificados [7]:

Sensibilização: consciência a respeito da importância da SI;

Conhecimento: fixação de medidas de segurança e

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

25

circunstâncias de aplicação;

Entendimento: compreensão do conhecimento perante suaimportância, necessário para quem precisa supervisionar osdos níveis sensibilização e conhecimento.

Aplicação: habilidade para aplicar o conhecimento na soluçãode problemas, indispensável aos profissionais que tratam dotema.

Outro assunto recomendado para levar em consideração, além donível de aprendizado, é a adequação dos métodos utilizados nacampanha de conscientização e o local onde trabalha ocolaborador. O profissional que atua com o paciente precisa de umnível de conhecimento e treinamento diferenciado ao que atua nosetor de Recursos Humanos (RH) do hospital, por exemplo. Oumelhor, deve-se tratar a divulgação da POSIC e daconscientização no assunto de forma individual, por setor ou porcolaborador.

2.5 Buscar Apoio de Outros SetoresPara uma campanha que envolve todos os colaboradores daorganização, ainda que de forma paulatina, é importante que seconsiga apoio de setores externos ao da TI ou SI. Tentar fazertudo sem apoio diminui as chances de sucesso e ainda podem criarproblemas de relacionamentos dentro do HU, tendo em vista que adivulgação das informações é uma incumbência do setor decomunicação e a de treinamentos do setor de gestão de pessoas (àsvezes descrito, como neste artigo, no de RH). Estes setorestambém podem ser tratados como empresas ou pessoas externas,por intermédio de palestrantes conceituados e respeitados noassunto ou pela compra de ferramentas de análise de risco emsegurança da informação com módulos destinados à avaliação defuncionários.

O setor de RH, composto pela unidade de Desenvolvimento dePessoas é o responsável pela capacitação dos colaboradores, quepossui acesso aos contatos destes, as ferramentas de avaliação e dedistribuição de conhecimento, as quais auxiliarão em umacampanha de conscientização bem sucedida. Além de poderem“incluir indicadores de SI no desempenho de certas funções eincluir responsabilidades no descritivo de funções” [7:48]. O quese torna um aspecto motivacional para o aprendizado dosconteúdos relacionados aos temas de SI.

O setor de Comunicação Social é o que coordena as ações dedivulgação de notícias, comunicados e organização de eventosinternos. E engloba o setor de criação. Ambos podem dar apoiopara uma “estratégia de comunicação visual, slogans, mascotes,brindes e similares, elementos imprescindíveis em uma campanhade sucesso” [7:49].

3. PRODUZIR CONTEÚDONesta etapa do programa, após ter avaliado os funcionários,definir corretamente os níveis de conhecimento, conforme asfunções e entender as necessidades mapeadas, será possívelproduzir conteúdos adequados ao hospital. Ramos [7] comentaque para fazer isto eficazmente vale estruturar uma lista detópicos, detalhados em diversos níveis de profundidade.

Segue um exemplo em níveis de conhecimento sobre aimportância de um sistema de autenticação e identificação em umprocesso – logon.

Sensibilização: o acesso aos computadores estão condicionadossomente aos colaboradores que possuem uma identificação (ID)e uma senha única. E cada usuário é responsável pelo queacessa e navega na internet, não podendo passar suascredenciais a outro.

Conhecimento: todo logon deve ser único e as senhas nãodevem ser compartilhadas, pois são as que autenticam o usuárioa ter acesso ao sistema operacional (Windows, por exemplo).

Entendimento: o sistema de logon é essencial para que seconheça qual usuário está conectado e a qual computador, emregulamentação a ABNT NBR/ISO/IEC 27002 (2005) e asrecomendações do TCU [10]. Além de compreender sobre asrecomendações de senhas fortes.

Aplicação: padronizar o sistema de logon em autenticação eidentidade no Active Directory somente a funcionários queprecisem usar os computadores do hospital. Configurarpolíticas de horários e de navegação conforme função exercida.

Nos tópicos seguintes serão abordados assuntos para umacampanha baseada em práticas de mercado.

3.1 Engenharia SocialAs vulnerabilidades humanas são portas de entrada para a maioriados ataques de Engenharia Social [7], está sendo classificadacomo “qualquer ato que influencie uma pessoa a tomar uma açãoque pode ou não ser de seu melhor interesse” [9]. Segundo Kim eSolomon [5], normalmente as pessoas não querem se indispor,gostam de ser agradáveis, de ajudar, por isso passam informaçõesquando são persuadidas através das técnicas da engenharia social.Este é um tema que deve ser tratado em uma campanha deconscientização, principalmente para os funcionários dasrecepções, as secretárias e assistentes administrativos e do setor deRH, por tratarem com mais frequência com o público externo.

Segue alguns exemplos das possíveis vulnerabilidadesencontradas em comportamentos humanos [7], e que devem sertratados: curiosidade, forçar uma ação por parte do usuário; medo,usado para atemorizar e afetar o poder de julgamento da pessoa;vaidade, manipular a imagem que a pessoa tem a respeito de siprópria; ingenuidade, contar com ação por parte de um usuárioque não observa maldade em certos atos; preguiça, perceber que ocolaborador irá sempre escolher o caminho mais fácil; ignorância,explorar a falta de conhecimento; raiva, manipular reaçõesemocionais fortes. Situações estas encontradas neste HU.

Tamborim [9], afirma que há dois modos que um engenheirosocial pode se portar para explorar tais vulnerabilidades, um parainfluenciar o alvo (seis princípios de influência de Cialdini) eoutro para manipulá-lo (quatro principais táticas de manipulação).

Na influência podem exercer a função de autoridade, obedeceraquele que está no comando; ligação, criar obrigação com aquelesque gostamos; reciprocidade, tratar os demais como se é tratado;consistência, necessidade de comprometimento pessoal; validaçãosocial, o poder sobre o que os outros fazem (todos estão fazendo omesmo que o ataque quer que o alvo faça); escassez; apresentauma oportunidade que não pode ser desperdiçada.

3.2 PhishingÉ um ataque de engenharia social com o uso de tecnologia, noqual o atacante cria um endereço de email ou página Websemelhante à de uma organização confiável, para que o usuárioacredite se tratar de uma página verdadeira. Normalmente estaspáginas estão associadas a bancos ou redes sociais, o qual tem oobjetivo de roubar as credenciais dos usuários. As páginasverdadeiras normalmente são sites com HTTPS (uso criptografadoda comunicação e que possui um cadeado no local da URL),porém as páginas de phishing dificilmente vem com este“cadeado” ou se vem não existe um certificado válido, que mostraerro que a conexão não é segura.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

26

3.3 SenhasEste é um assunto pertinente tanto para questões corporativasquanto pessoais, o que auxilia na motivação do cumprimento daorientação do plano. Isto devido aos colaboradores usarem senhasem seus smartphones, internet banking, emails e redes sociais.

É também uma recomendação do TCU [10], que menciona algunscuidados, como: manter a confidencialidade das senhas; nãocompartilhar senhas; evitar registrar as senhas em papel;selecionar senhas de boa qualidade (mínimo de oito caracterescom letras, números e caracteres especiais); alterar senhastemporárias; trocar senhas periodicamente. E ainda que devem serevitadas senhas com algum nome ou sobre nome do usuário;datas; nome de membros da família; nome do computador, do HUou a sigla que o refere; nome de lugares ou objetos que podem servistos e palavras que constem em dicionários.

No plano é sugerido que se trate sobre como elaborar uma boasenha. A “senha tem que ser difícil de ser adivinhada por outrapessoa, mas de fácil memorização, para que não seja necessárioanotá-la em algum lugar” [10].

3.4 Outras RecomendaçõesRamos [7], fala sobre outros temas que podem ser abordadoscomo o de antivírus, firewall, atualização de software, backup,mesa limpa, descarte seguro e comunicação móvel.

4. DIVULGAÇÃO DOS CONTEÚDOSO segredo do sucesso de uma campanha de conscientizaçãotambém está em uma boa estratégia de divulgação, ou seja, emutilizar os meios corretos para expor as ideias e ter os diversostipos de audiências alcançadas. Observando qual o canal maiseficaz para cada público. Segue abaixo alguns exemplos [7]:

E-mail: forma mais utilizada para distribuir mensagens curtase médias, importante notificar sobre compromissos, divulgar alocalização da política (quando criada) e os canais paranotificar incidentes;

Painéis televisivos: painéis em TVs que passam informativos,estes podem ser um bom canal aos que trafegam pelo hospital;

Protetor de tela: pode ser usado com uma mensagem deconscientização;

Newsletter: pode ser usado para divulgar denúncias deincidentes bem-sucedidos;

Palestra: tem a função de sensibilizar e trazer compreensãomotivacionais para iniciativas de SI;

Brinde: objeto útil que possa ser usado no dia a dia doscolaboradores, algo que premie alguém por executarcorretamente o que lhe foi ensinado na campanha;

Programa de Estímulo: continuar a estimular o cumprimentodos que foram instruídos, com premiações ou vale-brindes;

5. MANTER A CAMPANHA ATIVAO esforço para criar uma campanha eficiente será valido, apenas,se esta for aplicada de forma contínua. Caso não, poderá dificultarpróximas campanhas ou o cumprimento da POSIC, pois trará umasensação de que os controles e assuntos apresentadas não eram tãoimportantes ou que foram somente para uma situação específica(como uma auditoria do TCU, por exemplo). Por isso, Ramos [7],incita que mudanças de hábitos devem ser construídas, a fim deque usuários utilizem os conhecimentos aprendidos e aplicadosalém do ambiente de trabalho, para que isto se torne algo comum

no cotidiano de cada colaborador.

Outra forma é engajar os colaboradores para que percebam aimportância do assunto, com o propósito de que sejam agentesmultiplicadores, que mostrem que podem ser cuidadosos emrelação à informação a eles outorgada. Valorizar ações individuaise em grupos através de brindes e prêmios e tratar para que asinformações ensinadas na campanha sejam divulgadas nosbastidores do HU, que sejam algo que todos comentem edivulguem.

Criar canais de comunicação direto (páginas na intranet, emails,telefone) com o setor responsável pela SI é fundamental para darcontinuidade ao processo, com o objetivo de ser possível relatarincidentes e que o tempo de resposta seja padronizado.

E sempre manter atualizada as campanhas com novos modelos deataques e atualizações internas da política.

6. REFERÊNCIAS[1] BRASIL. Decreto nº 3.505, 13 de junho de 2000. Institui a

Política de Segurança da Informação nos órgãos e entidades da Administração Pública Federal. Portal da Legislação. Disponível em: <http://www.planalto.gov.br/ccivil_03/decreto/d3505.htm>. Acesso em 09 fev. 2016.

[2] CFM. Resolução 1.821 de 2007. Disponível em: <http://www.portalmedico.org.br/resolucoes/cfm/2007/1821_2007.htm>. Acesso em 8 dez. 2015.

[3] DIÓGENES, Yuri; MAUSER, Daniel. Certificação Security+: da prática para o exame SYO-401. 3. ed. Rio de Janeiro: Nova Terra, 2015.

[4] GUELMAN, Luiz. Conscientização de usuários: como envolver seu público com a Segurança da Informação. Disponível em: <https://www.modulo.com.br/comunidade/entrevistas/616-conscientizacao-de-usuarios-como-envolver-seu-publico-com-a-seguranca-da-informacao>. Acesso em 15 dez. 2015.

[5] KIM, David; SOLOMON, Michael G. Fundamentos de segurança de sistemas de informação. Tradução por DanielVieira. Rio de Janeiro: LTC, 2014.

[6] NBR ABNT ISO/IEC 27002:2005. Tecnologia da informação — Técnicas de segurança — Código de prática para controles de segurança da informação.

[7] RAMOS, Anderson; Conscientização em Segurança da Informação como processo. In: CABRAL, Carlos (Org.); CAPRINO, Willian (Org.). Trilhas em Segurança da Informação: Caminhos e ideias para a proteçao de dados. Rio de Janeiro: Brasport, 2015. p. 39-57.

[8] ROHR, Altieres; O Papel do Usuário. In: CABRAL, Carlos (Org.); CAPRINO, Willian (Org.). Trilhas em Segurança daInformação: Caminhos e ideias para a proteçao de dados. Rio de Janeiro: Brasport, 2015. p. 142-168.

[9] TAMBORIM, Anderson. Hangout Xtreme Security - Engenharia Social: Exploração Face a Face. Disponível em:<https://www.youtube.com/watch?v=hWA3IkpfCL0>. Acesso em 05 fev. 2016.

[10] TCU. Boas praticas em Segurança da Informação. 4. ed. Brasília: TCU, 2012. Disponível em: <http://portal2.tcu.gov.br/portal/pls/portal/docs/2511466.pdf>. Acesso em 19 jun. 2015.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

27

Roteamento do Espaço Urbano em Dispositivos Móveis para Sugestão de Itinerários do Transporte Coletivo

Alexandre Soares da Silva Instituto Federal de Mato Grosso do Sul (IFMS) R. Treze de Maio, 3086, campus Campo Grande

Centro, Campo Grande - MS +55 (67) 3378-9500

[email protected]

Mateus Ragazzi Balbino Instituto Federal de Mato Grosso do Sul (IFMS)

R. Treze de Maio, 3086, campus Campo Grande Centro, Campo Grande - MS

+55 (67) 3378-9500

[email protected]

RESUMO

Em diversas cidades é comum a utilização de recursos passivos

como, por exemplo, cartazes para informar sobre itinerários do

serviço de transporte coletivo. Entretanto, devido à complexidade

da rede de transporte, falta de dinamicidade e refinamento no

projeto destes recursos, a informação fornecida por estes

dispositivos é limitada. Por isso, aplicações em Cidades

Inteligentes e Sistemas de Informação ao Usuário (SIU) são cada

vez mais utilizadas na otimização deste tipo de transporte. Nosso

projeto, intitulado SmartRoute, consiste no desenvolvimento de

um aplicativo móvel como alternativa para cidades que não

possuem recursos sofisticados na sugestão de rotas de transporte

coletivo urbano, aproveitando recursos de dispositivos móveis

populares Android – geolocalização, mapas, dentre outros – para

oferecer possíveis rotas, pontos e estações disponíveis para um

destino em particular.

Palavras-chave

Redes de Transporte Coletivo; Aplicações Móveis; Caminho

mínimo; Google Android.

ABSTRACT

In several cities is usual to use passive wayfinding devices, like

posters, for example, to provide information about public

transportation itineraries. Due to both the complexity of the

transport networks and the lack of sophistication in the design of

these displays, the information provided by these devices is

limited. So, Smart Cities and Information Systems to Users (ISU)

applications are increasingly employed in order to optimize this

kind of transportation. Our project, called SmartRoute, describes

the development of a mobile application as an alternative to cities

that do not have sophisticated resources which proposes public

transportation routes alternatives, combining popular mobile

devices features – geolocation, maps, among others – to offer

possible routes and available stops to a particular destination.

CCS Concepts

H.3.3[Information Storage and Retrieval]: Information Search

and Retrieval – Search process. H.3.5[Information Storage and

Retrieval]: Online Information Services – Web-based services.

Keywords

Public Transportation Network; Mobile Applications; Minimum

Path; Google Android.

1.INTRODUÇÃO No transporte urbano, em especial nas grandes cidades, a cada dia

nos deparamos com problemas de mobilidade urbana. Tráfego

intenso, falta de investimento em infraestrutura e baixa qualidade

dos serviços complicam o dia a dia dos usuários tornando-o

estressante [2]. Por outro lado, estimular a utilização do transporte

público é essencial para melhoria da mobilidade urbana,

principalmente porque pode reduzir a quantidade de veículos nas

ruas. As informações disponibilizadas pelas autoridades do

transporte coletivo geralmente utilizam meios passivos, como

cartazes ou monitores informativos para mostrar o número de

veículos previstos para um ponto ou horários estimados de

chegada. Contudo, devido à complexidade das redes de transporte

e falta de sofisticação destes meios, a informação fornecida é

geralmente limitada [5]. Apesar de ser possível descobrir rotas

através do número das linhas e ruas por onde cada ônibus transita,

o processo não é dinâmico, precisa ser analisado caso a caso.

Obter, a qualquer momento ou local, informações dinâmicas de

como chegar ao destino desejado (partindo do ponto onde se

encontra ou de um ponto qualquer informado) não é tarefa tão direta.

A evolução das tecnologias de informação e comunicação (TICs)

e a popularização dos smartfones possibilitaram executar

aplicativos que beneficiam-se da mobilidade como, por exemplo,

acesso a mapas, geolocalização, internet móvel, reconhecimento

de comandos por voz, sons, vibração, dentre outros recursos.

Vislumbrando que alguns destes recursos poderiam servir como

ferramenta para auxiliar um usuário a identificar uma rota,

criamos um projeto de iniciação científica e tecnológica para o

desenvolvimento de um aplicativo móvel intitulado SmartRoute,

cujo objetivo é possibilitar melhorias no acesso à informação

sobre transporte coletivo, sem a necessidade de adquirir um

dispositivo específico para tal. A plataforma alvo é a plataforma

Android, visando atender um número razoável de usuários em um

primeiro momento, pois mais da metade dos donos de smartfones

a utilizam [3].

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

28

2.TRABALHOS RELACIONADOS Relacionado à mobilidade urbana – mais especificamente a

respeito de aplicativos que atuam sobre a rede de transporte

coletivo – existem diversos trabalhos. Vieira et al. [10]

desenvolveram um aplicativo intitulado Unibus, voltado para a

cidade de Recife-PE. Este aplicativo utiliza informações providas

pelo aplicativo Twitter como base para recomendar rotas aos

usuários informando o tempo total do percurso. Utilizando uma

abordagem diferente, há outros trabalhos que levam em conta

informações estatísticas sobre o tráfego, como por exemplo os

trabalhos de Liu B. et al. [8] fazendo uso de GPSs instalados em

táxis na cidade de Pequim, na china; e também o serviço Google

Traffic que usa informações sobre o deslocamento de dispositivos

Android dos usuários criando um mapa do tráfego e excluindo

anomalias. Ainda com o auxílio de GPSs, Ferris et al. [6]

propuseram o aplicativo OneBusWay, oferecido para a cidade de

Seatle nos EUA. Acessível pela internet, permite aos usuários

pesquisar por rotas informando o identificador do ônibus, ponto

ou endereço. As informações são coletadas pela agência oficial de

transporte da cidade.

Já o trabalho criado por ChakchaiSo-In et al. [1], não apenas

informa as rotas, mas também recomenda, usando uma versão

otimizada do algoritmo de Dijkstra (utilizado para encontrar um

caminho mínimo entre origem e destinos), mas ao contrário deste

projeto, utiliza um servidor remoto e foi projetado para celulares

tradicionais, não smartphones. Seguindo a mesma linha, mas

aproveitando a plataforma Android e algumas APIS do Google

Maps, o aplicativo Busão [7] conta com uma arquitetura cliente-

servidor para disponibilizar a informação e usufrui do GPS do

smartfone do usuário para assistir na busca por rotas de ônibus.

O presente trabalho é voltado para cidades que não possuem

serviços de sugestão ou consulta dinâmica das rotas desejadas. O

principal objetivo é fornecer uma alternativa barata e intuitiva que

permita a recomendação de rotas simplesmente informando a

origem e destinos desejados, sem a instalação de GPSs nos

veículos (utiliza apenas o GPS interno do smartphone do usuário –

e não é um requisito obrigatório), manutenção de um servidor

remoto ou outros dispositivos. Ademais, adotamos o formato de

dados padrão JSON1, permitindo a qualquer órgão público ou

cidade que não possua o serviço cadastrar as linhas e utilizá-lo

sem necessidade de adaptações.

3.DESENVOLVIMENTO DO APLICATIVO

3.1Metodologia A ideia inicial do projeto surgiu da experiência pessoal dos

próprios autores ao tentar utilizar o transporte coletivo em

diferentes cidades. Partindo desta experiência, realizamos uma

pesquisa na lista de aplicativos disponíveis na loja virtual de

aplicativos do Google e sites com informações sobre as rotas de

transporte coletivo da região. Em relação aos aplicativos, não foi

encontrado nada que servisse para usuários da região pesquisada.

Por outro lado, a agência de transporte coletivo, em conjunto com

a prefeitura local, disponibiliza o nome das linhas de ônibus,

posição dos pontos e ruas por onde o ônibus passa em sequência a

cada rodada; mas estas informações são exibidas em uma página

HTML estática e não há funcionalidade para a busca de rotas.

1JSON (JavaScript Object Notation) é um formato de

dados leve para troca de informações.

Entrando em contato com o setor de tecnologia da informação do

departamento de trânsito local, o mesmo não demonstrou muito

interesse, talvez pelo fato dos sistemas serem terceirizados.

Percebendo a dificuldade em obter dados como um serviço

fornecido pelo próprio órgão responsável, decidimos por moldar a

entrada destes dados no formato JSON. Caso o departamento de

trânsito ou empresa de transporte responsável não forneça um

serviço com as rotas disponíveis, uma instituição, pequena equipe

ou até mesmo um desenvolvedor pode cadastrar as informações

consultando os recursos existentes, podendo depois disponibilizar

o aplicativo personalizado para a região cadastrada.

Como arquitetura do aplicativo optamos por utilizar uma

abordagem semelhante ao padrão MVC (Model, View, Controller

ou Modelo, Visão e Controlador), porém com algumas

modificações para uma melhor adequação ao estilo de

programação de aplicações para plataforma Android.

3.2Visão Geral do Aplicativo Os dados da rede de transporte processados são basicamente as

posições das estações de embarque/desembarque (latitude e

longitude ou endereço) e trajeto de cada uma das linhas com os

pontos de cada ônibus. O aplicativo permite traçar rotas de uma

determinada origem até um destino desejado obtendo

automaticamente, via geolocalização, onde está o ponto ou

estação de embarque e desembarque mais próxima do usuário. A

digitação de endereços utiliza o recurso auto completar,

auxiliando o preenchimento e sugerindo os endereços existentes

conforme o usuário digita, minimizando erros de digitação; além

disso é possível salvar as principais rotas já acessadas. As

informações sobre endereços e rotas são exibidas em um

componente do Google Maps, tornando a execução fluída e a

navegação mais intuitiva, pois já conta com uma interface bem

popular. Este componente pode ser acessado pelas APIS

fornecidas Google Play Services, disponíveis para a plataforma

Android. Estas APIs fornecem serviços baseados na localização

com qualidade mais alta e menor consumo de recursos, acelera

pesquisas off-line, dentre outras vantagens.

Durante a elaboração dos requisitos definimos alguns recursos

para melhorar a experiência do usuário (Figura 1), dentre eles

podemos citar:

Utilizar geolocalização para capturar a posição do

dispositivo e a partir dela fornecer os pontos ou estações

mais próximos deste ponto de partida.

Possibilidade de digitar o endereço de origem e destino,

com função autocompletar.

Poder salvar os endereços mais acessados como uma

lista de favoritos e acessar a qualquer momento

Traçar no mapa do Google Maps, utilizando as próprias

APIs do serviço, a rota completa do caminho desejado.

Além destes, o aplicativo conta também com funcionalidades

comuns em aplicações desta natureza como, por exemplo,

configurações de acesso a rede: wi-fi e redes móveis, ajuda sobre

o aplicativo, dentre outros.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

29

3.3Identificação da Rota Um dos maiores desafios do projeto foi definir como calcular e

traçar as rotas recomendadas. Pela API do Google Maps é

possível encontrar os pontos de origem e destino a partir de um

endereço qualquer digitado pelo usuário. O ponto de origem

default é configurado como posição geográfica atual do

dispositivo do usuário ao acessar o aplicativo, mas pode ser

alterado. A própria API do Google Maps pode lhe fornecer a

distância ou tempo de deslocamento de um ponto ao outro.

Entretanto, a rota de um ônibus não segue diretamente pelo menor

caminho possível ao ponto destino, existe um trajeto com vários

pontos de parada fora do caminho mais eficiente, pois cada ônibus

tem que passar por todos seus pontos de paradas e terminais de

embarque específicos entre o ponto de origem e destino. Desta

forma, o trajeto ao ponto de destino pode ser bem mais longo do

que o caminho indicado pela API do Google Maps.

Outra opção considerada foi utilizar o serviço Google Traffic para

transporte coletivo. Este serviço consegue, ao menos em algumas

cidades, mostrar a rota de uma linha de ônibus, inclusive

indicando pequenos trechos a pé até chegar a algum ponto de

parada. Apesar disso, é necessário não só uma chave para o

aplicativo, mas também cadastrar o IP2 que realizará o acesso aos

serviços do Google Traffic. Em outras palavras, dependendo da

rede onde o aparelho é conectado, é necessário acessar a página de

desenvolvedor do Google e cadastrar os IPs das redes utilizadas,

tarefa inviável de se exigir de um usuário comum. Pensamos em

criar um servidor dedicado para realizar estas consultas – tendo

assim um IP de serviços comum para todas aplicativos – mas tal

abordagem exigiria sempre a manutenção do servidor para efetivo

funcionamento do aplicativo, fugindo da ideia inicial de

simplicidade e baixo custo desejados.

Analisando novamente o problema, o que realmente desejamos é

encontrar a menor rota de ônibus cujo caminho parte do ponto

mais próximo da origem u e chega ao ponto mais próximo do

destino v passando por todos os pontos ou estações de embarque

entre u e v. Encontrar os pontos u ou v mais próximos da origem e

destino é uma tarefa relativamente fácil, partindo do endereço

informado pelo usuário, basta calcular a distância geográfica até

cada um dos pontos disponíveis, as menores distâncias

encontradas serão os pontos mais adequados. O problema então

2 Internet Protocol

resume-se a calcular a menor rota entre estes dois pontos (u,v)

passando por pontos intermediários durante o caminho (Figura 2).

Problemas de roteirização como este podem ser definidos como

problema do Caixeiro Viajante, que consiste em encontrar o

roteiro ou sequência de cidades a serem visitadas, minimizando a

distância total percorrida e assegurando que cada cidade seja

visitada exatamente uma vez. Naturalmente, é possível aplicar

uma série de restrições ao problema de modo a melhor representar

os diferentes impasses que envolvem roteiros de pessoas e

veículos como restrição de horários, capacidade dos veículos,

dentre outras restrições. Para o problema em questão, a solução

não é exatamente a solução para o problema do caixeiro viajante

mas sim do problema do Caminho Mínimo, um subproblema do

Caixeiro Viajante, que calcula o percurso de menor custo – seja

em distância ou tempo – entre dois ou mais vértices de um grafo.

Dentre uma variedade de algoritmos que calculam os caminhos

mínimo, estão, por exemplo, os algoritmos de Dijkstra e o

algoritmo de Floyd. Pelo fato de não precisarmos utilizar pesos

negativos optamos por utilizar o algoritmo de Dijkstra, que

basicamente faz uma visita a todos os vértices de um grafo,

iniciando no vértice origem, e sucessivamente encontra o nó mais

próximo, o segundo mais próximo e assim por diante, com o

auxílio de uma lista que atualiza os pesos das arestas do caminho

desejado até que todos os nós do grafo tenham sido visitados.

O problema é então tratado da seguinte forma (considerando

como equivalentes estações ou pontos): para cada estação vi cujo

trajeto vai até uma estação vj sem passar por outra no caminho, é

criada uma aresta com sentido (vi, vj) e peso igual a distância ou

tempo de deslocamento entre ambas estações. Isto é replicado

para todas as possíveis estações nas regiões entre a origem e

destino; deste conjunto é criado o grafo. Este grafo é submetido ao

algoritmo de Dijkstra tendo como vértice origem a estação mais

próxima do endereço inicial do usuário e como vértice destino a

estação mais próxima do endereço destino do usuário. A saída do

algoritmo é uma sequência de estações cuja soma das distâncias

(ou tempo médio) é a menor possível da origem ao destino. A

estrutura de dados que armazena o vértice possui ainda a latitude e

longitude do ponto e uma referência para a estação que representa.

Com o resultado do algoritmo de Dijkstra em mãos, a listagem de

vértices a serem percorridos na sequência, iteramos dentre os

elementos e para cada par calculamos a rota no mapa, integrando

então o desenho da rota no mapa com a API do Google Maps.

Pelo fato do traço ser renderizado com a própria API do mapa, o

usuário pode consultar ou modificar a rota como desejar sem

perder iteratividade (Figura 3).

Figura 2: Ilustração da ideia de mapear os caminhos dos

veículos para um grafo onde os nós são pontos de passagem

obrigatórios

Figura 1: Da esquerda para direita: menu lateral do

aplicativo; tela para digitação de endereços origem e destino; e

mapa mostrando os pontos e estações de embarque disponíveis

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

30

4.DISCUSSÃO DOS RESULTADOS O aplicativo ainda não foi disponibilizado ao público em geral,

pois está em fase final de testes. Na ampla maioria dos casos

testados pela equipe, a solução proveu uma sugestão de rota

eficiente. Por outro lado, ainda há margem para muitas pesquisas

e aprimoramento. Durante o seu uso percebemos que a solução

definitiva vai bem além da desenvolvida. Por exemplo, o

programa por padrão leva em conta a distância geográfica entre as

estações, mas nem sempre isso resulta em um deslocamento mais

eficiente, pois há variáveis influenciadoras como trânsito,

acidentes ou disponibilidade dos ônibus o que afeta diretamente

este tempo. Trabalhos como o de Pereira, F. e Barreto, J.[9] dão

uma visão mais ampla de problemas desta natureza. Mais um

ponto de melhoria é considerar o horário de chegada e partida de

cada ônibus em cada estação. Apesar de o aplicativo selecionar a

rota que parece ser mais eficiente, a espera por ônibus diferentes

em algumas estações pode influenciar no tempo total, Dean B.C.

fala mais detalhadamente deste problema no trabalho intitulado

Continuous-time dynamic shortest path algorithms [4]. Além

disso, é possível a existência de exceções especiais como, por

exemplo, se o ponto origem for muito próximo do destino. Nesse

caso, o roteiro completo do ônibus partindo da origem pode ser

mais custoso do que o trajeto a pé.

A divulgação do aplicativo internamente gerou interesse de alguns

pesquisadores em criar um módulo de acessibilidade para pessoas

cegas que permitisse informar e ser informado das rotas por sons

ou vibração. Outro projeto futuro é criar um dispositivo de baixo

custo que seja acoplado ao ônibus e rastreie sua localização em

tempo real via GPS, servindo para avisar via áudio ou vibração

quando determinado ônibus está perto do destino.

5.CONSIDERAÇÕES FINAIS Mesmo não sendo a solução definitiva, esperamos que o

aplicativo ao menos seja mais acessível e intuitivo do que as

fontes de informação atuais, onde o usuário deve relacionar

manualmente informações de fontes e formatos diversos. Com o

formato da entrada padronizado na notação JSON é possível

utilizar o aplicativo em qualquer região ou cidade, bastando que

alguém informe as rotas locais. Por fim, o fato do aplicativo rodar

sob uma plataforma popular com diversos recursos nativos

permite criar outras funcionalidades como, por exemplo,

comandos por voz personalizados ou avisos por áudio, que

ajudariam na inclusão digital para pessoas com problemas visuais.

6.AGRADECIMENTOS Agradecemos ao Instituto Federal de Educação, Ciência e

Tecnologia de Mato Grosso do Sul (IFMS) pelo apoio financeiro

ao projeto.

7.REFERÊNCIAS [1] Chakchai, So-in, Poolsanguan, S., Poonriboon, C.,

Veeramongkonleod, N. 2011. Ubiquitous Bus Mapping

System on Mobile Phone via Web Architecture. In Computer

Applications and Industrial Eletronics (ICCAIE), 2011 IEEE

International Conference on December 2011.

[2] Chaves, A. P., Steinmacher, I., Vieira, V. 2011. Social

networks and collective intelligence applied to public

transportation systems: A survey. In: VIII Simpósio

Brasileiro de Sistemas Colaborativos, Paraty-RJ, 2011

[3] Monteiro, Bosco J. 2012. Google Android: crie aplicações

para celulares e tablets. Casa do Código, 2012.

[4] Dean, B. C. 1999. Continuous-time dynamic shortest path

algorithms. PhD thesis, Massachusetts Institute of

Technology, 1999.

[5] De Marchi, M., Eriksson J., and F A. G. 2015. TransitTrace:

Route Planning using Ambient Displays. Proceedings of the

23rd SIGSPATIAL International Conference on Advances in

Geographic Information Systems. Article No. 67.ACM New

York, NY, USA, 2015. ISBN: 978-1-4503-3967-4. DOI=

http://dx.doi.org/10.1145/2820783.2820857

[6] Ferris, B., Watkins, K., Borning, A. 2010. Location-Aware

Tools for Improving Public Transit Usability. IEEE Pervasive

Computing. Vol. 9 no.1, pp. 13-19. Jan-Mar 2010.

[7] Leite, D., Rocha, J.H., Baptista, C. 2013. Busão: um Sistema

de Informações Móvel para Auxílio à Mobilidade Urbana

Através do Uso de Transporte Coletivo. IX Simpósio

Brasileiro de Sistemas de Informação - 2013 - João Pessoa,

PB. pp. 170 – 181.

[8] Liu, B., Wang, W. 2007. Travel time enabled bus route

navigation system experiment in Beijing. In: Proceedings of

the 2007 IEEE Intelligent Transportation Systems

Conference, Seatle, WA, USA, Sept. 30 - Oct. 3, 2007.

[9] Pereira, F., Barreto, J. 2011. easy-City: a route search system

for public transport users. 11 Proceedings of the Third

International Workshop on Middleware for Pervasive Mobile

and Embedded Computing. Article No. 8 .ACM New York,

NY, USA, 2011. ISBN: 978-1-4503-1065-9. DOI=

http://dx.doi.org/10.1145/2090316.2090324

[10] Vieira, V., Salgado, A. C., Tedesco P., Times, V. C., Ferraz,

C., Huzita, E., Chaves, A. P., Steinmacher, I. 2012. The

UbiBus Project: Using Context and Ubiquitous Computing to

build Advanced Public Transportation Systems to Support

Bus Passengers. In: Anais do VIII Simpósio Brasileiro de

Sistemas de Informação, 2012, São Paulo.

Figura 3: Exemplo de das rotas distintas traçadas pelo

aplicativo usando a própria API do Google Maps

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

31

Uso de Tecnologia NoSQL para Extração de Informação sobre Unidades de Exploração e Produção de Petróleo

Pedro Jardim Universidade Federal do Estado do Rio de Janeiro

(UNIRIO) Av. Pasteur, 458 -

Botafogo, Rio de Janeiro - RJ, 22290-240

+55(21) (21)3873-6400 [email protected]

Augusto Taboransky Universidade Federal do Estado do Rio de Janeiro

(UNIRIO) Av. Pasteur, 458 -

Botafogo, Rio de Janeiro - RJ, 22290-240

+55(21) (21)3873-6400 [email protected]

Geiza M.H. da Silva Universidade Federal do Estado do Rio de Janeiro

(UNIRIO) Av. Pasteur, 458 - Botafogo, Rio de Janeiro - RJ, 22290-

240 +55(21) (21)3873-6400

[email protected]

Paulo Ivson Instituto Tecgraf / PUC-Rio

R. Marquês de São Vicente, 225 - Gávea, Rio de Janeiro

- RJ, 22451-900

+55(21)(21)3520-4000

[email protected]

RESUMO

No processo de construção, manutenção e gerenciamento das

unidades de Exploração e Produção de Petróleo são utilizados

diversos sistemas, que armazenam os dados de diferentes formas;

como, por exemplo, bancos de dados relacionais e planilhas

eletrônicas. Devido a não integração ou interoperabilidade entre

os sistemas, é necessária a realização de várias consultas para

recuperação de uma determinada informação.

Este trabalho realizou o estudo da viabilidade da utilização de

um banco de dados NoSQL para armazenar, recuperar e analisar

os dados de diferentes fontes, e reuni-los em um único banco a

fim de inferir conhecimento sobre o processo de pintura de

plataformas de exploração de petróleo. Além disso, foi

desenvolvida uma aplicação em Java que visa transformar os

dados, disponibilizados em planilhas, em informações úteis,

objetivando a diminuição de custo e mão de obra. Os dados

escolhidos referem-se especificamente a plantas industriais e

foram cedidos pelo Instituto Tecgraf / PUC-Rio.

ABSTRACT

This project discusses the use of the NoSQL technology

to store and recover data about the process of painting petroleum

exploration platforms. The objective of this is to explore the use

of NoSQL to gather and analyze data from different sources, and

store them in a single database, to infer knowledge about this

domain. The chosen data was about the area of petroleum

exploration platforms, provided by Instituto Tecgraf. This data is

stored in several Excel spreadsheets. In this work it is presented a

study of this technology as for the development of the Java

application, which seeks to transform the data from these

spreadsheets into applicable information, like the cost and

estimated time for each project.

CCS Concepts

• Information systems ~ Data analytics • Information systems~

Extraction, transformation and loading

Palavras-chave

NoSQL, Banco de Dados, Planilhas Eletrônicas, Cálculo pintura

anticorrosiva.

1. INTRODUÇÃO Com o advento da Internet, iniciou-se uma nova era na qual não

só empresas são geradoras de dados, mas, sim, toda e qualquer

pessoa conectada à rede, fornecendo uma grande quantidade de

dados que não estão estruturados e são oriundos de diferentes

fontes. Muitas empresas utilizam diferentes planilhas para

armazenar e gerar dados, o que pode tornar complicado o

cruzamento de dados entre elas, posto que para se obter essas

informações é necessária a programação nas mesmas, ou uma

pessoa realizar este processamento manualmente.[6]

Estas informações podem ser essenciais para as empresas,

principalmente para levantamento de informações cruciais para os

seus negócios1.

A transformação de dados puros em informação está presente

no ramo de Business Intelligence (BI), um sistema que combina

junção, armazenamento, processamento dos dados e aplicação de

conhecimento sobre estes de forma a extrair informações

importantes para a tomada de decisão1.

Este trabalho não tem como objetivo criar um BI completo,

mas, sim, abordar uma parte de sua estrutura, o tratamento e

armazenamento de dados, sobre áreas e elementos de uma

plataforma de exploração de petróleo, seguido da extração de

informação para ajudar a análise sobre o custo de manutenção

anticorrosiva em plataformas offshore. Será apresentado como foi

realizada a migração de dados gravados em planilhas para um

banco de dados NoSQL, o processamento e análise dos mesmos a

fim de extrair informações, que serão visualizadas em planilhas e

gráficos.

Este artigo está organizado da seguinte forma: a seção 2

apresenta os fundamentos teóricos; a metodologia aplicada está

presente na seção 3; na seção 4 encontram-se os resultados;

finalizando, a conclusão e trabalhos futuros na seção 5 e

agradecimentos na seção 6.

2. DESCRIÇÃO DO PROBLEMA A pintura anticorrosiva em plataformas offshore, ou seja, em alto-

mar, é necessária, pois evitará ou dificultará futuras corrosões.

Entretanto, esse planejamento é uma tarefa árdua, devido à

complexidade da logística a ser aplicada, por exemplo, à limitação

de pessoas que podem estar embarcadas. Do ponto de vista

econômico, é importante destacar que durante o processo de

pintura a plataforma permanece inoperante, o que afeta

diretamente a produção e o lucro da empresa. Além disso, há o

1http://searchcio.techtarget.com/podcast/BI-tools-vs-Microsoft-

Excel-spreadsheets, acessado em 12/02/2015

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

32

custo do equipamento a ser utilizado e o de pessoal, referente aos

trabalhadores embarcados. Considerando todos esses fatores,

torna-se importante a realização onshore, em terra, da simulação e

do levantamento das operações a serem realizadas, possibilitando

a obtenção de uma estimativa prévia do custo da operação.

A divisão da plataforma pode ser descrita da seguinte forma:

ela é dividida em módulos, que são segmentados em setores, estes

são decompostos em zonas, que são fragmentados em sistemas

que, por fim, contém seus elementos, que possuem diversos

valores, como nome, área, diâmetro etc.

A figura 1 apresenta a divisão de um módulo. Cada andar

desse módulo é denominado um setor. Cada setor possui

diferentes zonas, delimitadas pelos retângulos verdes na figura.

Uma zona é definida pela área que uma pessoa consegue medir

em um mês. E, por fim, cada zona possui seus diferentes sistemas,

que são, em suma, o tipo de peça (e.g. tubulações, teto, suportes,

etc.).

3. METODOLOGIA Esta seção apresenta o processo para extração, consolidação

e carga dos dados, além das métricas utilizadas para inferência de

novas informações.

3.1 Obtenção dos Dados Os dados utilizados para esse trabalho estavam distribuídos

em várias planilhas Excel, onde uma parte dos dados foi inserida

automaticamente e outra parte manualmente. Cada planilha

representa um setor de um módulo; cada linha desta, um

elemento; e cada coluna, seus atributos. A Figura 2 é um exemplo

da planilha trabalhada.

Foram utilizados apenas os atributos necessários para

extração da informação, ver seção 3.3.

3.2 Extração, Consolidação e Carga Para o início do trabalho, é necessário a carga inicial no

banco de dados. Como mencionado anteriormente, alguns dados

foram inseridos manualmente nas planilhas, ocorrendo a inserção

de anomalias, como por exemplo variações na forma de escrita

das zonas dos setores: Zona A e zona A; e Zona B Alta e Alta B

Zona. Para o tratamento dos dados, as planilhas foram analisadas,

pelos autores, e foi detectado o que deveria ser corrigido. Com

esta informação foi criado um filtro de correções no programa,

que migra os dados das planilhas para o banco dados,

possibilitando a limpeza nestes dados, eliminando anomalias e

discordâncias. O processo de migração é realizado linha por linha

das planilhas.

O banco de dados escolhido foi o MongoDB2 do tipo

Document store[3]. Document stores também são chamados de

”aggregate databases”, pois em um documento pode-se

armazenar toda a informação em apenas um registro. Este possui

um foco para Big Data, grandes quantidades de dados e consultas

eficientes, pois a extração de dados é simples, sem a utilização de

joins, sendo necessária apenas uma forma mais lógica para

aplicações.

3.3 Recuperação dos dados e processamento

Com os dados tratados e gravados no MongoDB, o próximo

passo é recuperá-los e processá-los de forma a gerar novas

informações. O objetivo é conseguir realizar cálculos nos dados

de diferentes setores, dos diversos módulos, e inferir métricas a

fim de descobrir o gasto total de cada módulo em variação ao

número de trabalhadores, e o quanto é pago por hora para cada

um.

Vale ressaltar que para calcular a área de cada módulo é

realizado um agrupamento dos elementos de cada módulo. Além

disso no início da aplicação o usuário deve inserir, através de uma

interface, o total de trabalhadores e o custo por hora de cada

trabalhador. Para os cálculos foram utilizadas as seguintes

métricas:

1. Tratamento de superfície

WJ-2 = (onshore: 1 USP/m2 ou offshore: 1,25 USP/ m2) x

115 x m2 x R$ 0,2

WJ-3 = (onshore: 0,75 USP/ m2ou offshore: 1 USP/ m2) x

115 x m2 x R$ 0,8

O somatório das duas equações acima dá o custo total do

tratamento de superfície.

2. Aplicação da tinta de alto desempenho

Valor = R$ 112,00 x m2= total da tinta

3. Equipamento

Máquina de hidrojato = Aluguel do Equipamento x dia

Preço do Aluguel do Equipamento= R$ 3250,28

2 https://www.mongodb.com/, acessado em 13/03/2016.

Figura 1. Visualização da divisão de um módulo.

.

Figura 2. Exemplo da planilha de um módulo

.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

33

4. Custo por trabalhador

Salário = horas trabalhadas por dia x valor da hora x dia

Legenda:

USP - Unidade de Serviço de Pintura.

WJ - Forma de tratamento da superfície utilizando-se um

hidrojato3.

m2 - metros quadrados da superfície calculada.

dia = dias de trabalho.

O custo total da pintura é dado por: Tratamento de

superfície + Aplicação da tinta de alto desempenho +

Equipamento + Preço por trabalhador. Para este cálculo foi

utilizado o metro quadrado de cada elemento de uma plataforma

de exploração de petróleo. Somando as áreas de cada elemento

por setor, temos a área total de um setor, e a soma dos setores leva

ao total do módulo. Esta área é utilizada para o cálculo de custo.

Além disso, para adquirir o custo total é necessário saber o quanto

será gasto com o custo de mão de obra, que é dado pelo tempo de

trabalho dos funcionários. Como não foi informada a métrica

correta, foi considerado uma estimativa de que 30 trabalhadores

levam 30 dias para concluir a pintura de um módulo, esta

informação foi fornecida por uma pessoa experiente na área.

Desta forma é calculado quanto tempo N trabalhadores levariam

para pintar um módulo, sendo N um número inteiro e positivo.

Vale ressaltar que as métricas levantadas são apenas para

simulação, pois, tratando-se de dados industriais de áreas

estratégicas, é muito difícil a obtenção de informações reais. E o

calculo de tempo de trabalho, levando em conta o número de

trabalhadores é limitado, pois está sujeita a limitações físicas e

espaciais do ambiente.

4. RESULTADOS Após a implementação da aplicação, dado que a superfície a ser

aplicada a tinta anticorrosiva é constante, foram realizadas

simulações com diferentes valores para a quantidade de

trabalhadores e valor pago a esses por hora, a fim de calcular o

custo total da pintura e a quantidade de dias que tal obra poderá

levar.

Comparando os gráficos das simulações presentes nas figuras

3 e 4, é perceptível que o custo total é praticamente o mesmo, mas

a quantidade de dias necessários é menor (simulação figura 4), ou

seja, o trabalho seria finalizado com antecedência. A contratação

de mais trabalhadores agiliza a pintura, diminuindo assim o tempo

de aluguel das máquinas. Essa é uma informação importante para

a empresa, pois torna possível prever gastos, entre outras métricas.

Sendo que, para realizar a manutenção e pintura anticorrosiva da

plataforma, esta fica parada, não realizando seu trabalho. Assim,

descobrir que há uma forma de diminuir o tempo de ócio é de

grande relevância, pois, mais uma vez vale ressaltar, essa é uma

área muito sensível financeiramente, onde o volume gerado deve

rodar pelas casas dos milhões.

3 http://www.ebah.com.br/content/ABAAABu-oAI/pintura-

industrial, acessado em 12/03/2016.

5. CONCLUSÃO E TRABALHOS

FUTUROS Após a realização do trabalho foi percebida a possibilidade da

utilização da tecnologia NoSQL para migrar dados de planilhas

Excel para um banco de dados não relacional e realizar a extração

das informações de forma eficiente.

Não ser necessária a criação de um esquema de dados

relacional foi fundamental para a rápida implementação da

aplicação[1]. Essa flexibilidade em relação aos bancos de dados

relacionais fez com que a fase inicial do trabalho fosse mais

eficiente, pois o banco consegue se adaptar facilmente aos dados

fornecidos[2]. Para modelar os dados apresentados em um banco

de dados relacional, seriam necessárias, no mínimo, 5 tabelas:

Módulo, Setor, Zona, Sistema e atributos. Logo, seriam 5 tabelas

para manter, além de que, para retirar informações como a área de

setores por módulo, a operação de join ocorreria entre 3 tabelas.

Outro fator importante é com relação aos atributos, já que muitos

elementos não possuem certos atributos, pois não fazem parte de

suas características. No modelo relacional, a tabela atributos teria

Figura 3. Simulação com os parâmetros:

Trabalhadores: 30; Salário: R$50,00/dia; Duração: 30

dias.

Figura 4. Simulação com os parâmetros:

Trabalhadores: 50; Salário: R$50,00/dia; Duração: 18

dias

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

34

muitos campos null, enquanto no MongoDB o campo apenas não

é registrado, poupando espaço em disco.

O tempo de consulta, query, é eficiente, levando frações de

segundo para execução. Em contra partida, o processo para gravar

os dados é mais lento, por se tratar de uma grande quantidade de

dados. No teste realizado foram lidos 27 arquivos, totalizando 37

MB. O tempo de leitura de todos esses arquivos, mais o

tratamento dos dados, que é feito pela aplicação como descrito na

sessão 3.2, e finalmente, o processo de gravação levaram 56

segundos em média. Mas, dado que esse processo é realizado

apenas uma vez, não desqualifica a utilização da tecnologia.

Apesar das métricas levantadas serem simulações, é

consenso que qualquer resultado positivo no uso de uma nova

tecnologia, mesmo que mínimo, gera uma grande margem de

lucro ou diminuição de custo para a empresa em situações reais.

Como sugestão para trabalhos futuros, tendo os dados

completos sobre as plataformas e as métricas reais, há a

possibilidade de se estender essa ferramenta para responder outras

consultas, ou cruzar dados entre tabelas distintas, isto é, o

programa ler duas tabelas distintas e, através dos tipos

encontrados nas colunas, retornar os possíveis cruzamentos entre

as mesmas.

Vale observar que os dados aqui usados foram extraídos

apenas de uma das plataformas de petróleo. Um possível trabalho

futuro poderia comparar diferentes plataformas de petróleo

existentes.

Como mencionado anteriormente, este é apenas um

protótipo, com apenas algumas consultas e sem uma interface

amigável; sendo assim, o desenvolvimento de uma interface

amigável para o usuário com a possibilidade de criar outras

consultas que abrangem outros atributos seria interessante,

realizando assim um Business Intelligence.

6. AGRADECIMENTOS

Ao Instituto Tecgraf, pela parceria na pesquisa dos dados

utilizados para o estudo de caso neste trabalho; e

Ao Ministério da Ciência, Tecnologia e Inovação, ao

Ministério da Educação, ao CNPQ e à CAPES, pela oportunidade

de dois autores participarem do programa Ciência Sem Fronteiras,

no qual adquiriram conhecimento e experiência fundamentais para

a confecção deste trabalho.

7. REFERENCES

[1] Atzeni, P. (2013) “The relational model is dead, SQL is dead,

and I don’t feel so good myself.”

http://www.orsigiorgio.net/wp-content/papercite-

data/pdf/ajo*13.pdf, Acessado em março 2016.

[2] Bartholomew, D. (2010) “SQL vs NoSQL. “

http://www.linuxjournal.com/article/10770, Acessado em

março 2016.

[3] Fowler, Adam ( 2015 ), NoSQL for dummies, Wiley Brand,

1th edition.

[4] Nance, C. (2013) “ NoSQL vs RDBMS, why there is a room

for both.” http://sais.aisnet.org/2013/Nance.pdf, Acessado

em março 2016.

[5] Sharma V. and Dave M. (2012). SQL and NoSQL Databases.

International Journal of Advanced Research in Computer

Science and Software Engineering, pages 20-27.

http://www.ijarcsse.com/docs/papers/8_August2012/Volume

_2_issue_8/V2I800154.pdf, Acessado em março 2016.

[6] Sherman, R. (2009). “BI tools vs. Microsoft Excel

spreadsheets” http://searchcio.techtarget.com/podcast/BI-

tools-vs-Microsoft-Excel-spreadsheets, Acessado em março

2016.

.

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

35

III Encontro de Inovação em SI, Florianópolis, SC, 17 a 20 de Maio de 2016

Índice Remissivo

AAbreu, Christian R.C. de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Alvarez, Guilherme M. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Araujo, Renata M. de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

BBalbino, Mateus R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28Braga, Bruna P.S. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

CCeci, Flavio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Correia, Wagner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

FFiorenza, Maurício M. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20Flora, Fernando D. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20Freitas, Leonardo S. de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

GGonçalves, Alexandre L. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8

IIvson, Paulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

JJardim, Pedro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

LLima, Gabriel A.C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4

MMedina, Bruno F. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Meidanis, João . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Momo, Marcos R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Moura, Arnaldo V. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

OOliveira, Marcello R. de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

OSantos Júnior, Carlos E.B. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24Silva, Alexandre S. da . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28Silva, Celmar G. da . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Silva, Geiza M.H. da . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

TTaboransky, Augusto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32Tolfo, Cristiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

ZZanchett, Pedro S. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

36