23
o estudarmos comunicação de dados, verificaremos que este é um órgão de staff num organograma hierárquico de telecomunicações, onde, numa linha imediatamente inferior, estão todas as “teles” que conhecemos: telegrafia, telefonia, televisão e nosso maior objeto de estudo, o teleprocessamento (TP). Figura 1 – A hierarquia das teles: Fonte: O autor (2015). Teleprocessamento é um termo que foi inicialmente instituído pela IBM, mas, hoje, já é uma palavra de domínio público e quer dizer Processamento de Dados feitos a distância. Como os recursos computacionais eram muito caros, havia a necessidade de compartilhar o hardware e software de um ambiente mainframe pontos remotos. Um mainframe é um computador de grande porte, uma máquina poderosa com memória grande e capacidade de processamento extremamente rápida. É utilizado para grandes aplicações empresariais, científicas ou militares, nas quais o computador deve administrar quantidades maciças de dados ou muitos processos complexos (LAUDON; LAUDON, 2006). Figura 2 – Instalação típica da década de 70 – com mainframe e front-end-processor: Fonte: O autor (2015).

Redes

Embed Size (px)

DESCRIPTION

Redes de computadores, tipologia de redes, equipamentos.

Citation preview

o estudarmos comunicação de dados, verificaremos que este é um órgão de staff num organograma hierárquico de telecomunicações, onde, numa linha imediatamente inferior, estão todas as “teles” que conhecemos: telegrafia, telefonia, televisão e nosso maior objeto de estudo, o teleprocessamento (TP).

 

Figura 1 – A hierarquia das teles:

Fonte: O autor (2015).

 

Teleprocessamento é um termo que foi inicialmente instituído pela IBM, mas, hoje, já é uma palavra de domínio público e quer dizer Processamento de Dados feitos a distância. Como os recursos computacionais eram muito caros, havia a necessidade de compartilhar o hardware e software de um ambiente mainframe  pontos remotos.

Um mainframe é um computador de grande porte, uma máquina poderosa com memória grande e capacidade de processamento extremamente rápida.  É utilizado para grandes aplicações empresariais, científicas ou militares, nas quais o computador deve administrar quantidades maciças de dados ou muitos processos complexos (LAUDON; LAUDON, 2006).

 

Figura 2 – Instalação típica da década de 70 – com mainframe e front-end-processor:

 

Fonte: O autor (2015).

 

Na década de 80, mesmo com o advento dos microcomputadores e suas redes de computadores, os CPDs descentralizados se mantiveram por mais alguns anos, até chegarmos à década de 90, quando, após um processo de downsizing, muitos destes CPDs regionais foram simplesmente fechados, o processamento voltou a ser centralizado e desta forma continua até os dias de hoje. Downsizing é o processo de transferência de aplicações de grandes computadores para computadores menores.

Em algumas empresas, redes cliente/servidor com PCs já substituíram mainframes e minicomputadores. O downsizing tem o potencial de reduzir custos de computação, porque a memória e a capacidade de processamento de um PC custam uma fração de seus equivalentes em um mainframe. A decisão de partir para o downsizing envolve muitos fatores além do custo do hardware de computador, dentre eles a necessidade de novo software, treinamento e talvez novos procedimentos organizacionais. 

 

Figura 3 – Processamento descentralizado – com o CPDs regionais atualizando os dados e disponibilizando os relatórios de processamento de seus pontos de venda/agências regionais:

 

Fonte: O autor (2015).

 

O barateamento dos recursos de telecomunicações foi possível levar a pontos distantes e remotos os dados necessários para o bom funcionamento de uma filial, agência, escritório ou qualquer outro braço da empresa. Com o fechamento dos CPDs descentralizados de algumas empresas em algumas cidades, os profissionais tiveram que se reciclar para trabalharem em outras plataformas, ou tiveram que mudar para grandes centros onde a plataforma de computadores mainframe ainda persiste até os dias de hoje.

Assim como o ser humano se utiliza de uma língua com os seus caracteres para grafar e se comunicar, os computadores também empregam uma codificação própria composta de caracteres que compõem uma determinada tabela, seja ela ASCII, EBCDIC ou outros menos conhecidos.

 

ASCII (American Standard Code for Information Interchange) - Código Padrão

Americano para Intercâmbio de Informação. Muito utilizado nos

microcomputadores, desenvolvido em 1963 - ASCII63 e em 1968 - ASCII (7

bits).  TABELA SIMPLIFICADA: A-O (41-4F)  P-Z (50-5A)  0-9(30-39) a-o (61-

6F)  p-z (70-7A)

 

EBCDIC (Extended Binary Coded Decimal Interchange Code) - Código BCD

Ampliado para Intercâmbio -  IBM.  Código de 8 bits que deu origem à teoria de

que o BYTE seria um conjunto de 8 bits.  Claro que esta definição de BYTE só

tem validade para o código EBCDIC, que é composto de 8 bits, mas podemos

ter BYTE de 7, 6 e até 5 bits, conforme o código utilizado. TABELA

SIMPLIFICADA: A-I (C1-C9) J-R (D1-D9) S-Z (E2-E9) a-i (82-89) j-r(92-99) s-

z(A2-A9)

 

Exemplo: o caractere A em EBCDIC => Hexa C1 => 1100 0001.

Ao consultarmos a tabela EBCDIC, verificamos que o hexadecimal C1 corresponde ao caractere A. Convertendo C1 hexadecimal para binário, teremos a sequência de bits 11000001.

 

Figura 4 – Tabela EBCDIC com alguns caracteres:

IPOS DE TRANSMISSÃO

 

Transmissão Serial

Na transmissão serial, os bits dos caracteres são transmitidos um a um, em “fila indiana”, através de uma única linha de dados. Alguns equipamentos que se comunicam por transmissão serial são modems e mouses. Apesar de lenta, a comunicação em série tem como vantagem o limite do comprimento do cabo, sendo este tipo de transmissão utilizada nas principais aplicações em comunicação de dados, notadamente em redes de computadores.

 

Transmissão Paralela

Todos os bits de um byte ou caractere são transmitidos simultaneamente. Este tipo de transmissão é o que ocorre internamente nos computadores, ou ainda entre estes e os periféricos próximos como impressoras. Em transmissões com grandes distâncias não se recomenda a utilização de cabos paralelos, pois a perda de sinal ocorre neste tipo de dispositivo.

 

Saiba Mais: 

Leia o Capítulo 8 do livro Sistemas de Informações Gerenciais (LAUDON; LAUDON,

2006), disponível na Biblioteca Digital.

 

Ritmos de Transmissão

A principal diferença entre a transmissão síncrona e assíncrona é a presença de um mecanismo que pode ser comparado a uma batida de coração do ser humano. Nos equipamentos, este mecanismo denomina-se “clock” ou relógio de transmissão.

 

Transmissão Assíncrona

Apresenta um tempo não constante entre os caracteres transmitidos.  Não existe sincronismo entre o transmissor e o receptor.  O transmissor envia um bit de START para informar que o caractere será transmitido e no final deste são inseridos dois bits informando o seu final, ou seja, 2 bits de STOP.

 

Figura 5 – Fórmula da TX assíncrona:

Fonte: O autor (2015).

 

Neste modo de transmissão, a perda de tempo, espaço e recursos é grande, o que se denomina deoverhead, que pode ser calculado conforme podemos verificar pela fórmula apresentada acima. A perda é de cerca de 27% se o caractere for EBCDIC.

 

Transmissão Síncrona

Neste modo de transmissão existe um sinal comum ao transmissor e ao receptor, os bits de sincronização (sinal de clock) criam um padrão de tempo que é utilizado pelo equipamento de transmissão (TX) e o equipamento de recepção (RX).

 

Modos de Operação

Neste item verificaremos que existem equipamentos e aplicações que utilizam cada modo de operação distintamente, conforme as definições.  O mais importante de destacar é que a diferença dos modos de operação não está ligada à configuração física, ou seja, a quantidade de fios que compõe determinado sistema de comunicação de dados, e sim à maneira com que os equipamentos se comunicam:

 

Simplex

Na comunicação simplex, o sinal parte de um ponto A e vai até o ponto B e não retorna. Parece não existir tal comunicação aplicada em computação nos dias de hoje, mas imagine um determinado sensor de temperatura instalado numa piscina e que esteja indicando a uma central as temperaturas, de minuto a minuto. A transmissão de televisão e rádio também podem ser considerados Simplex, embora esteja surgindo uma certa interatividade na televisão digital.

 

Half-duplex

A comunicação se dá em ambas as direções, porém não simultaneamente. Ora o sinal vai de A para B, ora o sinal vai de B para A. Este modo de operação pode ocorrer a 2 ou 4 fios. O exemplo típico de um equipamento de comunicação de dados que executa transmissão half-duplex é o radioamador.

 

Full-duplex

A comunicação se dá em ambas as direções simultaneamente. Este modo de operação pode ocorrer a 2 ou 4 fios. O exemplo típico de um equipamento de comunicação de dados que executa transmissão full-duplex é o telefone. 

Multiplexação

A técnica de multiplexação consiste em dividir a capacidade do meio de transmissão em fatias, com a finalidade de transportar informações de equipamentos de origens distintas (ALVES, 1992).

Para Marçula e Benini Filho (2005), multiplexação é o processo de transmitir vários canais (ou seja, vários canais) em um único meio de comunicação, gerando com isso uma economia no sistema de comunicação. 

 

FDM – Frequency Division Multiplexing (Multiplexação por Divisão de Frequência): Nesta técnica de multiplexação, cada subcanal é designado para operar em uma frequência específica, permitindo sinais advindos de vários equipamentos, cada qual de uma linha distinta de menor velocidade. O sinal de cada canal modula uma portadora distinta.  Esta técnica foi largamente utilizada no sistema telefônico, mas foi substituído pela multiplexação TDM.

 

Figura 6 - FDM:

 

Fonte: O autor (2015).

 

TDM – Time Division Multiplexing (Multiplexação por Divisão de Tempo): diferentes canais são transmitidos em um mesmo meio de comunicação. O tempo é dividido em frações e dentro deste intervalo ou fração de tempo são organizados os pacotes de informações. Os quadros têm comprimento fixo, com a utilização de buffers. Na TDM é necessário que exista em sinal de sincronismo, chamado Delimitador de Quadro, que indique ao receptor qual o canal que está sendo transmitido no momento. Os espaços de tempo são fixos para cada sinal transmitido.

 

Figura 7 - TDM:

 

Fonte: O autor (2015).

STDM – Statistical Time Division Multiplexing (Multiplexação por Divisão de Tempo Estatística): é uma multiplexação TDM que aloca as fatias de tempo

dinamicamente.  Quando um canal secundário não tiver nada a transmitir, não será alocado nenhum tempo para ele, permitindo que esse tempo seja utilizado por outros canais. Canais secundários que precisam transmitir informações em um determinado momento devem receber as porções de tempo maiores que outros canais (MARÇULA; BENINI FILHO, 2005).

 

Multiplexador é um dispositivo que habilita um único canal de comunicação a transportar transmissões de dados de múltiplas fontes simultaneamente. O multiplexador divide os canais de comunicação de modo que possam ser compartilhados. Ele pode seccionar um canal de alta velocidade em múltiplos canais de velocidades mais baixas ou atribuir a cada fonte de transmissão uma pequena fatia de tempo para usar o canal de alta velocidade (LAUDON; LAUDON, 2006).

 

Meios de Transmissão

Quando era criança, você fez um telefone com duas latinhas de massa tomate e uma

linha?  Lembra que a linha tinha que ficar retesada para que as ondas sonoras

pudessem se propagar até o outro lado? Pois o princípio é esse mesmo!

Para Marçula e Benini Filho (2005), os meios de comunicação são classificados em meios físicos e meios não-físicos, ou não-guiados. Meios físicos são: cabos coaxiais, pares trançados e fibras ópticas; os meios não-guiados são: rádio micro-ondas e satélites.

Os meios de transmissão diferem-se de acordo com algumas variáveis, como:

velocidade, potencial para conexão ponto a ponto ou multiponto.

Segundo Alencar (2001), as principais características dos canais guiados são:

 

 

Confinamento da onda eletromagnética do transmissor ao receptor por meio de

guia.

 

Adequado para áreas de campo eletromagnético intenso.

 

Aplicações em enlaces privados de comunicações

 

Possibilidade de contornar obstáculos.

 

Atenuação, dependendo de frequência, tipo e tamanho do material-guia.

 

Necessidade de haver casamento de impedâncias para evitar perdas por

reflexão.

 

Alto custo de implementação, no caso de micro-ondas.

 

Enlaces em pequenas distâncias.

 

 

Cabo Coaxial

Meio físico que possui dois condutores em um mesmo eixo. Um condutor de cobre

interno (cabo rígido) coberto por uma camada plástica isolante chamada dielétrico e

sobre ele uma malha de cobre externa (conhecida como blindagem de cobre).  Sobre

a blindagem, existe uma cobertura plástica para proteção e isolamento elétrico

(isolação externa).

Os cabos coaxiais são classificados de acordo com o seu tamanho e pela resistência

que o cabo oferece à passagem de corrente elétrica.  Podem ser:

Cabo coaxial fino (thinnet): o código mais comum é o RG-58, com espessura

externa de 6 mm e impedância de 50 ohms.  O comprimento máximo permitido

é de 185 metros e até 30 equipamentos conectados em um segmento de cabo.

Cabo coaxial grosso (thicknet): os códigos mais comuns são RG-11 e RG-8,

com espessura externa de 12 mm e impedância de 50 ohms. Permite 100

equipamentos conectados num segmento de cabo, com comprimento máximo

de 500m. Em relação ao cabo coaxial fino é mais grosso, pesado e caro.

 

Figura 8 – Nomenclatura de meio de TX:

Fonte: O autor (2015)

 

Cabo coaxial, semelhante ao utilizado para televisão a cabo, consiste em um fio de cobre de grande espessura, com isolamento, que pode transmitir um volume de dados maior do que o par trançado. É usado, frequentemente, no lugar do par trançado para conexões importantes de uma rede de telecomunicações, porque é um meio de transmissão mais rápido, menos sujeito a interferências, com velocidade médias de até 200 megabits por segundo. Entretanto, o cabo coaxial é grosso, difícil de utilizar na fiação de muitos edifícios e não suporta conversações telefônicas analógicas. Quando computadores e outros dispositivos são mudados de lugar, o cabo tem de ir junto (LAUDON; LAUDON, 2006).

 

Figura 9 - Cabeamento  

Fonte: : Disponível em: www.cabeamento_guiabeltelecom.com.comunidades.net. Acesso em: 15 jun. 2015.

Cabo par trançado

É composto por condutores de cobre enrolados (trançados) um em volta do outro.  Essa configuração de construção serve para anular a interferência gerada pelo ruído de diafonia (conhecida comocrosstalk). Utiliza conectores RJ-45 e podem ser blindados (shilded) e não blindados (unshielded).

Par trançado, o mais antigo meio de transmissão consiste em fios de cobre de diâmetro muito pequeno trançados aos pares. Grande parte dos sistemas telefônicos de um edifício baseia-se em pares trançados, instalados para processar comunicação lógica, mas também podem ser usados para comunicações digitais.  Embora seja de baixo custo e já esteja instalado, o par trançado é relativamente lento para transmitir dados, e a transmissão em alta velocidade causa uma interferência denominada linha cruzada.  Contudo, novos softwares e hardwares têm aumentado a capacidade de transmissão do part rançado, tornando-o útil para redes de computadores locais e de grande abrangência, além de sistemas de telefonia (LAUDON; LAUDON, 2006).

Arquitetura ou Modelo OSI

A Arquitetura OSI, que neste momento vamos chamar de Modelo de Referência OSI, ou simplesmente Modelo OSI, se baseia numa proposta desenvolvida pela ISO (International Standard Organization) como um primeiro passo para a padronização internacional dos protocolos empregados nas diversas camadas (DAY and ZIMMERMANN, 1983, apud TANENBAUM, 2003).

O Modelo OSI tem sete camadas. Costumo dizer aos meus alunos que, para nunca esquecer a sequência das camadas do Modelo OSI, basta lembrar da palavra AASTREF. Mas por que sete camadas?  Algumas razões para se chegar a sete camadas, segundo Tanenbaum (2003), são:

Uma camada deve ser criada onde houver necessidade de um grau de abstração adicional.

Cada camada deve executar uma função bem definida. A função de cada camada deve ser escolhida tendo em vista a

definição de protocolos padronizados internacionalmente. Os limites de camadas devem ser escolhidos para minimizar o

fluxo de informações pelas interfaces. O número de camadas deve ser grande o bastante para que as

funções distintas não precisem ser desnecessariamente colocadas na mesma camada e pequeno o suficiente para que a arquitetura não se torne difícil de controlar.

 

As funções das camadas do Modelo OSI são:

 

Camada 1 (Física) – Esta camada cuida dos aspectos inerentes a transmissão de bits por um canal de comunicação. A voltagem representa os bits 1 e 0, podendo ser half-duplex ou full-duplex. Trata também da forma como a conexão é iniciada e encerrada, além dos aspectos mecânicos e elétricos dos conectores que fazem a transmissão dos dados. Os meios de transmissão (TX) são identificados neste momento, podendo ser guiados e não guiados. A camada física é a base de todas as outras redes, no entanto, vale aqui esclarecer que não existe uma camada mais importante do que outra. Todas as camadas são de igual importância, tendo em vista que com a falta de uma delas o funcionamento da transmissão é comprometida.

 

Camada 2 (Enlace) – A camada de enlace prepara o ambiente bruto de transmissão numa linha ou canal livre de ruídos e erros não identificados na camada de rede. Nesta etapa, o transmissor divide os dados de entrada em FRAMES, ou quadros de dados, e os transmite sequencialmente. Sendo o serviço confiável, o receptor envia ao transmissor um quadro de confirmação com caracteres de controle positivo denominados ACK (Acknowledgement). Neste momento é tratada, também, a questão da regulação do tráfego para informar o transmissor do espaço em buffer do receptor.  A camada de enlace converte o fluxo de dados sem formatação advinda da camada física num fluxo de quadros a ser utilizado pela camada de redes.

 

Camada 3 (Rede) – Nesta camada são tratados aspectos voltados a roteamento de pacotes. O roteamento pode ser realizado de forma estática ou dinâmica. Havendo muitos pacotes trafegando na rede ao mesmo tempo, poderá haver congestionamento. O tratamento deste problema é realizado nesta camada. É verificado se o protocolo do transmissor é compatível no tráfego destes pacotes, devido à sua formação e tamanho.

 

Camada 4 (Transporte) – Uma das funções desta camada é receber os dados da camada anterior e dividi-los em pequenas unidades, determinando o tipo de serviço a ser fornecido à camada de sessão.  A camada de transporte é uma verdadeira camada fim a fim, que liga a origem ao destino.   Os principais protocolos desta camada é o TCP, que garante a entrega dos pacotes, e o UDP, que não garante a entrega dos pacotes.

 

Camada 5 (Sessão) – O controle de diálogo, o gerenciamento de token e a sincronização são funções aqui assumidas por esta camada. A sincronização está associada à questão do check-point restart, onde há recuperação da transmissão em caso de problemas.

 

Camada 6 (Apresentação) – Nesta camada é realizada a verificação de sintaxe e semântica das informações transmitidas.  Segundo Tanenbaum (2003), para tornar possível a comunicação entre computadores de diferentes representações de dados, as estruturas de dados a serem intercambiadas podem ser definidas de maneira abstrata, junto a uma codificação padrão que será usada durante a conexão. A camada de apresentação gerencia essas estruturas de dados abstratas e permite a definição e o intercâmbio de estruturas de dados de nível mais alto (por exemplo registros bancários).

 

Camada 7 (Aplicação) – Para Tanenbaum (2003), a camada de aplicação contém uma série de protocolos comumente necessários para os usuários. Um protocolo de aplicação amplamente utilizado é o HTTP (HyperText Transfer Protocol), que constitui a base para a World Wide Web.  Quando um navegador deseja uma página Web, ele envia o nome da página desejada ao servidor, utilizando o HTTP.

No mundo virtual da internet, muitos problemas ocorrem em função da falta de segurança.  Assim como em uma loja de departamentos, algumas medidas são necessárias nas redes de computadores, tais como:

Firewalls: equivalentes ao controle de acesso na loja real, por intermédio de porteiros, vigias, limites físicos e portas.

Política de segurança: equivalente ao modelo de conduta do cidadão visitante na loja e de procedimentos por parte dos funcionários para garantir o bom comportamento social dos visitantes e da integridade do patrimônio da loja.

Separação entre rede pública (servidores externos) e rede interna: equivalente à separação entre a parte pública da loja, onde os visitantes circulam, e a parte privada, onde somente os funcionários transitam.

       

Tanenbaum (2003) cita algumas pessoas que podem causar problemas de segurança:

Um cracker testando o sistema de segurança de alguém. Um executivo de vendas tentando descobrir a estratégia

de marketing do concorrente. Ex-funcionário se vingando por ter sido demitido. Um contador desviando o dinheiro de uma empresa. Um vigarista roubando números de cartão de crédito.

 

O termo "arquitetura de segurança" pode ser empregado com conotações diferentes, para isso, uma arquitetura de segurança consiste na definição de conceitos e de terminologias que formam um esquema básico para o desenvolvimento de um protocolo (PINHEIRO, 2007).

No caso específico da internet, a arquitetura de segurança deve fornecer um conjunto de orientações voltadas para o projeto de redes e desenvolvimento de produtos e não apenas para os protocolos. Isso sugere que a arquitetura de segurança da internet englobe não apenas definições de conceitos como faz o padrão ISO/OSI, mas inclua adicionalmente orientações mais específicas sobre como e onde implementar os serviços de segurança na pilha dos protocolos da internet. Esta visão alinha-se com a filosofia que enfatiza a interoperabilidade entre sistemas, produzindo padrões que tendem a ser menos genéricos que os padrões estabelecidos pelo modelo OSI.

s Riscos e Ataques

De acordo com a pesquisa da American Society for Industrial Security (ASIS), realizada em 1997, mais de 57% das 172 empresas pesquisadas sofreram tentativas de apropriação indevida de informações privadas e, em um período de 17 meses, mais de 1.110

incidentes de roubo de propriedade intelectual foram documentados, resultando em prejuízos da ordem de 44 bilhões de dólares. Outra estimativa mostra que, somente nos Estados Unidos, as perdas representaram algo em torno de 200 bilhões de dólares em 2000, envolvendo processos, pesquisa e desenvolvimento de manufaturas.

Nakamura (2003) define hackers como sendo aqueles que utilizam seus conhecimentos para invadir sistemas, não com o intuito de causar danos às vítimas, mas sim como um desafio às suas habilidades. Eles invadem os sistemas, capturam ou modificam arquivos para provar sua capacidade e depois compartilham suas proezas com seus colegas.

Crackers, por sua vez, são elementos que invadem sistemas para roubar informações e causar danos às pessoas, principalmente com o advento da internet.

Diversos estudos foram realizados sobre os hackers, e o canadense Marc Rogers chegou ao seguinte perfil: indivíduo obsessivo, de classe média, de cor branca, do sexo masculino, entre 12 e 28 anos, com pouca habilidade social e possível história de abuso físico e/ou social. Os hackers podem ser: Script kiddies (iniciantes), Cyberpunks (mais velhos, mas ainda anti-sociais), Insiders (empregados insatisfeitos), Coders (os que escrevem sobre suas proezas), White hat (profissionais contratados),Black hat (crackers) e Gray hat (hackers que vivem no limite entre o White hat e o Black hat).

A engenharia social é a técnica que explora as fraquezas humanas e sociais, em vez de explorar a tecnologia. Ela tem como objetivo enganar e ludibriar pessoas assumindo uma falsa identidade, a fim de que elas revelem senhas ou outras informações que possam comprometer a segurança da organização.

Outra modalidade é o ataque físico quando os equipamentos, o software ou os dispositivos são roubados. O acesso direto ao sistema é uma das facetas dos ataques físicos. Medidas de prevenção devem ser tomadas neste caso, tais como o controle de acesso ao prédio.

Os vírus, worms e cavalos de Troia são uma ameaça constante às empresas, resultando em diversos tipos de problemas mais sérios devido à possibilidade de serem incluídos também em ataques distribuídos.

Criptografia

A palavra criptografia, de origem grega, significa escrita secreta. A arte da criptografia teve a contribuição dos militares, diplomatas e os amantes. Nas guerras, em organizações militares, as mensagens que deveriam ser criptografadas, conhecidas como texto simples, eram transformadas por uma função que é parametrizada por uma chave. Em seguida, a saída do processo de criptografia, conhecida como

texto cifrado, é transmitida normalmente através de um mensageiro ou rádio.

É isso! O processo de criptografia continua no mesmo esquema atualmente. Uma mensagem é criptografada por uma chave e descriptografada no seu destino por outra chave.

A arte de solucionar mensagens cifradas é chamada de criptoanálise, a arte de criar mensagens cifradas é a criptografia, a arte de solucioná-las é a criptoanálise e todo o seu estudo é a criptologia.

Tanenbaum (2003) descreve a fórmula C = Ek (P) para denotar que a criptografia do texto simples P, usando a chave K, gera o texto cifrado C. Da mesma forma, P = Dk (C) representa a descriptografia de C para se obter o texto simples outra vez.

Na criptografia, é utilizada a técnica de algoritmos para a sua execução. A ideia de que o criptoanalista conhece os algoritmos e que o segredo reside exclusivamente nas chaves é chamada de princípio de Kerckhoff.  O princípio de Kerckhoff diz:  “Todos os algoritmos devem ser públicos; apenas as chaves são secretas”. O sigilo do algoritmo está na chave, e seu tamanho é uma questão muito importante no projeto.

Os métodos de criptografia são divididos em duas categorias:

Cifras de substituição: por exemplo, cada letra ou grupo de letras é substituído por outra letra ou grupo de letras.

Cifras de transposição: reordenam as letras, mas não disfarçam.

 

Autenticação

Para Kurose (2003), autenticação é o processo de provar a própria identidade a alguém. Como seres humanos, autenticamo-nos mutuamente de muitas maneiras: reconhecemos mutuamente nosso rosto quando nos encontramos, reconhecemos mutuamente nossa voz ao telefone, somos autenticados pela autoridade alfandegária que nos compara à foto em nosso passaporte.

Ao fazer a autenticação pela rede, as partes comunicantes não podem confirmar em informações biométricas, como a aparência visual ou a voz característica. A autenticação deve ser feita somente na base de mensagens e dados trocados como parte de um protocolo de autenticação. Em geral, um protocolo de autenticação deveria rodar antes que as duas partes comunicantes rodassem qualquer outro protocolo de autenticação (por exemplo, um protocolo de transferência de dados confiável, um protocolo de troca de tabelas de roteamento ou um protocolo de e-mail). O protocolo de autenticação estabelece primeiramente as identidades das partes de maneira

satisfatória para ambas; somente após a autenticação as partes se lançam à tarefa que têm em mãos.

 

Integridade

Quando você preenche um cheque e assina, quando você fecha um contrato de compra ou venda ou quando você preenche um recibo e assina, está colocando a sua assinatura, que está registrada em algum cartório, não é mesmo?  Pois é, no mundo digital ocorre a mesma coisa, há necessidade de se saber se determinado documento, carta, registro, contrato, enfim, o conteúdo de um documento é de uma determinada pessoa.  Para isso existe a assinatura digital.

Certificação Digital

Os certificados digitais são um dos elementos que têm como base a criptografia de chave pública, utilizado por esses protocolos, e são essenciais em um modelo de segurança, como o do ambiente cooperativo, no qual diversos níveis de acesso devem ser controlados e protegidos.

Na criptografia de chave pública, as chaves públicas de usuários ou sistemas podem ser assinadas digitalmente por uma autoridade certificadora (Certification Authority – CA) confiável, de modo que a utilização ou publicação falsa dessas chaves pode ser evitada. As chaves públicas assinadas digitalmente por uma autoridade certificadora confiável compõem, então, os chamados certificados digitais.

Um certificado digital pode conter diversas informações que determinam o nível de confiabilidade do certificado:

Nome, endereço e empresa do solicitante. Chave pública do solicitante. Validade do certificado. Nome e endereço da autoridade certificadora. Política de utilização (limites de transação, especificação de

produtos etc.).

Para Nakamura (2003), os certificados digitais são criados pelas autoridades certificadoras, que têm a função de criar, manter e controlar todos os certificados por elas emitidos, incluindo a invalidação de certificados comprometidos ou expirados. A manutenção da CA envolve a segurança de sua própria chave privada, que, caso seja descoberta ou roubada, comprometerá todo o sistema. Se isso ocorrer, será necessário invalidar os certificados anteriormente emitidos e substituí-los com a nova chave da CA.

Há tempos que as pessoas utilizam assinaturas à caneta, carimbos, selos, entre outros recursos, para comprovar a autenticidade de documentos, expressar concordância com determinados procedimentos, declarar responsabilidades, etc. Hoje, muitas dessas atividades podem ser feitas através da internet. Mas, como garantir autenticidade, expressar concordância ou declarar responsabilidade no "mundo eletrônico"? É aí que entra em cena a certificação digital e conceitos relacionados, como assinatura digital (ALECRIM, 2009, p. 45).

Hoje em dia, as pessoas realizam as suas transações comerciais de forma ágil e precisa graças à internet. Podemos pagar contas, tirar extratos, fazer compras, enfim, uma série de procedimentos sem mesmo ter a necessidade de sair de casa. No entanto, um grande problema que ainda persiste é a ação de vândalos que ocupam o seu tempo realizando procedimentos, visando adulterar, subtrair ou apoderar-se de dados que não lhe pertencem. Procurando evitar a ação destes fraudadores, existe a autenticação digital, que é capaz de atender à essa necessidade.

A certificação digital é a tecnologia de identificação que permite que transações eletrônicas dos mais diversos tipos sejam feitas considerando sua integridade, sua autenticidade e sua confidencialidade, de forma a evitar que adulterações, interceptações ou outros tipos de fraude ocorram (NISHITANI, 2010).

Imagine-se na seguinte situação: você está numa empresa localizada fora de sua cidade e precisa fechar um negócio importante e com base em documentos no suporte papel. Neste caso, você assinaria o documento com a sua assinatura à caneta, ainda havendo a necessidade de Esta prática pode estar com os dias contados, pois podemos usar os documentos eletrônicos. Neste caso, pode-se utilizar a assinatura digital, mecanismo eletrônico que usa a criptografia.

A criptografia historicamente foi utilizada por militares, diplomatas e pessoas que gostam de guardar memórias e os amantes. 

Segundo Tanenbaum (2003), um dos principais problemas da criptografia era a habilidade do auxiliar de criptografia fazer as transformações necessárias, em geral, com equipamentos escassos e em batalha, além da dificuldade de alternar os métodos criptográficos rapidamente.

Segurança em redes sem fio

Imagine a situação: numa bela noite, ao acessar a internet, você está com uma conexão sem fio ativa e permite que os seus vizinhos acessem seu computador, sem ao menos se atentar ao detalhe de implementar um esquema de segurança por senhas. Sem saber, ou por seu esquecimento, várias pessoas compartilham o seu computador e os mais maldosos se aproveitam da situação para danificar ou somente invadir e visualizar os seus arquivos. A situação não é nada difícil de ocorrer.

Para Morimoto (Clube do Hardware), um dos grandes problemas em uma rede wireless é que os sinais são transmitidos pelo ar. Os pontos

de acesso e placas utilizam por padrão antenas baratas, que proporcionam um alcance reduzido. Apesar disso, o sinal da sua rede pode ser capturado de muito mais longe por alguém com uma antena de alto ganho.

Não tem como impedir que o sinal se propague livremente pelas redondezas (a menos que você pretenda ir morar em um bunker, com paredes reforçadas com placas de aço), de forma que a única forma eficaz de proteção é encriptar toda a transmissão, fazendo com que as informações capturadas não tenham serventia.

Como a questão da segurança em redes wireless é muito divulgada, quase todas as redes já utilizam algum tipo de proteção, seja através do uso do WEP ou do WPA, seja através de uma lista de acesso dos endereços MAC autorizados a se conectarem à rede.

Segundo Nakamura (2003), o WEP usa uma chave secreta que é compartilhada entre a estaçãowireless e o ponto de acesso. Todos os dados enviados e recebidos pela estação podem ser cifrados com essa chave compartilhada. O padrão 802.11 não especifica o modo como a chave é estabelecida, pois normalmente os administradores devem configurar os clientes e o ponto de acesso com a chave escolhida.  Isso representa um dos riscos envolvidos com o uso do WEP.  O algoritmo criptográfico usado pelo WEP é o RC4, com chaves que variam entre 40 e 128 bits. O pacote gerado pelo protocolo é formado por quatro componentes: vetor de inicialização; byte de identificação da chave; algoritmo de integridade CRC-32 aplicado na payload; e algoritmo criptográfico RC4 aplicado na payload e no resultado do CRC-32.  

egurança em Redes sem Fio

Imagine a situação: numa bela noite, ao acessar a internet, você está com uma conexão sem fio ativa e permite que os seus vizinhos acessem seu computador, sem ao menos se atentar ao detalhe de implementar um esquema de segurança por senhas. Sem saber, ou por seu esquecimento, várias pessoas compartilham o seu computador e os mais maldosos se aproveitam da situação para danificar ou somente invadir e visualizar os seus arquivos. A situação não é nada difícil de ocorrer.

Para Morimoto (Clube do Hardware), um dos grandes problemas em uma rede wireless é que os sinais são transmitidos pelo ar. Os pontos de acesso e placas utilizam por padrão antenas baratas, que proporcionam um alcance reduzido. Apesar disso, o sinal da sua rede pode ser capturado de muito mais longe por alguém com uma antena de alto ganho.

Não tem como impedir que o sinal se propague livremente pelas redondezas (a menos que você pretenda ir morar em um bunker, com paredes reforçadas com placas de aço), de forma que a única forma eficaz de proteção é encriptar toda a transmissão, fazendo com que as informações capturadas não tenham serventia.

Como a questão da segurança em redes wireless é muito divulgada, quase todas as redes já utilizam algum tipo de proteção, seja através do uso do WEP ou do WPA, seja através de uma lista de acesso dos endereços MAC autorizados a se conectarem à rede.

Segundo Nakamura (2003), o WEP usa uma chave secreta que é compartilhada entre a estaçãowireless e o ponto de acesso. Todos os dados enviados e recebidos pela estação podem ser cifrados com essa chave compartilhada. O padrão 802.11 não especifica o modo como a chave é estabelecida, pois normalmente os administradores devem configurar os clientes e o ponto de acesso com a chave escolhida.  Isso representa um dos riscos envolvidos com o uso do WEP.  O algoritmo criptográfico usado pelo WEP é o RC4, com chaves que variam entre 40 e 128 bits. O pacote gerado pelo protocolo é formado por quatro componentes: vetor de inicialização; byte de identificação da chave; algoritmo de integridade CRC-32 aplicado na payload; e algoritmo criptográfico RC4 aplicado na payload e no resultado do CRC-32.  

esumo da Unidade: Repassamos alguns protocolos que são muito utilizados hoje em dia. É claro que existe uma série de outros protocolos disponíveis no mercado, no entanto, os mais utilizados se apresentam neste estudo.  Verificamos que o TCP/IP, sendo um dos protocolos mais utilizados atualmente, em função da internet, também é uma suíte de protocolos, ou seja, é um conjunto de vários protocolos que atuam cada um na sua camada do Modelo OSI. Ao finalizar esta unidade, você estará apto a definir o conceito de arquiteturas de redes de computadores e entender porque foi necessário criar padrões, arquiteturas de redes e modelos de referência. Assim como em diversos setores da informática e da comunicação de dados, uma das primeiras arquiteturas que surgiram na face da terra foram aqueles implementados pela IBM. Um dos principais foi a arquitetura SNA, ainda utilizada nos dias de hoje nos ambientes com mainframe. Na academia, o modelo mais estudado é o Modelo OSI, apesar do mercado não aderir plenamente a este modelo de referência.