20
PROGRAMAÇÃO CONCORRENTE Prof. Simão Toscani 1 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S. Editora Sagra-Luzzatto, 2003) PROGRAMAÇÃO CONCORRENTE A programação concorrente foi usada inicialmente na construção de sistemas operacionais. Atualmente, ela é usada para desenvolver aplicações em todas as áreas da computação. Este tipo de programação tornou-se ainda mais importante com o advento dos sistemas distribuídos e das máquinas com arquitetura paralela. Neste capítulo serão apresentados os conceitos básicos e os mecanismos clássicos da programação concorrente. Maiores detalhes podem ser encontrados no livro [TOS03]. 1 Definição A grande maioria dos programas escritos são programas seqüenciais. Nesse caso, existe somente um fluxo de controle (fluxo de execução, linha de execução, thread) no programa. Isso permite, por exemplo, que o programador realize uma "execução imaginária" de seu programa apontando com o dedo, a cada instante, o comando que está sendo executada no momento. Um programa concorrente pode ser visto como se tivesse vários fluxos de execução. Para o programador realizar agora uma "execução imaginária", ele vai necessitar de vários dedos, um para cada fluxo de controle. O termo "programação concorrente" vem do inglês concurrent programming, onde concurrent significa "acontecendo ao mesmo tempo". Uma tradução mais adequada seria programação concomitante. Entretanto, o termo programação concorrente já está solidamente estabelecido no Brasil. Algumas vezes é usado o termo programação paralela com o mesmo sentido. É comum em sistemas multiusuário que um mesmo programa seja executado simultaneamente por vários usuários. Por exemplo, um editor de texto. Entretanto, ter 10 execuções simultâneas do editor de texto não faz dele um programa concorrente. O que se tem são 10 processos independentes executando o mesmo programa seqüencial (compartilhando o mesmo código). Cada processo tem a sua área de dados e ignora a existência das outras execuções do programa. Esses processos não interagem entre si (não trocam informações). Um programa é considerado concorrente quando ele (o próprio programa, durante a sua execução) origina diferentes processos. Esses processos, em geral, irão interagir entre si. 2 Motivação A programação concorrente é mais complexa que a programação seqüencial. Um programa concorrente pode apresentar todos os tipos de erros que aparecem nos programas seqüenciais e, adicionalmente, os erros associados com as interações entre os processos. Muitos erros dependem do exato instante de tempo em que o escalonador do sistema operacional realiza um chaveamento de contexto. Isso torna muitos erros difíceis de reproduzir e de identificar. Apesar da maior complexidade, existem muitas áreas nas quais a programação concorrente é vantajosa. Em sistemas nos quais existem vários processadores (máquinas paralelas ou sistemas distribuídos), é possível aproveitar esse paralelismo e acelerar a execução do programa. Mesmo em sistemas com um único processador, existem razões para o seu uso em vários tipos de aplicações.

PROGRAMAÇÃO CONCORRENTE - inf.unioeste.brE7%E3o%20Concorrente%20... · PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 2 (Do livro Sistemas Operacionais e Programação Concorrente,

  • Upload
    lytuong

  • View
    223

  • Download
    0

Embed Size (px)

Citation preview

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 1 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

PROGRAMAÇÃO CONCORRENTE

A programação concorrente foi usada inicialmente na construção de sistemas operacionais.

Atualmente, ela é usada para desenvolver aplicações em todas as áreas da computação. Este tipo

de programação tornou-se ainda mais importante com o advento dos sistemas distribuídos e das

máquinas com arquitetura paralela. Neste capítulo serão apresentados os conceitos básicos e os

mecanismos clássicos da programação concorrente. Maiores detalhes podem ser encontrados no

livro [TOS03].

1 Definição

A grande maioria dos programas escritos são programas seqüenciais. Nesse caso, existe

somente um fluxo de controle (fluxo de execução, linha de execução, thread) no programa. Isso

permite, por exemplo, que o programador realize uma "execução imaginária" de seu programa

apontando com o dedo, a cada instante, o comando que está sendo executada no momento.

Um programa concorrente pode ser visto como se tivesse vários fluxos de execução.

Para o programador realizar agora uma "execução imaginária", ele vai necessitar de vários dedos,

um para cada fluxo de controle.

O termo "programação concorrente" vem do inglês concurrent programming, onde

concurrent significa "acontecendo ao mesmo tempo". Uma tradução mais adequada seria

programação concomitante. Entretanto, o termo programação concorrente já está solidamente

estabelecido no Brasil. Algumas vezes é usado o termo programação paralela com o mesmo

sentido.

É comum em sistemas multiusuário que um mesmo programa seja executado

simultaneamente por vários usuários. Por exemplo, um editor de texto. Entretanto, ter 10

execuções simultâneas do editor de texto não faz dele um programa concorrente. O que se tem

são 10 processos independentes executando o mesmo programa seqüencial (compartilhando o

mesmo código). Cada processo tem a sua área de dados e ignora a existência das outras

execuções do programa. Esses processos não interagem entre si (não trocam informações). Um

programa é considerado concorrente quando ele (o próprio programa, durante a sua execução)

origina diferentes processos. Esses processos, em geral, irão interagir entre si.

2 Motivação

A programação concorrente é mais complexa que a programação seqüencial. Um programa

concorrente pode apresentar todos os tipos de erros que aparecem nos programas seqüenciais e,

adicionalmente, os erros associados com as interações entre os processos. Muitos erros dependem

do exato instante de tempo em que o escalonador do sistema operacional realiza um chaveamento

de contexto. Isso torna muitos erros difíceis de reproduzir e de identificar.

Apesar da maior complexidade, existem muitas áreas nas quais a programação

concorrente é vantajosa. Em sistemas nos quais existem vários processadores (máquinas paralelas

ou sistemas distribuídos), é possível aproveitar esse paralelismo e acelerar a execução do

programa. Mesmo em sistemas com um único processador, existem razões para o seu uso em

vários tipos de aplicações.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 2 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

Considere um programa que deve ler registros de um arquivo, colocar em um formato

apropriado e então enviar para uma impressora física (em oposição a uma impressora lógica ou

virtual, implementada com arquivos). Podemos fazer isso com um programa seqüencial que,

dentro de um laço, faz as três operações (ler, formatar e imprimir registro).

Arqu iv o Proces s o Im pres s o rafís i ca

Figura 1 - Programa seqüencial acessando arquivo e impressora.

Inicialmente o processo envia um comando para a leitura do arquivo e fica bloqueado. O

disco então é acionado para realizar a operação de leitura. Uma vez concluída a leitura, o

processo realiza a formatação e inicia a transferência dos dados para a impressora. Como trata-se

de uma impressora física, o processo executa um laço no qual os dados são enviados para a porta

serial ou paralela apropriada. Como o buffer da impressora é relativamente pequeno, o processo

fica preso até o final da impressão. O disco e a impressora nunca trabalham simultaneamente,

embora isso seja possível. É o programa seqüencial que não consegue ocupar ambos.

Vamos agora considerar um programa concorrente como o mostrado na figura 2 para

realizar a impressão do arquivo. Dois processos dividem o trabalho. O processo leitor é

responsável por ler registros do arquivo, formatar e colocar em um buffer na memória. O

processo impressor retira os dados do buffer e envia para a impressora. É suposto aqui que os dois

processos possuem acesso à memória onde está o buffer. Este programa é mais eficiente, pois

consegue manter o disco e a impressora trabalhando simultaneamente. O tempo total para realizar

a impressão do arquivo vai ser menor.

Arq u iv oPro ce s s o

Im p re s s o rafís i ca

Pro ce s s o

L e i to r

Im p re s s o r

B u ffe r

Figura 2 - Programa concorrente acessando arquivo e impressora.

O uso da programação concorrente é natural nas aplicações que apresentam paralelismo

intrínseco, ditas aplicações inerentemente paralelas. Nessas aplicações pode-se distinguir

facilmente funções para serem realizadas em paralelo. Este é o caso do spooling de impressão,

exemplo que será apresentado a seguir. Pode-se dizer que, em geral, a programação concorrente

tem aplicação natural na construção de sistemas que tenham de implementar serviços que são

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 3 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

requisitados de forma imprevisível [DIJ65]. Nesse caso, o programa concorrente terá um processo

para realizar cada tipo de serviço.

A seguir é considerado um servidor de impressão para uma rede local. A figura 3 ilustra

uma rede local na qual existem diversos computadores pessoais (PC) utilizados pelos usuários e

existe um computador dedicado ao papel de servidor de impressão. O servidor usa um disco

magnético para manter os arquivos que estão na fila de impressão.

PCPC PC

Usuários Servidor de Impressão

Figura 3 - Rede local incluindo um servidor de impressão dedicado.

É importante observar que o programa "servidor de impressão" possui paralelismo

intrínseco. Ele deve: (1) receber mensagens pela rede; (2) escrever em disco os pedaços de

arquivos recebidos; (3) enviar mensagens pela rede (contendo, por exemplo, respostas às

consultas sobre o seu estado); (4) ler arquivos previamente recebidos (para imprimí-los); (5)

enviar dados para a impressora. Todas essas atividades podem ser realizadas "simultaneamente".

Uma forma de programar o servidor de impressão é usar vários processos, cada um responsável

por uma atividade em particular. Obviamente, esses processos vão precisar trocar informações

para realizar o seu trabalho.

A figura 4 mostra uma das possíveis soluções para a organização interna do programa

concorrente "servidor de impressão". Cada círculo representa um processo. Cada flecha

representa a passagem de dados de um processo para o outro. Essa passagem de dados pode ser

feita, por exemplo, através de variáveis que são compartilhadas pelos processos envolvidos na

comunicação.

Vamos agora descrever a função de cada processo. O processo "Receptor" é responsável

por receber mensagens da rede local. Ele faz isso através de chamadas de sistema apropriadas e

descarta as mensagens com erro. As mensagens corretas são então passadas para o processo

"Protocolo". Ele analisa o conteúdo das mensagens recebidas à luz do protocolo de comunicação

suportado pelo servidor de impressão. É possível que seja necessário a geração e o envio de

mensagens de resposta. O processo "Protocolo" gera as mensagens a serem enviadas e passa-as

para o processo "Transmissor", que as envia através de chamadas de sistema apropriadas.

Algumas mensagens contêm pedaços de arquivos a serem impressos. É suposto aqui que o

tamanho das mensagens tenha um limite (alguns Kbytes). Dessa forma, um arquivo deve ser

dividido em várias mensagens para transmissão através da rede. Quando o processo "Protocolo"

identifica uma mensagem que contém um pedaço de arquivo, ele passa esse pedaço de arquivo

para o processo "Escritor". Passa também a identificação do arquivo ao qual o pedaço em questão

pertence. Cabe ao processo "Escritor" usar as chamadas de sistema apropriadas para escrever no

disco. Quando o pedaço de arquivo em questão é o último de seu arquivo, o processo "Escritor"

passa para o processo "Leitor" o nome do arquivo, que está pronto para ser impresso.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 4 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

Receptor Transmissor

Protocolo

Escritor

Leitor Impressor

Figura 4 - Servidor de impressão como programa concorrente.

O processo "Leitor" executa um laço no qual ele pega um nome de arquivo, envia o

conteúdo do arquivo para o processo "Impressor" e então remove o arquivo lido. O envio do

conteúdo para o processo "Impressor" é feito através de um laço interno composto pela leitura de

uma parte do arquivo e pelo envio dessa parte. Finalmente, o processo "Impressor" é encarregado

de enviar os pedaços de arquivo que ele recebe para a impressora. O relacionamento entre os

processos "Leitor" e "Escritor" foi descrito antes, no início desta seção.

O servidor de impressão ilustra o emprego da programação concorrente na construção de

uma aplicação com paralelismo intrínseco. O resultado é uma organização interna clara e simples

para o programa. Um programa seqüencial equivalente seria certamente menos eficiente. O

restante deste capítulo é dedicado aos problemas e às técnicas existentes para a construção de

programas concorrentes como esse.

Hoje em dia existem várias linguagens que permitem construir programas concorrentes

(Java, Ada, Pascal Concorrente, C estendido com bibliotecas para concorrência, etc.). Aqui será

utilizada uma linguagem apropriada para ensino, denominada Vale4 (V4) [TOS04].

3 Especificação do paralelismo

Para construir um programa concorrente, antes de mais nada, é necessário ter a capacidade de

especificar o paralelismo dentro do programa. Essa especificação pode ser feita de diversas

maneiras. Uma delas utiliza os comandos fork, quit e join [CON63]. Outras maneiras serão

apresentadas na seção 4.

O comando (ou função) fork pode ser implementado de duas maneiras distintas: ele pode

criar um novo processo ou criar apenas um novo fluxo de execução dentro de um processo já

existente. A função fork retorna um número inteiro que é a identificação do novo processo ou do

novo fluxo criado. Um fluxo de execução também é denominado linha de execução ou thread.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 5 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

Os comandos quit e join são auxiliares ao fork. Quando o comando quit é executado, o

processo (ou thread) que o executa termina imediatamente. O comando join(id) bloqueia quem o

executa até que termine o processo (ou thread) identificado por id.

Primitiva fork no sistema Unix

No sistema operacional Unix a operação fork cria um novo processo que é uma cópia idêntica

(clone) do processo que executa esta operação. Por exemplo, o comando

id = fork()

cria um filho idêntico ao processo que executou a operação (isto é, cria uma cópia do processo

original). O processo filho recebe cópias das variáveis do processo pai, bem como dos descritores

de arquivos. Os valores iniciais das variáveis do filho são iguais aos valores das variáveis

correspondentes do pai no momento da execução da função fork. Observe que não há

compartilhamento de variáveis: as variáveis do pai ficam no espaço de endereçamento1 do pai e

as variáveis do filho, no espaço de endereçamento do filho. Em relação aos valores dessas

variáveis, a única diferença inicial entre o pai e o filho é o valor da variável id, que é 0 para o

filho e é o valor de retorno da função fork para o pai. O valor de retorno é o número de

identificação do processo criado (process identification ou pid). Isto permite que os processos

prossigam de acordo com suas identidades. Normalmente, o comando seguinte ao fork tem a

seguinte forma:

if id = 0

then { processamento do filho }

else { processamento do pai }

Um dos processos, por exemplo o filho, pode “sobrepor” um novo código sobre si, através

da operação exec(P), onde P é um novo programa para ser executado (novo segmento de código e

de dados para o processo).

Fork, join e quit na linguagem Vale4

Na linguagem Vale4, o funcionamento do comando fork é similar ao do Unix, porém com uma

grande diferença: o fork cria uma thread e não um processo. As threads mãe e filha são idênticas:

executam o mesmo código e compartilham todas as variáveis do processo em que são definidas (é

justamente nesse compartilhamento que está a diferença para o Unix).

Na linguagem V4, a execução do comando

id := fork()

faz com que a variável global2 id receba o valor retornado pela função fork, que é o número único

1 Basicamente, o espaço de endereçamento de um processo é formado por um segmento de código e um segmento de

dados. O primeiro contém as instruções do processo e o segundo contém as variáveis e constantes do processo. Além

disso, todo processo possui uma pilha que é usada para chamadas e retornos de procedimentos. 2 Variável declarada no processo hospedeiro, compartilhada entre mãe e filha.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 6 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

da thread criada. A thread original (mãe) e a thread criada (filha) executam em paralelo a partir

do comando que segue ao fork. As duas threads irão se distinguir através da variável denominada

myNumber3. O valor dessa variável é sempre a identificação de quem a refere (isto é, o número

único de quem a refere). Tipicamente, o comando que segue ao fork tem a seguinte forma:

if id = myNumber

then { processamento da filha }

else { processamento da mãe }

Observe que apenas para a thread filha o myNumber é igual ao valor da variável global id.

Para criar processos (não threads) dinamicamente, a linguagem V4 oferece o comando

new que será apresentado na seção que segue. Enquanto o comando fork cria uma nova thread, o

comando new cria um novo processo.

O comando join(id) permite que um processo (ou thread) P espere pelo término do

descendente imediato (filho ou filha) identificado por id. Se o argumento id não identifica um

processo ou thread, ou se id não corresponde a um descendente imediato de P, então um erro é

reportado (erro de execução).

O argumento de join pode ser também a palavra reservada any, que significa o desejo de

esperar pelo término de qualquer um dos descendentes imediatos. Nesse caso, no retorno da

primitiva, a variável any4 vai conter a identidade do filho ou filha cuja execução terminou.

Outra peculiaridade da primitiva join(id) é que ela pode ser usada como função ou como

subrotina. Usada como função, ela retorna o valor que o filho (ou filha) id especificou no

comando quit, ao morrer, conforme é explicado a seguir.

O último comando do conjunto é o quit, que mata o seu executor. Podem ser usadas as

formas quit ou quit(X). No segundo caso, o argumento X é um valor inteiro que o processo ou

thread informa ao seu genitor, ao morrer. Se desejar pegar esse valor, o genitor usará a primitiva

join, como função.5 A propósito, um quit sem argumento equivale a um quit(0).

Diferença entre thread e processo

O que melhor distingue uma thread de um processo é o espaço de endereçamento. Todas as

threads de um processo trabalham no mesmo espaço de endereçamento, que é a memória lógica

do “processo hospedeiro”. Isto é, quando se tem um conjunto de threads dentro de um processo,

todas as threads executam o código do processo e compartilham as suas variáveis. Por outro lado,

quando se tem um conjunto de processos, cada processo trabalha num espaço de endereçamento

próprio, com um conjunto separado de variáveis.

3 Tudo se passa como se cada processo ou thread tivesse uma variável local, denominada myNumber, contendo o

número único desse processo ou thread. Na verdade, myNumber, que também pode ser referido como myself ou

myID, é uma função primitiva que consulta o registro descritor do processo ou thread para obter o número de sua

“carteira de identidade” e retorna esse número. 4 Semelhantemente ao que ocorre com myNumber, tudo se passa como se cada processo ou thread tivesse uma

variável local, denominada any. 5 No caso de ser usada como subrotina, a primitiva join(id) desconsidera o valor informado pelo descendente id.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 7 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

No caso de um processo com N threads, tem-se um único registro descritor (o registro do

processo hospedeiro) e N mini-descritores de threads. O mini-descritor de cada thread é usado

para salvar os valores dos registradores da UCP (PC, PSW, etc.). Adicionalmente, cada thread

possui uma pilha, que é usada para as chamadas e retornos de procedimentos.

É mais fácil chavear a execução entre threads (de um mesmo processo) do que entre

processos, pois tem-se menos informações para salvar e restaurar. Por esse motivo, as threads são

chamadas também de "processos leves".

Um exemplo

Vamos usar a linguagem V4 para exemplificar o uso dos comandos fork, join e quit. O programa

mostrado na figura 5 possui um único processo. A linha de execução inicial desse processo

executa duas vezes o comando fork, criando duas threads adicionais (filhas 1 e 2). A thread

original então espera que cada uma das filhas termine, escreve uma mensagem para cada uma e

termina também. As duas threads criadas apenas colocam uma mensagem na tela e terminam.

V4program

process p1;

f1: integer; /* identifica filha 1*/

f2: integer; /* identifica filha 2*/

{ write('Alo da mae'); nl;

f1:= fork(); /* Cria filha 1 */

if f1 = myNumber then { write('Alo da filha 1'); nl; quit};

f2:= fork(); /* Cria filha 2 */

if f2 = myNumber then { write('Alo da filha 2'); nl; quit};

join(f1);

write('Filha 1 morreu'); nl;

join(f2);

write('Filha 2 morreu'); nl

}

end program

Figura 5 - Uso de comandos fork, join e quit.

O comando write(X) escreve na tela do terminal do usuário. O argumento X pode ser uma

constante, uma variável, um elemento de array ou um string entre apóstrofes. O comando nl

(“new line”) faz com que a próxima impressão seja feita em uma nova linha. Duas possíveis

saídas para o programa anterior seriam:

Alo da mae Alo da mae

Alo do filha 1 Alo do filha 1

Alo do filha 2 Filha 1 morreu

Filha 1 morreu Alo do filha 2

Filha 2 morreu Filha 2 morreu

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 8 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

4 Criação estática e criação dinâmica de processos

Os processos de um programa concorrente podem ser criados de forma estática ou dinâmica. No

primeiro caso, o programa contém a declaração de um conjunto fixo de processos, os quais são

ativados simultaneamente, no inicio da execução do programa. No segundo caso, os processos

são criados dinamicamente, durante a execução, através de instruções especiais para esse fim.

Os mecanismos vistos até aqui (fork, join e quit) realizam criação dinâmica (e término

dinâmico), pois os processos (ou threads) são criados somente quando instruções especiais são

executadas.6

Criação estática

No caso da criação estática, os processos são declarados explícitamente7 no programa fonte e

vão existir desde o início da execução do programa concorrente. Normalmente, as linguagens de

programação permitem especificar esses processos de duas maneiras: como processos individuais

ou como um array de processos.

Especificação de processos individuais:

Neste caso, cada processo é especificado de forma individual, conforme exemplificado a seguir.

V4program

process P1;

k: integer init 0;

while k < 10 do

{ write(1);

k:=k+1

};

process P2;

k: integer init 0;

while k < 10 do

{ write(2);

k:=k+1

}

endprogram

O programa define 2 processos, denominados P1 e P2, que não compartilham variáveis

(não existem variáveis globais no programa). Cada processo utiliza uma variável local,

denominada k. O primeiro imprime 10 vezes o número 1 e o segundo, em paralelo, imprime 10

vezes o número 2. O resultado da execução pode ser qualquer seqüência de tamanho 20, contendo

6 Por exemplo, se a execução não “passa” por uma determinada instrução fork, então a thread correspondente não é

criada. 7 A declaração explícita consiste em definir, para cada processo do programa, as suas variáveis locais e o seu

segmento de código.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 9 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

10 vezes o número 1 e 10 vezes o número 2, embaralhados. Teoricamente, são possíveis

20!/(10!*10!) resultados diferentes.8

Array de processos

Neste caso, uma única declaração especifica um grupo de processos semelhantes, que se

distinguem apenas pelo valor de uma variável local inteira, que é especificada no cabeçalho do

processo, conforme é ilustrado a seguir, considerando o mesmo exemplo anterior.

V4program

process P (i := 1 to 2);

k: integer init 0;

while k < 10 do

{ write(i);

k:=k+1

}

endprogram

Para o primeiro processo, a sua variável local i vale 1 e para o segundo, a sua variável

local i vale 2. Este programa é equivalente ao anterior.

Criação dinâmica

É possível declarar explicitamente um modelo (uma "forma") para criar processos durante a

execução, conforme é ilustrado a seguir. Neste caso tem-se o que se denomina criação dinâmica

com declaração explícita de processos.

V4program

process type P (i: integer);

k: integer init 0;

while k < 10 do

{ write(i);

k:=k+1

};

process Q;

{ new P(1); new P(2) }

endprogram

Através da especificação process type, explicita-se um modelo (template) de processo, o

qual é utilizado para criar exemplares (cópias, clones) desse processo durante a execução. A

criação de um novo exemplar se dá através do comando new, o qual permite passar parâmetros

para o processo criado. No caso da linguagem Vale4, a primitiva new pode ser usada como

8 Combinações de uma seqüência de 20 escaninhos, escolhidos 10 a 10.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 10 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

função ou como subrotina; usada como função ela retorna a identificação interna (pid) do

processo criado.

5 Exemplos de programas concorrentes

Esta seção apresenta programas simples que ilustram características importantes dos programas

concorrentes. Tratam-se de programas Vale4 completos, prontos para serem compilados e

executados no ambiente V4. Para melhorar a legibilidade dos programas, é usada a seguinte

notação: os identificadores declarados (variáveis, procedimentos, etc.) são apresentados em

itálico.

Compartilhamento de um procedimento

O mesmo programa que foi utilizado na seção 3.5 para distinguir as diferentes maneiras de

especificar (e criar) processos é reescrito para ilustrar o compartilhamento de um procedimento.

V4program

procedure imprime(i: integer);

k: integer init 0;

while k < 10 do

{ write(i);

k:=k+1

};

process P1; imprime(1);

process P2; imprime(2)

endprogram

Cada processo chama imprime fornecendo como argumento o número a ser impresso.

Como nos exemplos anteriores, o resultado da execução desse programa é imprevisível, sendo

possíveis (teoricamente) 10

20C resultados distintos.

Observação sobre as variáveis de um procedimento

No exemplo anterior, existem duas execuções concorrentes do procedimento imprime, uma

efetuada por P1 e outra por P2. Cada uma dessas execuções utiliza variáveis i (argumento) e k

(variável local do procedimento). A observação importante é que cada processo utiliza cópias

independentes dessas variáveis. O código do procedimento é compartilhado pelos dois processos,

mas os dados (variáveis i e k) são privativos de cada processo. Isto é, cada processo trabalha sobre

um conjunto de dados separado.

Não se pode esquecer que, na chamada de um procedimento, os argumentos e as variáveis

locais desse procedimento são alocados na pilha do processo chamador. Como cada processo (ou

thread) trabalha com uma pilha própria, as execuções não interferem uma com a outra. Na

programação concorrente é sempre assim, todo procedimento é automaticamente reentrável (ou

puro). Isto significa que o mesmo código pode ser executado simultaneamente por vários

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 11 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

processos sem que haja interferência entre eles, pois cada processo utiliza um conjunto separado

de parâmetros e de variáveis locais.

Compartilhamento de uma variável

O programa a seguir implementa um sistema concorrente onde dois processos compartilham uma

variável global S. Cada processo incrementa S de uma unidade, 100 vezes.

V4program

S : integer init 0;

process p1;

k: integer init 0;

{ loop

S:= S+1;

k:= k+1;

exit when k = 100

endloop;

nl; write('p1'); tab(2); write(S)

};

process p2;

k: integer init 0;

{ loop

S:= S+1;

k:= k+1;

exit when k = 100

endloop;

nl; write('p2'); tab(2); write(S)

}

endprogram

Este programa utiliza os comandos loop e tab(K), os quais são explicados a seguir.

O comando loop

O comando loop implementa um “ciclo infinito”. No seu interior, o comando “exit when <cond>”

significa que o ciclo acaba (isto é, que a execução vai para o comando seguinte ao endloop)

quando a condição <cond> é verdadeira. Este comando pode substituir todos os demais comandos

iterativos (while, repeat, for, etc.), com a vantagem de, em geral, tornar os programas mais claros.

O comando tab(K)

Este comando escreve K espaços em branco no terminal do usuário, sendo útil para formatar a

impressão de resultados.

Observação sobre a inicialização de variáveis

Em V4, as variáveis não explicitamente inicializadas possuem valor inicial igual a 0, se inteiras, e

igual a false, se booleanas. Quando usada, a cláusula initial (ou init) deve ser seguida de um

único valor inicial. Se o uso é na declaração de uma lista de identificadores, então todos os

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 12 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

identificadores da lista recebem esse único valor inicial. Se o uso é na declaração de um array,

todos os elementos do array recebem esse único valor especificado.

O problema da exclusão mútua

No programa anterior, tem-se 2 processos manipulando a variável global S. Cada processo

executa 100 vezes o comando S:=S+1. Este comando é compilado para a seguinte seqüência de

código de máquina:

push S % coloca o valor de S na pilha

push $1 % coloca a constante 1 na pilha

add % soma os dois últimos valores colocados na pilha

pop S % guarda o resultado em S

Como os pontos em que a UCP passa de um processo para outro são imprevisíveis, pode

acontecer de um processo perder a UCP no meio da seqüência acima.9 Vamos supor que o valor

de S carregado na pilha seja 10 e que o processo perca a UCP. Nesse caso, quando este processo

receber a UCP de volta, ele vai concluir a seqüência acima e armazenar o valor 11 em S. Todos

os acréscimos a S feitos pelo outro processo nesse ínterim são perdidos. Como conseqüência,

embora S inicie com o valor zero e cada processo some 1 a S cem vezes, o valor final de S

dificilmente será igual a 200. Para o resultado ser 200, deve haver exclusão mútua no acesso à

variável S, isto é, enquanto um processo estiver manipulando S, o outro não pode acessar S.

A exclusão mútua é um requisito muito importante nos sistemas concorrentes. Em geral,

é necessário garantir o acesso exclusivo aos dados compartilhados. A exclusão mútua só não

é necessária quando os dados são compartilhados na modalidade "apenas leitura", isto é, quando

os dados não são alterados pelos processos. Os trechos dos processos onde os dados

compartilhados são manipulados, são denominados trechos críticos ou regiões críticas.

Criação dinâmica de processos

A criação dinâmica (e recursiva) de processos é ilustrada através do problema da torre de Hanói,

descrito a seguir. Tem-se 3 torres (pilhas) e n discos de tamanhos diferentes. Inicialmente os n

discos estão empilhados na torre 1, na ordem certa (maior na base, menor no topo). O problema

consiste em movimentar todos os discos para uma determinada torre, sem que nunca um disco

maior fique sobre um disco menor. Os discos devem ser transportados de um em um e a terceira

torre pode ser usada como intermediária nessas movimentações.

O programa inicia com o processo P criando um filho (escravo) Hanoi para movimentar 3

discos da torre 1 para a torre 2, usando a torre 3 como intermediária. Para movimentar n discos de

a para b, usando c como torre intermediária, um escravo Hanoi faz o seguinte. Se n = 1 (só tem

um disco para movimentar), então o trabalho é fácil e direto: o escravo movimenta o único disco

de a para b (e mostra essa movimentação). Caso contrário, o escravo cria um escravo_1 para

movimentar n-1 discos de a para c, usando b como torre intermediária. Quando esse serviço é

concluído (escravo_1 termina o seu trabalho), o escravo original movimenta o disco que lhe

9 Sempre que um processo perde a UCP, o seu estado é salvo. Mais tarde, a execução do processo continua, como se

nada tivesse acontecido.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 13 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

sobrou (que é o maior) de a para b (mostra essa movimentação) e cria um escravo_2 para concluir

o serviço, que é movimentar n-1 discos de c para b usando a como torre intermediária.

V4program

process type Hanoi(n, a, b, c: integer);

id, m: integer;

if n = 1

then { nl; write(a); write(' --> '); write(b) }

else { m:= n-1;

id:= new Hanoi(m, a, c, b); join(id);

nl; write(a); write(' --> '); write(b);

id:= new Hanoi(m, c, b, a); join(id)

};

process P; new Hanoi(3, 1, 2, 3)

endprogram

O resultado da execução deste programa será a ordem em que os discos deverão ser

movimentados (movimento por movimento, um disco por vez).

6 Sincronizações básicas

É comum um processo ter que esperar até que uma condição se torne verdadeira. Para essa espera

ser "eficiente", o processo deve esperar no estado bloqueado (sem competir pela UCP). Dois tipos

de bloqueio são considerados básicos:

1. bloquear até que um recurso se torne disponível;10

2. bloquear até que chegue um sinal de outro processo.

Estes bloqueios são caracterizados pelas operações básicas lock/unlock e block/wakeup(P),

descritas a seguir. Enquanto o primeiro par (lock/unlock) implementa sincronização do tipo

exclusão mútua, o segundo par implementa uma forma básica de comunicação.

lock; . . . ; unlock

Um processo só entra num trecho delimitado pelo par lock/unlock se nenhum outro processo está

executando em um outro trecho delimitado dessa maneira. Isto é, o primeiro processo que executa

o comando lock passa e tranca a passagem (chaveia a fechadura) para os demais. O comando

unlock deixa passar (desbloqueia) o primeiro processo da fila de processos que estão bloqueados

por terem executado um lock (enquanto a fechadura estava trancada). Se a fila está vazia, a

fechadura é destrancada (isto é, é deixada aberta).

10

O recurso pode ser, inclusive, "o direito de acessar os dados compartilhados".

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 14 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

block/wakeup(P)

Quando um processo P executa o comando block, ele se bloqueia até que um outro processo

execute o comando wakeup(P). Este último comando acorda (desbloqueia) o processo

especificado por P. Se wakeup(P) é executado antes, o processo P não se bloqueia ao executar o

block. Na linguagem Vale4, o argumento de wakeup pode ser um nome de processo ou um

número único de processo ou thread.

Na verdade, os comandos lock e unlock não formam uma estrutura sintática (isto é, não

precisam estar casados, como se fossem um abre e fecha parênteses), eles são comandos

independentes. Na linguagem Vale4, as operações lock e unlock também podem ser referidas

pelos nomes mutexbegin e mutexend, respectivamente.

7 Semáforos

As variáveis semáforas são variáveis especiais que admitem apenas duas operações, denominadas

P e V.11

Sendo S é uma variável semáfora, as operações P e V têm a seguinte semântica:

• P(S) : espera até S ser maior que 0 e então subtrai 1 de S;

• V(S) : incrementa S de 1.

As operações “testar S e subtrair 1 (se S > 0)” e “incrementar S de 1” são executadas de

forma atômica (indivisível), no kernel do SO. Se S = 1 e dois processos executam P(S)

“simultaneamente”, um dos processos vai ficar bloqueado.

Pode-se fazer analogia entre uma variável semáfora e um vaso contendo bolitas (bolinhas

de gude). O valor numérico do semáforo corresponde ao número de bolitas dentro do vaso. Uma

operação V corresponde a pôr uma bolita no vaso. Cada operação P tenta remover uma bolita; se

nenhuma está disponível, então a operação bloqueia o processo e o coloca numa fila de espera.

Quando uma bolita é colocada no vaso (operação V), ela é removida pelo primeiro processo da

fila de espera, o qual prossegue sua execução.

Sincronizações básicas com semáforos

As variáveis semáforas permitem implementar os dois tipos básicos de bloqueio, conforme é

explicado a seguir.

Sincronização tipo lock/unlock:

A sincronização do tipo exclusão mútua é implementada através de um semáforo com valor

inicial 1. O acesso exclusivo a n regiões críticas seria implementado como segue:

X : semaphore initial 1

11

P e V são as iniciais das palavras holandesas Proberen e Verhogen, que significam testar e incrementar,

respectivamente.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 15 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

P1: P2: . . . Pn:

. . . . . . . . .

P(X); P(X); P(X);

REGIÃO CRÍTICA; REGIÃO CRÍTICA; REGIÃO CRÍTICA;

V(X); V(X); V(X);

. . . . . . . . .

Sincronização tipo block/wakeup(P):

Este tipo de sincronização é implementado através de um semáforo com valor inicial zero. Por

exemplo, se a operação B do processo P1 deve ser executada após a operação A do processo P2,

programa-se da seguinte maneira:

Y : semaphore initial 0

P1: P2:

. . . . . .

P(Y); % block . . .

B; A;

. . . V(Y); % wakeup(P1)

. . . . . .

8 Programas clássicos

Esta seção apresenta 4 problemas clássicos da programação concorrente, todos resolvidos através

do uso de semáforos e todos escritos de acordo com a sintaxe de Vale4.

Produtor-consumidor com buffer limitado

Este problema pode ser enunciado como segue. Um par de processos compartilha um buffer de N

posições. O primeiro processo, denominado produtor, passa a vida a produzir mensagens e a

colocá-las no buffer. O segundo processo, denominado consumidor, passa a vida a retirar

mensagens do buffer (na mesma ordem em que elas foram colocadas) e a consumí-las.

A relação produtor-consumidor ocorre comumente em sistemas concorrentes e o

problema se resume em administrar o buffer que tem tamanho limitado. Se o buffer está cheio, o

produtor deve se bloquear, se o buffer está vazio, o consumidor deve se bloquear. A programação

desse sistema com buffer de 5 posições e supondo que as mensagens sejam números inteiros, é

mostrada a seguir.

Variáveis globais: buffer: array[5] of integer;

cheios: semaphore initial 0;

vazios: semaphore initial 5;

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 16 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

Processo produtor: Processo consumidor:

msg, in : integer; msg, out : integer;

loop loop

% produz mensagem msg P(cheios);

P(vazios); out:= (out mod 5)+1;

in:= (in mod 5)+1; msg:= buffer[out];

buffer[in]:= msg; V(vazios);

V(cheios) % consome a mensagem

endloop endloop

O semáforo cheios conta o número de buffers cheios e o semáforo vazios conta número de

buffers vazios. Conforme já foi referido, as variáveis inteiras que não são inicializadas tem seu

valor inicial igual a zero.

Observe que a solução não se preocupou em garantir exclusão mútua no acesso ao buffer.

Isto porque os dois processos trabalham com variáveis locais in, out e msg e, certamente, irão

acessar sempre posições diferentes do vetor global buffer.

Jantar dos Filósofos

Este problema ilustra as situações de deadlock e de postergação indefinida que podem ocorrer em

sistemas nos quais processos adquirem e liberam recursos continuamente.

Existem N filósofos que passam suas vidas pensando e comendo. Cada um possui seu

lugar numa mesa circular, em cujo centro há um grande prato de spaghetti. A figura 6 ilustra a

situação para 5 filósofos. Como a massa é muito escorregadia, ela requer dois garfos para ser

comida. Na mesa existem N garfos, um entre cada dois filósofos, e os únicos garfos que um

filósofo pode usar são os dois que lhe correspondem (o da sua esquerda e o da sua direita). O

problema consiste em simular o comportamento dos filósofos procurando evitar situações de

deadlock (bloqueio permanente) e de postergação indefinida (bloqueio por tempo indefinido).

garfo 5

filósofo 1 filósofo 5

garfo 1 garfo 4

filósofo 2 filósofo 4

garfo 2 garfo 3

filósofo 3

spaghetti

Figura 6 - A mesa dos 5 filósofos

Da definição do problema, tem-se que nunca dois filósofos adjacentes poderão comer ao

mesmo tempo e que, no máximo, N/2 filósofos poderão estar comendo de cada vez. Na solução a

seguir, iremos nos concentrar no caso de 5 filósofos. Os garfos são representados por um vetor de

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 17 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

semáforos e é adotada a seguinte regra: todos os 5 filósofos pegam primeiro o seu garfo da

esquerda, depois o da direita, com exceção de um deles, que é do contra. Pode ser demonstrado

que esta solução é livre de deadlocks. Foi escolhido o filósofo 1 para ser do contra.

O programa a seguir é um programa Vale4 completo, no qual cada filósofo faz 10

refeições e morre.

V4program

garfo: array[5] of semaphore init 1; % array global

procedure getForks(i: integer);

j: integer;

{ j := i-1 ; % j é o garfo da esquerda

if j = 0 then { P(garfo[1]); P(garfo[5]) }

else { P(garfo[j]); P(garfo[i]) }

};

procedure putForks(i: integer);

j: integer;

{ j := i-1 ; % j é o garfo da esquerda

if j = 0 then { V(garfo[1]); V(garfo[5]) }

else { V(garfo[j]); V(garfo[i]) }

};

process filosofo (i:= 1 to 5);

k: integer init 10;

while k > 0 do

{ getForks(i);

nl; write(„filosofo ‟); write(i); write(„ comecou a comer‟);

putForks(i);

nl; write(„filosofo ‟); write(i); write(„ parou de comer‟);

k:=k-1

}

endprogram

Barbeiro dorminhoco

O problema consiste em simular o funcionamento de uma barbearia com as seguintes

características. A barbearia tem uma sala de espera com N cadeiras e uma cadeira de barbear. Se

não tem clientes à espera, o barbeiro senta numa cadeira e dorme. Quando chega um cliente, ele

acorda o barbeiro. Se chega outro cliente enquanto o barbeiro está trabalhando, ele ocupa uma

cadeira e espera (se tem alguma cadeira disponível) ou vai embora (se todas as cadeiras estão

ocupadas).

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 18 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

A solução a seguir usa 3 semáforos: clientes, fila e mutex. O semáforo clientes tranca o

barbeiro, sendo suas “bolitas” produzidas pelos clientes que chegam. O valor desse semáforo

indica o número de clientes à espera (excluindo o cliente na cadeira do barbeiro, que não está à

espera). O semáforo fila tranca os clientes e implementa a fila de espera. O semáforo mutex

garante exclusão mútua. Também é usada uma variável inteira, count, que conta o número de

clientes à espera. O valor desta variável é sempre igual ao “número de bolitas” do semáforo

clientes.

Um cliente que chega na barbearia verifica o número de clientes à espera. Se esse número

é menor que o número de cadeiras, o cliente espera, caso contrário, ele vai embora. A solução é

apresentada a seguir, considerando o número de cadeiras na sala de espera igual a 3.

Inicialmente, o barbeiro executa a operação P(clientes), onde fica bloqueado (dormindo)

até a chegada de algum cliente. Quando chega um cliente, ele começa adquirindo a exclusão

mútua. Outro cliente que chegar imediatamente após, irá se bloquear até que o primeiro libere a

exclusão mútua. Dentro da região crítica, o cliente verifica se o número de pessoas à espera é

menor ou igual ao número de cadeiras. Se não é, ele libera mutex e vai embora sem cortar o

cabelo.

Se tem alguma cadeira disponível, o cliente incrementa a variável count e executa a

operação V no semáforo clientes. Se o barbeiro está dormindo, ele é acordado; caso contrário, é

adicionada uma “bolita” no semáforo clientes. A seguir, o cliente libera a exclusão mútua e entra

na fila de espera. O barbeiro adquire a exclusão mútua, decrementa o número de clientes, pega o

primeiro da fila de espera e vai fazer o corte.

Variáveis globais: clientes, fila: semaphore init 0;

mutex: semaphore init 1;

count : integer initial 0;

Processo barbeiro: Processo cliente:

loop P(mutex);

P(clientes); /*dorme, se for o caso*/ if count < 3

P(mutex); then { count:= count+1;

count:= count –1; V(clientes); /*acorda o barbeiro*/

V(fila); /*pega próximo cliente*/ V(mutex);

V(mutex); P(fila); /*espera o barbeiro*/

/*corta o cabelo*/ /*corta o cabelo*/

endloop }

else V(mutex)

Quando termina o corte de cabelo, o cliente deixa a barbearia e o barbeiro repete o seu

loop onde tenta pegar um próximo cliente. Se tem cliente, o barbeiro faz outro corte. Se não tem,

o barbeiro dorme.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 19 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

Leitores e escritores

O problema dos readers and writers [COU71] ilustra outra situação comum em sistemas de

processos concorrentes. Este problema surge quando processos executam operações de leitura e

de atualização sobre um arquivo global (ou sobre uma estrutura de dados global). A sincronização

deve ser tal que vários readers (isto é, processos leitores, que não alteram a informação) possam

utilizar o arquivo simultaneamente. Entretanto, qualquer processo writer deve ter acesso

exclusivo ao arquivo.

Na solução a seguir é dada prioridade para os processos readers. São utilizadas duas

variáveis semáforas, mutex e w, para exclusão mútua, e uma variável inteira nr, para contar o

número de processos leitores ativos. Note que o primeiro reader bloqueia o progresso dos writers

que chegam após ele, através do semáforo w. Enquanto houver reader ativo, os writers ficarão

bloqueados.

Variáveis globais: mutex, w : semaphore initial 1;

nr : integer initial 0;

Processo leitor:

. . .

P(mutex); Processo escritor:

nr:=nr+1; . . .

if nr=1 then P(w); . . .

V(mutex); P(w);

READ WRITE

P(mutex); V(w);

nr:=nr-1; . . .

if nr=0 then V(w); . . .

V(mutex); . . .

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 20 (Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.

Editora Sagra-Luzzatto, 2003)

BIBLIOGRAFIA

[CON63] CONWAY, M. E. A Multiprocessor system design. Proc. AFIPS Fall Joint

Computer Conference, pp.139-146. Las Vegas, Nevada, 1963.

[COU71] COURTOIS, P. J., HEYMANS, F.and PARNAS, D. L. Concurrent Control with

“Readers” and “Writers”. Comm. ACM 14, No. 10 (October), 667-668, 1971.

[DIJ65] DIJKSTRA, E. W. Cooperating Sequential Processes. Technical Report EWD-123,

Technological University, Eindhoven, the Netherlands, 1965. Reprinted in: Programming

Languages (F. Genuys, ed.) pp. 43-112. Academic Press, New York, 1968.

[HOA74] HOARE, C. A. R. Monitors: An Operating System Structuring Concept. Comm.

ACM 17, No. 10 (October), 549-557, 1974. Erratum in Comm. ACM 18, No. 2, page

95 (January) 1975.

[OLI04] OLIVEIRA, R, CARISSIMI, A., TOSCANI, S. Sistemas Operacionais. Série didática

do II-UFRGS, 2004 (3ª edição).

[SHA84] SHATZ, S. M. Communication mechanisms for programming distributed systems.

Computer 17, No. 6, pp.21-28, 1984.

[TAF97] TAFT, S. T. DUFF, R. A. ADA 95 Reference Manual: language and standard

libraries. Springer-Verlag, 1995. (Lecture Notes in Computer Science, Vol 1246).

[TOS03] TOSCANI, S., OLIVEIRA, R., CARISSIMI, A., Sistemas Operacionais e

Programação Concorrente. Série didática do II-UFRGS, 2003.

[TOS04] TOSCANI, S. S. Kit de instalação da linguagem VALE4. Disponível em

www.inf.pucrs.br/~stoscani/V4.