Buscar

Gerência de Processos e do Processador

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 24 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 24 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 24 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 1/24
 
 
 
 
 
 
 
 
SISTEMAS OPERACIONAIS
AULA 2
 
 
 
 
 
 
 
 
 
 
 
 
Prof. André Roberto Guerra
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 2/24
CONVERSA INICIAL
Seguindo os conteúdos previstos e a definição de gestão apresentada, nesta aula são
apresentados os conceitos e as técnicas das gerências de processos e do processador subdivididos
e descritos em cinco temas:
Princípios de gestão de processos (concorrência).
Tarefas (conceitos, gerência e ciclo).
Processos (contextos e definições).
Threads (definição e modelos/tipos).
Gerência do processador (escalonamento).
Aproveite e bons estudos!
TEMA 1 – PRINCÍPIOS DE GESTÃO DE PROCESSOS
Stallings (2017, p. 241, grifo nosso) define o sistema operacional como “um programa que
gerencia os recursos do computador, fornece serviços para os programadores e estabelece uma
ordem de execução de outros programas”. Ele (SO) é o software que controla a execução de
programas em um processador e gerencia os recursos do computador.
Uma das funções desempenhadas pelo SO, considerada a mais relevante nesta aula, é o
escalonamento de processos. Quase todos os processadores dispõem do suporte a esse recurso,
em maior ou menor extensão, incluindo hardware de gerenciamento de processos. Isso inclui
registradores de propósito especial e áreas de armazenamento temporário, além de um conjunto de
circuitos para realizar tarefas básicas de gerenciamento de recursos. (Tanenbaum; Woodhull, 2008)
Sistemas operacionais podem ser vistos como um conjunto de rotinas executadas de forma
concorrente e ordenada. A possibilidade de o processador executar instruções ao mesmo tempo que
outras operações, por exemplo operações de E/S, permite que diversas tarefas sejam executadas
concorrentemente pelo sistema (Siqueira, 2020).
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 3/24
O conceito de concorrência é o princípio básico para o projeto e a implementação dos sistemas
multiprogramáveis. Nos sistemas multiprogramáveis, vários programas podem estar residentes em
memória, concorrendo pela utilização do processador. Dessa forma, quando um programa solicita
uma operação de E/S, outros programas podem utilizar o processador (Siqueira, 2020).
O sistema operacional implementa diversos mecanismos de software e/ou de hardware para
possibilitar a concorrência entre programas. Um sistema de computação quase sempre tem mais
atividades a executar que o número de processadores disponíveis. Assim, é necessário criar métodos
para multiplexar o(s) processador(es) da máquina entre as atividades presentes. Além disso, como as
diferentes tarefas têm necessidades distintas de processamento e nem sempre a capacidade de
processamento existente é suficiente para atender a todas, estratégias precisam ser definidas para
que cada tarefa receba uma quantidade de processamento que atenda suas necessidades (Maziero,
2019).
Por outro lado, um processador convencional somente trata um fluxo de instruções de cada vez.
Até mesmo computadores com vários processadores, várias cores ou com tecnologia hyper-threading,
por exemplo, têm mais atividades a executar que o número de processadores disponíveis (Maziero,
2019).
Como fazer para atender simultaneamente as múltiplas necessidades de processamento dos
usuários?
Uma solução ingênua para esse problema seria equipar o sistema com um processador para cada
tarefa, mas essa solução ainda é inviável econômica e tecnicamente. Outra solução seria multiplexar
o processador entre as várias tarefas que requerem processamento, ou seja, compartilhar o uso do
processador entre as várias tarefas, de forma a atendê-las da melhor maneira possível.
Para uma gestão eficaz do processamento, é fundamental compreender o conceito de tarefa. O
próximo tema aborda o conceito de tarefa, como estas são definidas, quais os seus estados
possíveis e como/quando elas mudam de estado. (Maziero, 2019, p. 40-41)
TEMA 2 – TAREFAS (CONCEITOS, GERÊNCIA E CICLO)
Uma tarefa é definida por (Maziero, 2019, p. 41) como sendo a
[...] execução de um fluxo sequencial de instruções, construído para atender uma finalidade
específica: realizar um cálculo complexo, a edição de um gráfico, a formatação de um disco etc.
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 4/24
Assim, a execução de uma sequência de instruções em linguagem de máquina, normalmente
gerada pela compilação de um programa escrito em uma linguagem qualquer, é denominada
“tarefa” ou “atividade” (do inglês task).
Maziero (2019, p. 41, grifo do original) ressalta as diferenças entre tarefa e programa:
Programa é um conjunto de uma ou mais sequências de instruções escritas para resolver um
problema específico, constituindo assim uma aplicação ou utilitário. O programa representa um
conceito estático, sem um estado interno definido (que represente uma situação específica da
execução) e sem interações com outras entidades (o usuário ou outros programas).
Tarefa é a execução sequencial, por um processador, da sequência de instruções definidas em um
programa para realizar seu objetivo. Trata-se de um conceito dinâmico, que possui um estado
interno bem definido a cada instante (os valores das variáveis internas e a posição atual da
execução evoluem com o tempo) e interage com outras entidades: o usuário, os dispositivos
periféricos e/ou outras tarefas.
Tarefas podem ser implementadas de várias formas, como processos ou threads, que serão
apresentados nos temas seguintes, confira!
Maziero (2019, p. 41) apresenta que
Fazendo uma analogia simples, pode-se dizer que um programa é o equivalente de uma “receita de
torta” dentro de um livro de receitas (um diretório) guardado em uma estante (um disco) na
cozinha (o computador). Essa receita de torta define os ingredientes necessários (entradas) e o
modo de preparo (programa) da torta (saída). Por sua vez, a ação de “executar” a receita,
providenciando os ingredientes e seguindo os passos definidos na mesma, é a tarefa propriamente
dita.
[...]
A cada momento, a cozinheira (o processador) está seguindo um passo da receita (posição da
execução) e tem uma certa disposição dos ingredientes e utensílios em uso (as entradas e variáveis
internas da tarefa).
Assim como uma receita de torta pode definir várias atividades interdependentes para elaborar a
torta (preparar a massa, fazer o recheio, assar, decorar, etc.), um programa também pode definir
várias sequências de execução interdependentes para atingir seus objetivos.
Maziero (2019, p. 42) prossegue:
Dessa forma, as tarefas definem as atividades a serem realizadas dentro do sistema de computação.
Como geralmente há muito mais tarefas a realizar que processadores disponíveis, e as tarefas não
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 5/24
têm todas a mesma importância, a gerência de tarefas tem uma grande importância dentro de um
sistema operacional.
Leitura complementar
Leia o capítulo 4.3, A gerência de tarefas, do livro indicado:
MAZIERO, C. Sistemas operacionais: conceitos e mecanismos. Curitiba: Ed. UFPR, 2019.
Os sistemas monotarefa foram:
Os primeiros sistemas de computação, nos anos 40, executavam apenas uma tarefa de cada vez.
Nestes sistemas, cada programa binário era carregado do disco para a memória e executado até
sua conclusão. Os dados de entrada da tarefa eram carregados na memória junto à mesma e os
resultados obtidos no processamento eram descarregados de volta no disco após a conclusão da
tarefa. Todas as operações de transferência de código e dados entre o disco e a memória eram
coordenadas por um operador humano. Esses sistemas primitivos eram usados sobretudo para
aplicações de cálculo numérico, muitas vezes com fins militares (problemas de trigonometria,
balística, mecânica dos fluidos etc.). (Maziero, 2019, p. 42-43)
Os sistemas multitarefas surgiram logoem seguida, pois
Como a velocidade de processamento era muito maior que a velocidade de comunicação com os
dispositivos de entrada e saída, o processador ficava ocioso durante os períodos de transferência
de informação entre disco e memória.  Se a operação de entrada/saída envolvesse fitas magnéticas,
o processador podia ficar parado vários minutos, aguardando a transferência de dados. O custo dos
computadores e seu consumo de energia eram elevados demais para deixá-los ociosos por tanto
tempo.
A solução encontrada para resolver esse problema foi permitir ao monitor suspender a execução da
tarefa que espera dados externos e passar a executar outra tarefa. Mais tarde, quando os dados de
que a tarefa suspensa necessita estiverem disponíveis, ela pode ser retomada no ponto onde parou.
Para tal, é necessário ter mais memória (para poder carregar mais de um programa ao mesmo
tempo) e criar mecanismos no monitor para suspender uma tarefa e retomá-la mais tarde.
Uma forma simples de implementar a suspensão e retomada de tarefas de forma transparente
consiste no monitor fornecer um conjunto de rotinas padronizadas de entrada/saída à tarefas; essas
rotinas implementadas pelo monitor recebem as solicitações de entrada/saída de dados das tarefas
e podem suspender uma execução quando for necessário, devolvendo o controle ao monitor.
[...]
Essa evolução levou a sistemas mais produtivos (e complexos), nos quais várias tarefas podiam
estar em andamento simultaneamente: uma ativa (executando) e as demais prontas (esperando
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 6/24
pelo processador) ou suspensas (esperando dados ou eventos externos). (Maziero, 2019, p. 44)
O diagrama de estados básicos das tarefas da Figura 1 ilustra o comportamento de uma tarefa:
Figura 1 – Diagrama de estados das tarefas
Fonte: com base em Maziero, 2019.
2.1 CICLO DE VIDA DAS TAREFAS
A estrutura do diagrama de ciclo de vida das tarefas pode variar de acordo com a interpretação
dos autores. Por exemplo, a forma trazida neste texto condiz com a apresentada em Silberschatz,
Gagne e Galvin (2018) e outros autores.
Por outro lado, o diagrama apresentado em Tanenbaum e Bos (2016) divide o estado “suspenso”
em dois subestados separados: bloqueado, quando a tarefa aguarda a ocorrência de algum evento
(tempo, entrada/saída etc.), e suspenso, para tarefas bloqueadas que foram movidas da memória
RAM para a área de troca pelo mecanismo de paginação em disco. Todavia, tal distinção de estados
não faz mais sentido nos sistemas operacionais atuais baseados em memória paginada, pois neles os
processos podem se executar mesmo estando somente parcialmente carregados na memória.
O diagrama apresentado na Figura 2 é conhecido na literatura da área como diagrama de ciclo
de vida das tarefas.
Figura 2 – Diagrama de ciclo de vida das tarefas
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 7/24
Fonte: com base em Maziero, 2019.
Os estados e as transições do ciclo de vida têm o seguinte significado (Maziero, 2019):
Nova: A tarefa está sendo criada, seu código está sendo carregado em memória, junto com as
bibliotecas necessárias, e as estruturas de dados do núcleo estão sendo atualizadas para permitir
sua execução.
Pronta: A tarefa está em memória, pronta para iniciar ou retomar sua execução, apenas aguardando
a disponibilidade do processador. Todas as tarefas prontas são organizadas em uma fila (fila de
prontas, ready queue ou run queue), cuja ordem é determinada por algoritmos de escalonamento,
que são apresentados e definidos no Tema 5 desta aula.
Executando: O processador está dedicado à tarefa, executando suas instruções e fazendo avançar
seu estado.
Suspensa: A tarefa não pode executar porque depende de dados externos ainda não disponíveis
(do disco ou da rede, por exemplo), aguarda algum tipo de sincronização (o fim de outra tarefa ou
a liberação de algum recurso compartilhado) ou simplesmente espera o tempo passar (em uma
operação sleeping, por exemplo).
Terminada: O processamento da tarefa foi encerrado e ela pode ser removida da memória do
sistema.
Tão importantes quanto os estados das tarefas apresentados na Figura 2.2 são as transições entre
esses estados, que são explicadas a seguir:
→ Nova: Esta transição ocorre quando uma nova tarefa é admitida no sistema e começa a ser
preparada para executar.
Nova → Pronta: ocorre quando a nova tarefa termina de ser carregada em memória, juntamente
com suas bibliotecas e dados, estando pronta para executar.
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 8/24
Pronta → Executando: esta transição ocorre quando a tarefa é escolhida pelo escalonador para ser
executada (ou para continuar sua execução), dentre as demais tarefas prontas.
Executando → Pronta: esta transição ocorre quando se esgota a fatia de tempo destinada à tarefa
(ou seja, o fim do quantum); como nesse momento a tarefa não precisa de outros recursos além do
processador, ela volta à fila de tarefas prontas até recebê-lo novamente.
Executando → Suspensa: caso a tarefa em execução solicite acesso a um recurso não disponível,
como dados externos ou alguma sincronização, ela abandona o processador e fica suspensa até o
recurso ficar disponível.
Suspensa → Pronta: quando o recurso solicitado pela tarefa se torna disponível, ela pode voltar a
executar, portanto volta ao estado de pronta para aguardar o processador (que pode estar
ocupado com outra tarefa).
Executando → Terminada: ocorre quando a tarefa encerra sua execução ou é abortada em
consequência de algum erro (acesso inválido à memória, instrução ilegal, divisão por zero, etc.). Na
maioria dos sistemas a tarefa que deseja encerrar avisa o sistema operacional através de uma
chamada de sistema (no Linux é usada a chamada exit).
Terminada → ·: Uma tarefa terminada é removida da memória e seus registros e estruturas de
controle no núcleo são liberados.
[...]
Nos sistemas operacionais de mercado é possível consultar o estado das tarefas em execução no
sistema. Isso pode ser feito no Windows, por exemplo, através do utilitário “Gerenciador de Tarefas”
(Maziero, 2019, p. 47-48).
Para Maziero (2019), tarefa é a unidade básica de atividade dentro de um sistema operacional.
Tarefas podem ser implementadas de várias formas, como processos, threads, transações e jobs.
2.2 CONTEXTOS
De acordo com Maziero (2019, p. 51),
[...] uma tarefa possui um estado interno bem definido, que representa sua situação atual: a posição
de código que ela está executando, os valores de suas variáveis e os recursos que ela utiliza, por
exemplo. Esse estado se modifica conforme a execução da tarefa evolui. O estado de uma tarefa em
um determinado instante é denominado contexto. /Uma parte importante do contexto de uma
tarefa diz respeito ao estado interno do processador durante sua execução, como o valor do
contador de programa (PC - Program Counter), do apontador de pilha (SP - Stack Pointer) e demais
registradores. Além do estado interno do processador, o contexto de uma tarefa também inclui
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 9/24
informações sobre os recursos usados por ela, como arquivos abertos, conexões de rede e
semáforos.
A Figura 3 ilustra os contextos do processo ou tarefa.
Figura 3 – Contextos de processo ou tarefa
Fonte: com base em Machado, 1997, citado por Maia, 2001.
Na mesma obra, Maziero (2019, p. 51-52, grifo nosso) descreve que
A cada tarefa presente no sistema é associado um descritor, ou seja, uma estrutura de dados no
núcleo que representa essa tarefa. Nessa estrutura de dados são armazenadas as informações
relativas ao seu contexto e os demais dados necessários à sua gerência, como prioridades, estado
etc. Essa estrutura de dados é geralmente chamada de TCB (Task Control Block) ou PCB (Process
Control Block).
Um TCB tipicamente contém as seguintes informações:
identificador do processo (PID – ProcessIdentifier);
estado do processo (novo, pronto, executando, suspenso, terminado);
informações de contexto do processador (valores dos registradores);
lista de áreas de memória usadas pelo processo;
listas de arquivos abertos, conexões de rede e outros recursos usados pelo processo
(exclusivos ou compartilhados com outras tarefas);
informações de gerência e contabilização (prioridade, usuário proprietário, data de início,
tempo de processamento já decorrido, volume de dados lidos/escritos etc.).
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 10/24
Dentro do núcleo, os descritores das tarefas são geralmente organizados em listas ou vetores de
TCBs. Por exemplo, normalmente há uma lista de tarefas prontas para executar, uma lista de tarefas
aguardando acesso ao disco rígido etc.
TEMA 3 – PROCESSOS (CONTEXTOS E DEFINIÇÕES)
Um processo pode ser entendido inicialmente como um programa em execução, só que seu
conceito é mais abrangente. Este conceito torna-se mais claro quando pensamos de que forma os
sistemas multiprogramáveis (multitarefa) atendem os diversos usuários (tarefas) e mantêm
informações a respeito dos vários programas que estão sendo executados concorrentemente.
(Machado, 1997, citado por Maia, 2001, p. 21)
Processo é definido pelos autores clássicos Silberschatz, Gagne e Galvin (2018) e Tanenbaum e
Bos (2016) como equivalente a tarefas, com seus respectivos recursos, como arquivos abertos e
canais de comunicação, em uma área de memória delimitada e isolada das demais. Ou seja, um
processo é definido como uma espécie de “cápsula” isolada de execução, contendo uma tarefa e seus
recursos. Essa visão é mantida.
De fato, segundo Maziero (2019, p. 54),
[...] os sistemas operacionais mais antigos, até meados dos anos 80, suportavam somente um fluxo
de execução em cada processo. Assim, as unidades de execução (tarefa) e de recursos (processo) se
confundiam. No entanto, quase todos os sistemas operacionais atuais suportam a existência de
mais de uma tarefa em cada processo. Hoje em dia, o processo deve ser visto como uma unidade
de contexto, ou seja, um contêiner de recursos utilizados por uma ou mais tarefas para sua
execução, com áreas de memória (código, dados, pilha), informações de contexto e descritores de
recursos do núcleo (arquivos abertos, conexões de rede, etc.). Um processo pode então conter
várias tarefas, que compartilham esses recursos. Os processos são isolados entre si pelos
mecanismos de proteção providos pelo hardware (isolamento de áreas de memória, níveis de
operação e chamadas de sistema), impedindo que uma tarefa acesse um recurso atribuído ao
processo.
Os sistemas operacionais atuais geralmente associam por default uma única tarefa a cada processo,
o que corresponde à execução de um programa sequencial (iniciado pela função main() de um
programa em C, por exemplo). Caso se deseje associar mais tarefas ao mesmo processo, cabe ao
desenvolvedor escrever o código necessário para solicitar ao núcleo a criação dessas tarefas
adicionais, usualmente sob a forma de threads, que são apresentadas no próximo tema. O núcleo
do sistema operacional mantém descritores de processos, denominados PCBs (Process Control
Blocks), descritos no tema anterior.
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 11/24
Segundo Maziero (2019), um processo possui informações dos contextos de hardware, de
software e de endereçamento de memória, como já ilustrado na Figura 3.
Definido por Maia (2001, p. 22):
O contexto de hardware é fundamental para a implementação dos sistemas de tempo
compartilhado (time-sharing), onde os processos se revezam na utilização do processador,
podendo ser interrompidos e, posteriormente, restaurados como se nada tivesse acontecido. A
troca de um processo por outro na CPU, realizada pelo sistema operacional, é denominada
mudança de contexto (context switching). A mudança de contexto consiste em salvar o conteúdo
dos registradores da CPU e carregá-los com os valores referentes ao do processo que esteja
ganhando a utilização do processador. Essa operação resume-se, então, em substituir o contexto de
hardware de um processo pelo de outro.
Nos sistemas atuais, segundo Maziero (2019, p. 53-54),
[...] a realização de uma troca de contexto, envolvendo a interrupção da tarefa atual, o salvamento
de seu contexto e a reativação da próxima tarefa, é uma operação relativamente rápida (alguns
microssegundos, dependendo do hardware e do sistema operacional). A execução do escalonador,
entretanto, pode ser bem mais demorada, sobretudo se houverem muitas tarefas prontas para
executar. Por esta razão, muitos sistemas operacionais não executam o escalonador a cada troca de
contexto, mas apenas periodicamente, quando há necessidade de reordenar a fila de tarefas
prontas.
O contexto de software é descrito por Maia (2001, p. 22) em sua dissertação e
[...] especifica características do processo que vão influir na execução de um programa, como o
número máximo de arquivos abertos simultaneamente ou o tamanho do buffer para operações de
E/S. Essas características são determinadas no momento da criação do processo, mas algumas
podem ser alteradas durante sua existência. O contexto de software define basicamente três grupos
de informações de um processo: sua identificação, suas quotas e seus privilégios.
O espaço de endereçamento é a área de memória do processo onde um programa poderá ser
executado, além do espaço para os dados utilizados por ele. Cada processo possui seu próprio
espaço de endereçamento, que deve ser protegido do acesso dos demais processos.
Os processos são executados de forma cíclica alternando seu estado, como ilustra a Figura 4:
Figura 4 – Estados do processo
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 12/24
Fonte: com base em Maziero, 2019.
Definido por Maia (2001), um processo está no estado de execução (running) quando está
sendo processado pela CPU. Estado de pronto (ready) ocorre quando apenas aguarda uma
oportunidade para executar, ou seja, espera que o sistema operacional aloque a CPU para sua
execução. Estado de espera (wait) é quando aguarda algum evento externo ou algum recurso para
poder prosseguir seu processamento.
3.1 PROBLEMAS DE COMUNICAÇÃO ENTRE PROCESSOS OU THREADS
A comunicação entre processos é outro importante aspecto a ser considerado:
Tarefas associadas ao mesmo processo podem trocar informações facilmente, pois compartilham as
mesmas áreas de memória. Todavia, isso não é possível entre tarefas associadas a processos
distintos. Para resolver esse problema, o núcleo deve prover às aplicações chamadas de sistema
que permitam a comunicação interprocessos (IPC – Inter-Process Communication). (Maziero, 2019,
p. 57)
Contudo, processos podem solicitar recursos, mesmo que estejam em posse de recursos obtidos
anteriormente. Caso estes recursos já estejam alocados em outros processos, o processo solicitante
deve aguardar pela liberação daquele. Essa é a condição natural do sistema de alocação de recursos,
porém alguns problemas naturalmente podem ocorrer. Neste caso, temos os problemas de
comunicação entre processos ou threads (Oliveira, 2015).
Condição de corrida: também chamada de corriza de hazards, é uma das consequências da
sincronização incorreta. Essa condição gera a disputa de recursos do sistema por múltiplos processos,
ou threads, causando o corrompimento dos dados. Isso faz com que parte desses dados sejam
modificadas por um processo/thread, e parte, por outro, ou seja, acontece quando dois ou mais
processos entram simultaneamente na região crítica (Oliveira, 2015).
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 13/24
Starvation: conhecido também como livelock, acontece quando processos e/ou threads estão
em execução, mas nada acontece. Isso ocorre geralmente quando dois ou mais processos/threads
então trabalhando com intenções contrarias, situação em que o que é feitopor um processo/thread é
desfeito pelo outro. Também ocorre quando um processo/thread tenta o acesso a um recurso que
está sendo utilizado por outro processo/thread – o SO pede para que este aguarde sua liberação,
porém o processo/thread não está preparado para a espera, ou seja, ele vai continuar solicitando o
recurso indefinidamente, mesmo que o recurso seja liberado, pois o processo/thread não foi
programado para uma “rejeição” (Oliveira, 2015).
Deadlock: é o problema mais terrível e mais estudado em sistemas operacionais. Trata-se de
uma situação em que dois ou mais processos/threads estão em estado simultâneo de espera, cada
um aguardando que um dos demais libere um bloqueio para ele poder prosseguir, ou seja, um
conjunto de N processos está em deadlock quando cada um dos N processos está bloqueado à
espera de um recurso que somente pode ser liberado por um processo desse conjunto (Oliveira,
2015).
Figura 5 – Situação de impasse – deadlock
Créditos: Ilya kovshik/Shutterstock.
TEMA 4 – THREADS (DEFINIÇÃO E MODELOS/TIPOS)
“Os primeiros sistemas operacionais suportavam uma única tarefa por processo” (Maziero, 2019,
p. 58). Cada processo tem seu espaço de endereçamento individual e apenas um fluxo de controle
(thread). “À medida em que as aplicações se tornavam mais complexas, essa limitação se tornou bem
inconveniente” (Maziero, 2019, p. 58), pois, algumas vezes, desejamos ter vários fluxos de controle
(threads) no mesmo espaço de endereçamento simulando uma execução em paralelo, como se cada
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 14/24
fluxo fosse visto realmente como um processo distinto (exceto pelo fato de compartilharem um único
espaço de endereçamento) (Oliveira, 2015).
Por exemplo, um editor de textos geralmente executa tarefas simultâneas de edição, formatação,
paginação e verificação ortográfica sobre os mesmos dados (o texto em edição). Da mesma forma,
processos que implementam servidores de rede (de arquivos, bancos de dados etc.) devem
gerenciar as conexões de vários usuários simultaneamente, que muitas vezes requisitam as mesmas
informações. Essas demandas evidenciaram a necessidade de suportar mais de uma tarefa
operando sobre os mesmos recursos, ou seja, dentro do mesmo processo. (Maziero, 2019, p. 58)
Thread é definida por Maziero (2019, p. 58) como “um fluxo de execução independente. Um
processo pode conter uma ou mais threads, cada uma executando seu próprio código e
compartilhando recursos com as demais threads localizadas no mesmo processo”. Alguns autores
usam também o termo processo leve (lightweigth process) como sinônimo de thread.
Cada thread é caracterizada por um código em execução e um pequeno contexto local, o Thread
Local Storage (TLS), composto pelos registradores do processador e uma área de pilha em
memória, para que a thread possa armazenar variáveis locais e efetuar chamadas de funções.
Threads são também utilizadas para implementar fluxos de execução dentro do núcleo do SO,
neste caso recebendo o nome de threads de núcleo (em oposição às threads dos processos,
denominadas user threads).
Além de representar as threads de usuário dentro do núcleo, as threads de núcleo também incluem
atividades internas do núcleo, como rotinas de drivers de dispositivos ou tarefas de gerência.
(MAZIERO, 2019, p. 58-59).
Muitas threads podem existir dentro de um único contexto de processo, cooperando entre si a
fim de realizar um dado cálculo e compartilhando o espaço de endereçamento e o restante do
contexto desse processo. (multithread).
Um ambiente multithread se utiliza dos mesmos mecanismos de concorrência entre processos,
interrupções, exceções e a comunicação entre processos (inter process comunication – IPC), essenciais
para permitir acesso concorrente a um recurso compartilhado (Oliveira, 2015).
4.1 MODELOS DE THREADS
As threads contidas nos processos, segundo Maziero (2019, p. 59), “definidas no espaço de
usuário, devem ser gerenciadas pelo núcleo do sistema operacional. Essa gerência pode ser feita de
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 15/24
diversas formas, conforme os seguintes modelos de implementação de threads”:
4.1.1 O modelo N:1
Os sistemas operacionais mais antigos suportavam apenas processos sequenciais, com um único
fluxo de execução em cada um. Os desenvolvedores de aplicações contornaram esse problema
construindo bibliotecas para salvar, modificar e restaurar os registradores da CPU dentro do
processo, permitindo assim criar e gerenciar vários fluxos de execução (threads) dentro de cada
processo, sem a participação do núcleo.
Com essas bibliotecas, uma aplicação pode lançar várias threads conforme sua necessidade, mas o
núcleo do sistema irá sempre perceber (e gerenciar) apenas um fluxo de execução dentro de cada
processo (ou seja, o núcleo irá manter apenas uma thread de núcleo por processo). Esta forma de
implementação de threads é denominada Modelo de Threads N:1, pois N threads dentro de um
processo são mapeadas em uma única thread no núcleo. Esse modelo também é denominado
fibers ou ainda green threads.
[...]
O modelo de threads N:1 é muito utilizado, por ser leve e de fácil implementação. Como o núcleo
somente vê uma thread, a carga de gerência imposta ao núcleo é pequena e não depende do
número de threads dentro da aplicação. Essa característica torna este modelo útil na construção de
aplicações que exijam muitos threads, como jogos ou simulações de grandes sistemas. (Maziero,
2019, p. 59-60, grifo do original)
Por outro lado, de acordo com Maziero, o modelo de threads N:1 apresenta alguns problemas:
as operações de entrada/saída são realizadas pelo núcleo; se uma thread de usuário solicitar
a leitura do teclado, por exemplo, a thread de núcleo correspondente será suspensa até a
conclusão da operação, bloqueando todas as threads daquele processo;
o núcleo do sistema divide o tempo de processamento entre as threads de núcleo. Assim,
um processo com 100 threads irá receber o mesmo tempo de processador que outro com
apenas uma thread, ou seja, cada thread do primeiro processo irá receber 1/100 do tempo
que recebe a thread única do outro processo;
threads do mesmo processo não podem executar em paralelo, mesmo se o computador
dispuser de vários processadores ou cores, porque o núcleo somente escalona as threads de
núcleo nos processadores. (2019, p. 60)
4.1.2 O modelo 1:1
Maziero (2019, p. 60-61, grifo do original) descreve que:
A necessidade de suportar aplicações multithread levou os desenvolvedores de sistemas
operacionais a incorporar a gerência dos threads do processo no núcleo do sistema. Para cada
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 16/24
thread de usuário foi então associado um thread correspondente dentro do núcleo, suprimindo
com isso a necessidade de bibliotecas de threads. Essa forma de implementação é denominada
Modelo de Threads 1:1.  Este é o modelo mais frequente nos sistemas operacionais atuais, como o
Windows NT e seus descendentes, além da maioria dos UNIXes.
[...]
O modelo 1:1 resolve vários problemas: caso uma thread de usuário solicite uma operação
bloqueante, somente sua thread de núcleo correspondente será suspensa, sem afetar as demais
threads do processo. Além disso, a distribuição de processamento entre as threads é mais justa e,
caso o hardware tenha mais de um processador, mais threads do mesmo processo podem executar
ao mesmo tempo, o que não era possível no N:1.
O modelo de threads 1:1 é adequado para a maioria das situações usuais e atende bem às
necessidades das aplicações interativas e servidores de rede. No entanto, é pouco escalável: a
criação de um número muito grande de threads impõe uma carga elevada ao núcleo do sistema,
inviabilizando aplicações com muitas tarefas (como grandes servidores Web e simulações de
grande porte).
4.1.3 O modelo N:M
Para resolver o problema de escalabilidade da abordagem 1:1, alguns sistemasoperacionais
implementam um modelo híbrido, que agrega características dos modelos anteriores. Nesse novo
modelo, uma biblioteca gerencia um conjunto de N threads de usuário (dentro do processo), que é
mapeado em M < N threads no núcleo.
O conjunto de threads de núcleo associadas a um processo, denominado thread pool, geralmente
contém uma thread para cada thread de usuário bloqueada, mais uma thread para cada
processador disponível; esse conjunto pode ser ajustado dinamicamente, conforme a necessidade
da aplicação. (Maziero, 2019, p. 61, grifo do original)
4.2 FERRAMENTAS PARA PROCESSOS E THREADS
Algumas tarefas específicas auxiliam o sistema operacional no controle e gestão dos processos e
threads. Essas rotinas estão descritas a seguir:
Região crítica: também chamada de seção crítica. É a parte do sistema que permite acesso
concorrente entre os processos, por exemplo: spool de impressão, buffer de memória etc.
Exclusão mútua: é uma técnica usada em programação concorrente para evitar que dois ou
mais processos ou threads tenham acesso simultaneamente a um recurso compartilhado do
sistema, ou seja, a uma região crítica.
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 17/24
Sinais: são interrupções de software que notificam ao processo que um evento ocorreu. Os
sinais não permitem que processos especifiquem dados para trocar com outros processos. São
utilizados para sincronização entre processos e SO, ou seja, os sinais só ocorrem entre
processos ou entre processos e o SO.
Trap: é o sinal que o processo envia para o SO solicitando um serviço protegido deste (por
exemplo, sua entrada em uma região crítica). Um trap bloqueia o processo até que o serviço
requerido por este ao sistema operacional seja realizado (Oliveira, 2015).
TEMA 5 – GERÊNCIA DO PROCESSADOR (ESCALONAMENTO)
As tarefas de gestão do processor são descritas individualmente, e suas rotinas são apresentadas
neste último tema, complementando os temas anteriores, que descreveram a concorrência, os
processos e as threads.
A política de escalonamento de um sistema operacional tem diversas funções básicas, como a de
manter o processador ocupado a maior parte do tempo, auxiliando o hardware no objetivo de
minimizar a ociosidade, balancear o uso da CPU entre processos, privilegiar a execução de aplicações
críticas, maximizar o throughput do sistema e oferecer tempos de resposta razoáveis para usuários
interativos (Oliveira, 2015).
Essas funções são apresentadas nesse tema e complementam uma das funções básicas dos
sistemas operacionais, apresentada em aula anterior: o escalonamento de processos.
Em ambientes que implementam apenas processos, o escalonamento é realizado com base nos
processos prontos para execução. Em sistemas que implementam threads, o escalonamento é
realizado considerando os threads no estado de pronto (Machado; Maia, 2007), independentemente
do processo.
Justificando a utilização do nome escalonador, o termo é originário da tradução do termo
escalonador de tarefas (task scheduler) e é um dos componentes mais importantes da gerência de
tarefas, pois decide a ordem de execução das tarefas prontas. “O algoritmo utilizado no escalonador
define o comportamento do sistema operacional, permitindo obter sistemas que tratem de forma
mais eficiente e rápida as tarefas a executar, que podem ter características diversas” (Maziero, 2019,
p. 70).
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 18/24
Antes de se definir o algoritmo usado por um escalonador de tarefas, é necessário ter em mente a
natureza das tarefas que o sistema irá executar. Existem vários critérios que definem o
comportamento de uma tarefa; uma primeira classificação possível diz respeito ao seu
comportamento temporal:
Tarefas de tempo real: exigem previsibilidade em seus tempos de resposta aos eventos externos,
pois geralmente estão associadas ao controle de sistemas críticos, como processos industriais,
equipamentos médicos etc.
Tarefas interativas: são tarefas que recebem eventos externos (do usuário ou através da rede) e
devem respondê-los rapidamente, embora sem os requisitos de previsibilidade das tarefas de
tempo real. Esta classe de tarefas inclui a maior parte das aplicações dos sistemas desktop e dos
servidores.
Tarefas em lote (batch): são tarefas sem requisitos temporais explícitos, que normalmente
executam sem intervenção do usuário, como procedimentos de backup, varreduras de antivírus,
cálculos numéricos longos, tratamentos de grandes massas de dados em lote, renderização de
animações etc.
Além dessa classificação, as tarefas também podem ser classificadas de acordo com seu
comportamento no uso do processador:
Tarefas orientadas a processamento (CPU-bound tasks): são tarefas que usam intensivamente o
processador na maior parte de sua existência. Essas tarefas passam a maior parte do tempo nos
estados pronta ou executando.
Tarefas orientadas a entrada/saída (I/O-bound tasks): são tarefas que dependem muito mais dos
dispositivos de entrada/saída que do processador. Essas tarefas ficam boa parte de suas existências
no estado suspenso, aguardando respostas às suas solicitações de leitura e/ou escrita de dados nos
dispositivos de entrada/saída. (Maziero, 2019, p. 70-71, grifo do original)
5.1 CRITÉRIOS DE ESCALONAMENTO
Os objetivos e as metas de cada sistema operacional determinam quais são os principais
aspectos para a implementação de uma política de escalonamento adequada. Os principais critérios,
segundo Machado e Maia (2007), são:
Utilização do processador: na maioria dos sistemas, é desejável que o processador permaneça
a maior parte do tempo ocupado (Oliveira, 2015).
Throughput: representa o número de processos executados em um determinado intervalo de
tempo (Oliveira, 2015).
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 19/24
Tempo de processador /tempo de UCP: é o tempo que um processo leva no estado de
execução durante seu processamento (Machado; Maia, 2007).
Tempo de espera: tempo total que um processo permanece na fila de pronto durante seu
processamento, aguardando para ser executado (Oliveira, 2015).
Tempo de turnaround: é o tempo que um processo demora desde a sua criação até seu
término, levando em consideração todo o tempo gasto em espera para alocação de memória,
espera na fila de pronto, processamento na UCP e fila de espera, como nas operações de E/S
(Machado; Maia, 2007). É uma medida típica de sistemas em lote, nos quais não há interação
direta com os usuários do sistema. Não deve ser confundido com o tempo de processamento
(Maziero, 2019).
Tempo de resposta: tempo decorrido entre uma requisição ao sistema ou uma aplicação e o
instante em que a resposta é exibida. Essa medida de desempenho é típica de sistemas
interativos, como sistemas desktop e de tempo real, e depende sobretudo da rapidez no
tratamento das interrupções de hardware pelo núcleo e do valor do quantum de tempo, para
permitir que as tarefas interativas cheguem mais rápido ao processador quando saem do
estado suspenso (Maziero, 2019).
5.2 TIPOS DE ESCALONAMENTOS
As políticas de escalonamento de um sistema operacional podem ser classificadas em
preemptivo ou não preemptivo (cooperativo):
Preemptivos: são a possibilidade de o sistema operacional interromper um processo em
execução e substituí-lo por um outro (Siqueira, 2020). Nesses sistemas, uma tarefa pode perder o
processador caso termine seu quantum de tempo, execute uma chamada de sistema ou ocorra uma
interrupção que acorde uma tarefa mais prioritária (que estava suspensa aguardando um evento)
(Machado; Maia, 2007). “A cada interrupção, exceção ou chamada de sistema, o escalonador reavalia
todas as tarefas da fila de prontas e decide se mantém ou substitui a tarefa atualmente em execução”
(Maziero, 2019, p. 72).
No escalonamento preemptivo, o sistema operacional pode interromper um processo em
execução e passá-lo para o estado de pronto, como objetivo de alocar outro processo na UCP.
Em um sistema preemptivo simples, normalmente as tarefas só são interrompidas quando o
processador está no modo usuário; a thread de núcleo correspondente a cada tarefa não sofre
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 20/24
interrupções. Entretanto, os sistemas mais sofisticados implementam a preempção de tarefas
também no modo núcleo. Essa funcionalidade é importante para sistemas de tempo real, pois
permite que uma tarefa de alta prioridade chegue mais rapidamente ao processador quando for
reativada. (Maziero, 2019, p. 72)
Não preemptivo (sem interrupção ou cooperativos): este foi o primeiro tipo de escalonamento
implementado nos sistemas multiprogramáveis, em que predominava tipicamente o processamento
bath (Oliveira, 2015).
A tarefa em execução permanece no processador tanto quanto possível, só liberando-o caso
termine de executar, solicite uma operação de entrada/saída ou libere explicitamente o processador,
voltando à fila de tarefas prontas. Esses sistemas são chamados de cooperativos por exigir a
cooperação das tarefas entre si na gestão do processador (Oliveira, 2015), para que todos possam
executar.
First-in-first-out (FIFO): o processo que chegar primeiro ao estado de pronto é o selecionado
para execução (Maziero, 2019).
First-come, first served (FCFS): “A forma de escalonamento mais elementar consiste em
simplesmente atender as tarefas em sequência, à medida em que elas se tornam prontas (ou seja,
conforme sua ordem de ingresso na fila de tarefas prontas) e tem como principal vantagem sua
simplicidade” (Maziero, 2019, p. 73).
Round-robin (RR): “A adição da preempção por tempo ao escalonamento FCFS dá origem ao
algoritmo de escalonamento por revezamento, ou Round-Robin” (Maziero, 2019, p. 74). É menos
eficiente para a execução de tarefas em lote, entretanto, por distribuir melhor o uso do processador
entre as tarefas ao longo do tempo, é melhor para aplicações interativas. Deve-se observar que os
algoritmos de escalonamento FCFS e RR não consideram a importância das tarefas nem seu
comportamento em relação ao uso dos recursos (Maziero, 2019).
Shortest-job-first (SJF): seleciona primeiro o processo de menor tempo de processador ainda
por executar. Menor tarefa primeiro consiste em atribuir o processador à menor (mais curta) tarefa da
fila de tarefas prontas (Maziero, 2019).
Shortest remaining time first (SRTF):
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 21/24
O algoritmo SJF é cooperativo, ou seja, uma vez que uma tarefa recebe o processador, ela executa
até encerrar. Em uma variante preemptiva, o escalonador deve comparar a duração prevista de
cada nova tarefa que ingressa no sistema com o tempo de processamento restante das demais
tarefas presentes, inclusive aquela que está executando no momento. Caso a nova tarefa tenha um
tempo restante menor, ela recebe o processador. (Maziero, 2019, p. 76)
Escalonamento cooperativo: é uma implementação que busca aumentar o grau de
multiprogramação em políticas de escalonamentos que não possuam mecanismos de preempção.
Neste caso, um processo em execução pode voluntariamente liberar o processador para outro
processo (Oliveira, 2015).
Escalonamento circular: é um escalonamento do tipo preemptivo, projetado especialmente
para sistemas de tempo compartilhado. Quando um processo passa para o estado de execução,
existe um tempo-limite para uso contínuo do processador denominado fatia de tempo (time slice) ou
quantum (Oliveira, 2015).
Escalonamento por prioridades: é um escalonamento do tipo preemptivo realizado com base
em um valor associado a cada processo denominado prioridade de execução. O processo com maior
prioridade no estado de pronto é sempre o escolhido para execução, e processos com valores iguais
são escalonados seguindo critérios de FIFO (Machado; Maia, 2007).
Circular com prioridades: implementa o conceito de fatia de tempo e de prioridade de
execução associada a cada processo (Oliveira, 2015).
Escalonamento por múltiplas filas: existem diversas filas de processos no estado de pronto,
cada qual com uma prioridade específica. Os processos são associados às filas em função de
características próprias, como importância para a aplicação, tipo de processamento ou área de
memória necessária (Oliveira, 2015).
Escalonamento por múltiplas filas com realimentação: é semelhante ao escalonamento por
múltiplas filas, porém os processos podem trocar de filas durante seu processamento. Possibilidade
de reorganizar os processos nas filas de acordo com o seu comportamento (Machado; Maia, 2007).
FINALIZANDO
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 22/24
Após a apresentação das principais atividades de gestão em aula anterior, iniciamos o estudo da
gestão avançada do sistema, na qual as rotinas (tarefas) de gestão de processos e/ou tarefas e do
processador (escalonamento) foram individualmente apresentadas e descritas.
Foram apresentados e definidos os conceitos e as técnicas subdivididos em cinco temas. No
primeiro tema, uma introdução, com os princípios de gestão de processos, em uma explicação sobre
o conceito de concorrência, afinal o sistema operacional é o software que controla a execução de
programas em um processador, gerencia os recursos do computador e pode ser visto como um
conjunto de rotinas executadas de forma concorrente e ordenada (Oliveira, 2015).
No segundo tema, foi ampliado o conceito, pois, para uma gestão eficaz do processamento, é
fundamental compreender o conceito de tarefa, definida por Maziero (2019) como a execução de
um fluxo sequencial de instruções construído para atender uma finalidade específica denominada
“tarefa” ou “atividade” (do inglês task).
Foi também apresentado o conceito de tarefa, como são definidas, quais são os seus estados
possíveis e como/quando elas mudam de estado (Maziero, 2019), além do ciclo de vida e dos
contextos de hardware e software. Foram ressaltadas as diferenças entre tarefa e programa.
No tema seguinte, vimos os processos em seus contextos e definições. Processo pode ser
entendido inicialmente como um programa em execução, só que seu conceito é mais abrangente e
define a forma como os sistemas multiprogramáveis (multitarefa) atendem os diversos usuários e
tarefas e mantêm informações sobre vários programas em execução concorrente (Machado, 1997,
citado por Maia, 2001). É definido por autores clássicos, por exemplo Silberschatz (2018) e
Tanenbaum e Bos (2016), como equivalentes a tarefas, com seus recursos (arquivos abertos, conexões
de rede), em uma área de memória delimitada e isolada das demais, uma espécie de “cápsula”
isolada de execução, que contém uma tarefa e seus recursos. Essa visão ainda é mantida. Finalizamos
o tema com a apresentação dos problemas de comunicação entre os processos.
Na sequência, foram definidas e apresentadas as threads e seus modelos e/ou tipos. Devido à
necessidade de suportar mais de uma tarefa em operação sobre os mesmos recursos, no mesmo
processo, a thread é definida como um fluxo de execução independente. Um processo pode conter
uma ou mais threads, cada uma executando seu próprio código e compartilhando recursos com as
demais threads localizadas no mesmo processo, também denominado processo leve (lightweigth
process). Ainda foram definidos os modelos das threads contidas nos processos.
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 23/24
Em seguida, finalizando o conteúdo da aula no último tema, a gerência do processador, com a
definição de escalonamento, termo originário da tradução de escalonador de tarefas (task scheduler),
é um dos componentes mais importantes da gerência de tarefas, que decide a ordem de execução
das tarefas prontas (Maziero, 2019). Completando as definições, foram apresentados os critérios e os
tipos de escalonamento.
Nas aulas seguintes, os demais conceitos de gerência serão apresentadose definidos, não perca!
REFERÊNCIAS
MACHADO, F. B.; MAIA, P. L. Arquitetura de sistemas operacionais. 4. ed. São Paulo: LTC, 2007.
MAIA, L. P. SOsim: simulador para o ensino de sistemas operacionais. 97. Dissertação (Mestre em
Ciências em Informática) – Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2001. Disponível
em: <http://www.lapolli.pro.br/escolas/unicid/SistOpera/laboratorio/Tese.pdf>. Acesso em: 9 set.
2020.
MAZIERO, C. Sistemas operacionais: conceitos e mecanismos. Curitiba: Ed. UFPR, 2019.
OLIVEIRA, C. A. Material de apoio Sistemas Operacionais. Disponível em: <http://univirtus.
uninter.com/ava/web/#/ava/roa/3083381/> Acesso em: 5 jul. 2020.
SILBERSCHATZ, A.; GAGNE, G.; GALVIN, P. B. Operating system concepts. New Jersey: Wiley,
2018.
SIQUEIRA, F. de. Sistemas operacionais. Disponível em:
<https://sites.google.com/site/proffernandosiqueiraso/aulas>. Acesso em: 9 set. 2020.
STALLINGS, W. Operating systems: internals and design principles. 9. ed. [S.l.]: Pearson, 2017.
TANENBAUM, A. S.; BOS, H. Sistemas operacionais modernos. 4. ed. São Paulo: Pearson, 2016.
TANENBAUM, A. S.; WOODHULL; A. S. Sistemas operacionais, projeto e implementação. 3. ed.
Porto Alegre: Bookman, 2008.
TEDESCO, K. Concorrência, paralelismo, processos, threads. Treinaweb. Disponível em:
<https://www.treinaweb.com.br/blog/concorrencia-paralelismo-processos-threads-programacao-
29/01/2022 18:57 UNINTER
https://univirtus.uninter.com/ava/web/roa/ 24/24
sincrona-e-assincrona>. Acesso em: 9 set. 2020.

Continue navegando