Buscar

5 1 Redes neurais convolucionais IIFerramenta externa

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 5 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1. As redes neurais convolucionais estão revolucionando as pesquisas e o desenvolvimento de tecnologias que utilizam sistemas de inteligência artificial. Após alguns anos de ceticismo, as soluções de inteligência artificial voltaram a chamar a atenção de todos os setores da tecnologia. O que justificou essa ascensão?
A. As redes convolucionais são mais fáceis de compreender e analisar do que os demais tipos de redes devido à semelhança com o cérebro humano.
Ao separar o processamento em mapas de características, o cálculo de novos parâmetros foi reduzido, já que eles dependem agora do tamanho da janela de amostragem do filtro aplicado e são apenas replicados para cada um dos neurônios da camada oculta. De certa forma, mais cálculos são feitos durante o processamento porque a quantidade de neurônios aumenta conforme a quantidade de características, o que impacta positivamente por conter mais informações a respeito do ambiente, porém menos cálculos são necessários durante o treinamento, o que permite maior quantidade de repetições e aprendizado em menor tempo, aumentando novamente a precisão da rede.
B. As redes convolucionais se utilizam de matemática simples se comparadas com as demais soluções.
Ao separar o processamento em mapas de características, o cálculo de novos parâmetros foi reduzido, já que eles dependem agora do tamanho da janela de amostragem do filtro aplicado e são apenas replicados para cada um dos neurônios da camada oculta. De certa forma, mais cálculos são feitos durante o processamento porque a quantidade de neurônios aumenta conforme a quantidade de características, o que impacta positivamente por conter mais informações a respeito do ambiente, porém menos cálculos são necessários durante o treinamento, o que permite maior quantidade de repetições e aprendizado em menor tempo, aumentando novamente a precisão da rede.
C. As redes convolucionais superaram as redes neurais densas em todos os aspectos ao extrair características relevantes padronizando o método de busca.
Ao separar o processamento em mapas de características, o cálculo de novos parâmetros foi reduzido, já que eles dependem agora do tamanho da janela de amostragem do filtro aplicado e são apenas replicados para cada um dos neurônios da camada oculta. De certa forma, mais cálculos são feitos durante o processamento porque a quantidade de neurônios aumenta conforme a quantidade de características, o que impacta positivamente por conter mais informações a respeito do ambiente, porém menos cálculos são necessários durante o treinamento, o que permite maior quantidade de repetições e aprendizado em menor tempo, aumentando novamente a precisão da rede.
D. As redes neurais convolucionais obtêm desempenho superior a outros tipos de redes para determinados tipos de sinais, mesmo utilizando menos conexões e neurônios, o que reduz a quantidade de cálculo efetuado pelo computador.
Ao separar o processamento em mapas de características, o cálculo de novos parâmetros foi reduzido, já que eles dependem agora do tamanho da janela de amostragem do filtro aplicado e são apenas replicados para cada um dos neurônios da camada oculta. De certa forma, mais cálculos são feitos durante o processamento porque a quantidade de neurônios aumenta conforme a quantidade de características, o que impacta positivamente por conter mais informações a respeito do ambiente, porém menos cálculos são necessários durante o treinamento, o que permite maior quantidade de repetições e aprendizado em menor tempo, aumentando novamente a precisão da rede.
E. As redes neurais convolucionais não precisam de treinamento.
Ao separar o processamento em mapas de características, o cálculo de novos parâmetros foi reduzido, já que eles dependem agora do tamanho da janela de amostragem do filtro aplicado e são apenas replicados para cada um dos neurônios da camada oculta. De certa forma, mais cálculos são feitos durante o processamento porque a quantidade de neurônios aumenta conforme a quantidade de características, o que impacta positivamente por conter mais informações a respeito do ambiente, porém menos cálculos são necessários 
2. Maior disponibilidade computacional de cada vez maior processamento possibilitou a criação de redes mais complexas e maiores para aumentar a capacidade de resolução de problemas de uma rede neural. Para obter resultados mais eficientes, as redes neurais densas devem ser substituídas pelas redes neurais convolucionais?​​​​​​​
A. Sim. As redes neurais densas têm um conjunto de ligações elevado que torna o treinamento demasiadamente lento se comparado às redes neurais convolucionais. As redes convolucionais trabalham muito bem para sinais que têm regiões de alto valor correspondente entre pontos vizinhos ou próximos, pois a adaptação da rede se dá buscando características a partir de filtros espaciais, varrendo o sinal para identificar se preenche uma determinada condição para identificá-la como pertencente a determinada característica. Entretanto, as redes densas têm maior liberdade de atuação apesar de demandarem muito processamento e parmetrização. De qualquer forma, serão utilizadas parcialmente ao final das redes convolucionadas quando as características serão, então, mapeadas para as saídas, concluindo a classificação das imagens.
B. Sim. As redes neurais densas sempre perdem em desempenho para as redes neurais convolucionais, que têm comportamento inspirado no cérebro humano. As redes convolucionais trabalham muito bem para sinais que têm regiões de alto valor correspondente entre pontos vizinhos ou próximos, pois a adaptação da rede se dá buscando características a partir de filtros espaciais, varrendo o sinal para identificar se preenche uma determinada condição para identificá-la como pertencente a determinada característica. Entretanto, as redes densas têm maior liberdade de atuação apesar de demandarem muito processamento e parmetrização. De qualquer forma, serão utilizadas parcialmente ao final das redes convolucionadas quando as características serão, então, mapeadas para as saídas, concluindo a classificação das imagens.
C. Não. As redes neurais densas são mais eficientes que as redes neurais convolucionais; apenas necessitam de mais avanços na computação. As redes convolucionais trabalham muito bem para sinais que têm regiões de alto valor correspondente entre pontos vizinhos ou próximos, pois a adaptação da rede se dá buscando características a partir de filtros espaciais, varrendo o sinal para identificar se preenche uma determinada condição para identificá-la como pertencente a determinada característica. Entretanto, as redes densas têm maior liberdade de atuação apesar de demandarem muito processamento e parmetrização. De qualquer forma, serão utilizadas parcialmente ao final das redes convolucionadas quando as características serão, então, mapeadas para as saídas, concluindo a classificação das imagens.
D. Não. As redes neurais densas, apesar de mais lentas, são capazes de se adaptar sozinhas, ao contrário das redes neurais convolucionais, que precisam de treinamento constante. As redes convolucionais trabalham muito bem para sinais que têm regiões de alto valor correspondente entre pontos vizinhos ou próximos, pois a adaptação da rede se dá buscando características a partir de filtros espaciais, varrendo o sinal para identificar se preenche uma determinada condição para identificá-la como pertencente a determinada característica. Entretanto, as redes densas têm maior liberdade de atuação apesar de demandarem muito processamento e parmetrização. De qualquer forma, serão utilizadas parcialmente ao final das redes convolucionadas quando as características serão, então, mapeadas para as saídas, concluindo a classificação das imagens.
E. Não. As redes neurais densas estão presentes e fazem parte das redes neurais convolucionais, especialmente na camada final, conhecida como totalmente conectada. Além disso, as redes neurais convolucionais são eficientes no processamento de sinais naturais, como imagens e sons, maspodem ser drasticamente prejudicadas em outros casos. As redes convolucionais trabalham muito bem para sinais que têm regiões de alto valor correspondente entre pontos vizinhos ou próximos, pois a adaptação da rede se dá buscando características a partir de filtros espaciais, varrendo o sinal para identificar se preenche uma determinada condição para identificá-la como pertencente a determinada característica. Entretanto, as redes densas têm maior liberdade de atuação apesar de demandarem muito processamento e parmetrização. De qualquer forma, serão utilizadas parcialmente ao final das redes convolucionadas quando as características serão, então, mapeadas para as saídas, concluindo a classificação das imagens. durante o treinamento, o que permite maior quantidade de repetições e aprendizado em menor tempo, aumentando novamente a precisão da rede.
3. Qual a relação entre a quantidade de características necessárias a serem detectadas e a quantidade de neurônios em uma rede neural convolucional?
A. Cada característica terá um kernel específico e produzirá seu próprio mapa de atributos, de forma que a quantidade de neurônios da primeira camada oculta será diretamente proporcional à quantidade de características detectadas.A quantidade de neurônios dependerá da quantidade de características e da quantidade de entradas; o tamanho de cada mapa de atributos será muito próximo do tamanho das entradas, eliminando-se apenas as extremiadades perdidas na convolução, porém essas camadas serão replicadas segundo a quantidade de características a serem detectadas, havendo, portanto, um mapa de atributos para cada característica.
B. Os neurônios necessários para varrer uma determinada quantidade de pixels é fixo e não depende da quantidade de características. A quantidade de neurônios dependerá da quantidade de características e da quantidade de entradas; o tamanho de cada mapa de atributos será muito próximo do tamanho das entradas, eliminando-se apenas as extremiadades perdidas na convolução, porém essas camadas serão replicadas segundo a quantidade de características a serem detectadas, havendo, portanto, um mapa de atributos para cada característica.
C.  Mais características significam mais neurônios de entrada. A quantidade de neurônios dependerá da quantidade de características e da quantidade de entradas; o tamanho de cada mapa de atributos será muito próximo do tamanho das entradas, eliminando-se apenas as extremiadades perdidas na convolução, porém essas camadas serão replicadas segundo a quantidade de características a serem detectadas, havendo, portanto, um mapa de atributos para cada característica.
D. A relação é inversamente proporcional, já que, quanto mais características estão sendo buscadas, melhor serão aproveitados os filtros que poderão detectar múltiplas características simultaneamente. A quantidade de neurônios dependerá da quantidade de características e da quantidade de entradas; o tamanho de cada mapa de atributos será muito próximo do tamanho das entradas, eliminando-se apenas as extremiadades perdidas na convolução, porém essas camadas serão replicadas segundo a quantidade de características a serem detectadas, havendo, portanto, um mapa de atributos para cada característica.
E. Não há nenhuma relação. A quantidade de neurônios dependerá da quantidade de características e da quantidade de entradas; o tamanho de cada mapa de atributos será muito próximo do tamanho das entradas, eliminando-se apenas as extremiadades perdidas na convolução, porém essas camadas serão replicadas segundo a quantidade de características a serem detectadas, havendo, portanto, um mapa de atributos para cada característica.
4. As redes neurais convolucionais têm quatro camadas com funções diferentes, sendo que a primeira delas funciona como um filtro na tentativa de detectar as características existentes em uma imagem para a qual a rede foi treinada. Qual a relação entre a posição dos pixels da imagem original e o mapa de atributos?
A. Não há como identificar a posição a que um pixel do mapa de atributos corresponde à imagem convolucionada porque a operação de convolução reconstrói a matriz a partir de produtos e somas entre vários deles. Durante a convolução, um pixel é perdido em cada extremidade, mas, se for feito um preenchimento para manter a correspondência de tamanhos adicionando um pixel nulo em cada uma dessas extremidades, as imagens terão o mesmo tamanho. E apesar de a intensidade desses pixels mudar radicalmente sob efeito da convolução, cada um deles está representando o quão próximo aquele pixel está de pertencer à característica para a qual o kernel foi construído.
B. É impossível correlacionar a posição de um pixel na imagem com outro no mapa de atributos porque a unidade de retificação linear (ReLU) truncará parte desses pixels, perdendo boa parte das informações que não têm alguma característica relevante. Durante a convolução, um pixel é perdido em cada extremidade, mas, se for feito um preenchimento para manter a correspondência de tamanhos adicionando um pixel nulo em cada uma dessas extremidades, as imagens terão o mesmo tamanho. E apesar de a intensidade desses pixels mudar radicalmente sob efeito da convolução, cada um deles está representando o quão próximo aquele pixel está de pertencer à característica para a qual o kernel foi construído.
C. A posição pode ser mantida para todos os pixels desde que sejam preenchidas as bordas do mapa de atributos porque um pixel é perdido em cada extremidade. Durante a convolução, um pixel é perdido em cada extremidade, mas, se for feito um preenchimento para manter a correspondência de tamanhos adicionando um pixel nulo em cada uma dessas extremidades, as imagens terão o mesmo tamanho. E apesar de a intensidade desses pixels mudar radicalmente sob efeito da convolução, cada um deles está representando o quão próximo aquele pixel está de pertencer à característica para a qual o kernel foi construído.
D. A posição é mantida, já que ambas as matrizes têm o mesmo tamanho após a convolução. Durante a convolução, um pixel é perdido em cada extremidade, mas, se for feito um preenchimento para manter a correspondência de tamanhos adicionando um pixel nulo em cada uma dessas extremidades, as imagens terão o mesmo tamanho. E apesar de a intensidade desses pixels mudar radicalmente sob efeito da convolução, cada um deles está representando o quão próximo aquele pixel está de pertencer à característica para a qual o kernel foi construído.
E.  Somente será possível identificar a posição de um pixel após a última camada da rede de convolução onde os neurônios estão totalmente conectados. Durante a convolução, um pixel é perdido em cada extremidade, mas, se for feito um preenchimento para manter a correspondência de tamanhos adicionando um pixel nulo em cada uma dessas extremidades, as imagens terão o mesmo tamanho. E apesar de a intensidade desses pixels mudar radicalmente sob efeito da convolução, cada um deles está representando o quão próximo aquele pixel está de pertencer à característica para a qual o kernel foi construído.
5. Para uma imagem com 30 pixels em cada coluna e 30 pixels em cada linha, da qual se pretende extrair cinco características, considerando os parâmetros de peso e viés de cada conexão formada, quantos parâmetros independentes existirão para uma rede neural densa convencional e para uma rede convolucional que usa um kernel 3x3, respectivamente?
A. A convencional necessitará de 901 parâmetros; a convolucional, de apenas 9.Os parâmetros para qualquer rede neural envolvem os pesos de cada conexão e o bias de ativação da célula. Como, nas redes neurais densas, cada neurônio de uma camada recebe de entrada a conexão de todos os neurônios da camada anterior e há um total 30x30 pixels, serão 900 neurônios de entrada e 900 de camada oculta, porém 900x900 pesos para perfazer todas as conexões, o que resulta em 810.000 pesos a serem calculados individualmente. Há, ainda, 900 bias, um para cada neurônio da camada oculta. Total = 810.900.Já para a rede convolucional, os pesos serão repetidos  ao longo de toda a imagem, só alterando para kernels diferentes. Se o kernel utilizado é 3x3, são 9 pixels para cada kernel mais um parâmetro compartilhado de viés. Cada característica demandará um kernel diferente; sendo cinco características, o total de parâmetros calculados será 5x(9+1) = 50.
B. A convencional necessitará de 4.501 neurônios; a convolucional, de apenas 900. Os parâmetros para qualquer rede neural envolvem os pesos de cada conexão e o bias de ativação da célula. Como, nas redes neurais densas, cada neurônio de uma camada recebe de entrada a conexão de todos os neurônios da camada anterior e há um total 30x30 pixels, serão 900 neurônios de entrada e 900 de camada oculta, porém 900x900 pesos para perfazer todas as conexões, o que resulta em 810.000 pesos a serem calculados individualmente. Há, ainda, 900 bias, um para cada neurônio da camada oculta. Total = 810.900.
Já para a rede convolucional, os pesos serão repetidos  ao longo de toda a imagem, só alterando para kernels diferentes. Se o kernel utilizado é 3x3, são 9 pixels para cada kernel mais um parâmetro compartilhado de viés. Cada característica demandará um kernel diferente; sendo cinco características, o total de parâmetros calculados será 5x(9+1) = 50.
C. A convencional necessitará de 810.900 neurônios; a convolucional, de apenas 50.Os parâmetros para qualquer rede neural envolvem os pesos de cada conexão e o bias de ativação da célula. Como, nas redes neurais densas, cada neurônio de uma camada recebe de entrada a conexão de todos os neurônios da camada anterior e há um total 30x30 pixels, serão 900 neurônios de entrada e 900 de camada oculta, porém 900x900 pesos para perfazer todas as conexões, o que resulta em 810.000 pesos a serem calculados individualmente. Há, ainda, 900 bias, um para cada neurônio da camada oculta. Total = 810.900.
Já para a rede convolucional, os pesos serão repetidos  ao longo de toda a imagem, só alterando para kernels diferentes. Se o kernel utilizado é 3x3, são 9 pixels para cada kernel mais um parâmetro compartilhado de viés. Cada característica demandará um kernel diferente; sendo cinco características, o total de parâmetros calculados será 5x(9+1) = 50.
D. A convencional necessitará de 2.700 neurônios; a convolucional, de apenas 9. Os parâmetros para qualquer rede neural envolvem os pesos de cada conexão e o bias de ativação da célula. Como, nas redes neurais densas, cada neurônio de uma camada recebe de entrada a conexão de todos os neurônios da camada anterior e há um total 30x30 pixels, serão 900 neurônios de entrada e 900 de camada oculta, porém 900x900 pesos para perfazer todas as conexões, o que resulta em 810.000 pesos a serem calculados individualmente. Há, ainda, 900 bias, um para cada neurônio da camada oculta. Total = 810.900.
Já para a rede convolucional, os pesos serão repetidos  ao longo de toda a imagem, só alterando para kernels diferentes. Se o kernel utilizado é 3x3, são 9 pixels para cada kernel mais um parâmetro compartilhado de viés. Cada característica demandará um kernel diferente; sendo cinco características, o total de parâmetros calculados será 5x(9+1) = 50.
E. A convencional necessitará de 900 neurônios; a convolucional, de apenas 1.350. Os parâmetros para qualquer rede neural envolvem os pesos de cada conexão e o bias de ativação da célula. Como, nas redes neurais densas, cada neurônio de uma camada recebe de entrada a conexão de todos os neurônios da camada anterior e há um total 30x30 pixels, serão 900 neurônios de entrada e 900 de camada oculta, porém 900x900 pesos para perfazer todas as conexões, o que resulta em 810.000 pesos a serem calculados individualmente. Há, ainda, 900 bias, um para cada neurônio da camada oculta. Total = 810.900. 
Já para a rede convolucional, os pesos serão repetidos  ao longo de toda a imagem, só alterando para kernels diferentes. Se o kernel utilizado é 3x3, são 9 pixels para cada kernel mais um parâmetro compartilhado de viés. Cada característica demandará um kernel diferente; sendo cinco características, o total de parâmetros calculados será 5x(9+1) = 50.

Continue navegando