Buscar

Lista de execícios - Redes neurais artificiais para engenharia e ciências aplicadas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 7 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 7 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Livro do Ivan Nunes Silva: Redes Neurais Artificiais para engenharia e 
ciências aplicadas 
Livro do Ivan Nunes Silva: Redes Neurais Artificiais para engenharia e 
ciências aplicadas 
Cap. 1: páginas 43-44; 
Cap. 2: páginas 54-55; 
Cap. 3 - exercícios 6 a 10; 
Cap. 4 - exercícios 7 a 10. 
LISTA 1 - RNA 
Discente: Aden Hercules Pinto de Azevedo 
Professora: Carolina Watanabe 
 
 
Capítulo 01 
 
Exercício 1 = Apresentação de um conjunto de valores que representam as 
variáveis de entrada do neurônio. Multiplicação de cada entrada do neurônio pelo 
seu respectivo peso sináptico. Obtenção do potencial de ativação produzido pela 
soma ponderada dos sinais de entrada, subtraindo-se o limiar de ativação. 
Aplicação de uma função de ativação apropriada, tendo-se como objetivo limitar a 
saída do neurônio. Compilação da saída a partir da aplicação da função de ativação 
neural em relação ao seu potencial de ativação. 
 
Exercício 2 = Seu principal objetivo é limitar a saída do neurônio dentro de um 
intervalo de valores razoáveis a serem assumidos pela sua própria imagem 
funcional. 
 
Exercício 3 = O tempo de processamento do neurônio artificial é muito superior ao 
neurônio biológico. Mas, o processamento cerebral é infinitas vezes mais rápido que 
uma rede neural artificial na maioria dos casos, pois os neurônios da rede neural 
biológica trabalham com alto grau de paralelismo entre si, ao passo que para os 
neurônios artificiais este nível de paralelismo é bem limitado, pois a maioria dos 
computadores é constituída de máquinas tipicamente sequenciais. 
 
Exercício 4 = É a variável que especifica qual será o patamar apropriado para que o 
resultado produzido pelo combinador linear possa gerar um valor de disparo em 
direção a saída do neurônio. 
 
Exercício 5 = Adaptação por experiência: parâmetros internos da rede, tipicamente 
seus pesos sinápticos, são ajustados a partir da apresentação sucessiva de 
exemplos (amostras e medidas relacionados ao comportamento do processo. 
Habilidade de generalização: após o processo de treinamento, a rede é capaz de 
generalizar o 
conhecimento adquirido, possibilitando a estimação de soluções que eram até então 
desconhecidas. 
 
Exercício 6 Logística: Saída: valores entre 0 e 1. Possui uma flexão mas continua 
estritamente crescente. O Beta vai definir se o nível de inclinação vai se aproximar 
mais do eixo Y ou não. Quanto maior o Beta, maior a aproximação. Quando ele 
tende ao infinito, ela se aproxima da função degrau. 
Tangente Hiperbólica: Saída: valores entre -1 e 1. Possui uma flexão mas continua 
estritamente crescente. O Beta vai definir se o nível de inclinação vai se aproximar 
mais do eixo Y ou não. Quanto maior o Beta, maior a aproximação. Quando ele 
tende ao infinito, ela se aproxima da função bipolar. 
 
Exercício 7 = Logistica: Em que a é o parâmetro de inclinação da função sigmóide, 
a qual está associada ao nível de inclinação da função em relação ao seu ponto de 
inflexão. Sua expressão matemática é dada por: 
 
 
Tangente Hiperbólica: Ao contrário da função sigmóide, o resultado da saída 
sempre assumirá valores reais entre entre -1 e 1. Sua expressão matemática é dada 
por: 
 
 
Exercício 8 = Logística: útil para produzir probabilidades em problemas de 
classificação binária, ou seja, trabalha como pertencer ou não pertencer à 
determinada classe. 
Tangente Hiperbólica: boa para ativação de camadas escondidas, pois ela está 
centrada em zero, não possui tanta extremidade quanto a logística. Sua derivada 
converge em 0 e mais rapidamente. 
 
Exercício 9 = O parâmetro de velocidade de uma rede neural artificial está 
basicamente relacionado com o número de operações por segundo dos 
computadores. Considerando um clock da ordem de gigahertz, então um período de 
processamento dos neurônios artificiais fica na grandeza de nanossegundo. 
 
Exercício 10 = Foi verificado que sua aplicação demasiada útil e bem sucedida em 
diversos setores da sociedade: saúde, economia, transporte, educação, indústria de 
máquinas, tudo graças a sua capacidade adaptativa, e ao fato de poder induzi-la a 
agir em prol da solução de casos em um nicho ou problema específico. 
 
Capítulo 2 
 
Exercício 1 = Por lote de padrão: os ajustes efetuados nos vetores de pesos das 
redes e em seus limiares só são efetivados após a apresentação de todo o conjunto 
de treinamento, pois cada passo de ajuste leva em consideração o total de desvios 
observados nas amostras de treinamento frente aos respectivos valores desejados 
para as suas saídas. 
Padrão por padrão: os ajustes nos pesos e limiares das redes são efetuados após a 
apresentação de cada amostra de treinamento, portanto, após a execução do passo 
de ajuste, a respectiva amostra pode ser descartada. 
 
Exercício 2 = Não necessariamente, feedforward de camadas múltiplas o número 
de camadas escondidas e seus respectivos neurônios constituintes dependem, 
sobretudo, do tipo e da complexidade do problema a ser mapeado pela rede, assim 
como da quantidade e da qualidade dos dados disponíveis sobre o problema. 
 
Exercício 3 = O número de camadas escondidas e seus respectivos neurônios 
constituintes dependem, sobretudo, do tipo e da complexidade do problema a ser 
mapeado pela rede, assim como da quantidade e da qualidade dos dados 
disponíveis sobre o problema. 
 
Exercício 4 = Recorrente: Saídas dos neurônios são realimentadas como sinais de 
entrada para outros neurônios. Realimentação as qualificam para processamento 
dinâmico de informações. 
Feedforward: na camada simples, é constituída de uma camada de entrada e única 
camada de neurônios, que é a própria saída. O fluxo de informações segue sempre 
numa única direção (unidirecional). Na camada múltipla: Presença de uma ou mais 
camadas neurais escondidas. Quantidade de camadas escondidas e de neurônios 
dependem, sobretudo, do tipo e complexidade do problema. 
 
Exercício 5 = Podem ser utilizadas em sistemas variantes em relação ao tempo, 
como previsão de séries temporais, otimização e identificação de sistemas, controle 
de processos, etc. 
 
Exercício 6 = 
 
 
 
Exercício 7 = O processo de treinamento consiste da aplicação de passos 
ordenados que sejam necessários para sintonização dos pesos sinápticos e limiares 
de seus neurônios, tendo-se como objetivo final a generalização de soluções a 
serem produzidas pelas suas saídas, cujas respostas são representativas do 
sistemas físico em que estão mapeando. 
O algoritmo de aprendizagem é o conjunto desses passos ordenados visando o 
treinamento da rede. Durante o processo de treinamento de redes neurais artificiais, 
cada apresentação completa das amostras pertencentes ao subconjunto de 
treinamento, visando, sobretudo, o ajuste dos pesos sinápticos e limiares de seus 
neurônios, será denominada de época de treinamento. 
 
Exercício 8 = No modelo de aprendizagem de máquina supervisionada 
conseguimos dar os pesos ou calibrar o nível de assertividade e de precisão de um 
modelo,dessa forma tende a ter uma necessidade de disponibilizar uma tabela de 
dados(E/S) representativa do processo, também conhecida como tabela 
atributo/valores. Os pesos sinápticos e limiares são continuamente ajustados diante 
a aplicação de ações comparativas. 
 Diferente do supervisionado, durante a aplicação de um algoritmo de 
aprendizado baseado em treinamento, inexistem as respectivas saídas desejadas. 
Os pesos sinápticos e limiares dos neurônios da rede são então ajustados pelo 
algoritmo de aprendizado de forma a refletir esta representação internamente dentro 
da própria rede. 
 
Exercício 9 =Treinamento supervisionado: consiste em se ter disponível disponível, 
considerando cada amostra dos sinais de entrada, as respectivas saídas desejadas. 
Cada amostra de treinamento é então composta pelos sinais de entradas e suas 
correspondentes saídas. Comporta como se houvesseum “professor” ensinando 
para a rede qual seria a resposta correta para cada amostra apresentada. 
Treinamento com reforço: avaliam constantemente a defasagem de valor entre as 
respostas produzidas pela rede em relação à respectiva saída desejada. Os 
algoritmos de aprendizagem utilizados ajustam os parâmetros internos dos 
neurônios baseando-se em quaisquer informações quantitativas ou qualitativas 
advindas da interação com o sistema que esta sendo mapeado, as quais são então 
utilizadas para medir o desempenho do aprendizado. 
 
Exercício 10 = Os algoritmos de aprendizado utilizados no treinamento com reforço 
ajustam os parâmetros internos dos neurônios baseando-se em quaisquer 
informações quantitativas ou qualitativas advindas de interação com o sistema. O 
processo de treinamento da rede é realizado por tentativa e erro, pois a única 
resposta disponível para uma determinada entrada é se é satisfatória ou não. Se for 
considerada satisfatória, incrementa nos pesos sinápticos e limiares são então 
gradualmente efetuados visando reforçar esta condição comportamental. 
 Diversos algoritmos que utilizam treinamento com reforço são baseados em 
métodos estocásticos que selecionam probabilísticamente suas ações de ajustes. 
 
 
Capítulo 03 
 
Exercício 06 = A quantidade de épocas necessárias para a convergência varia em 
função dos valores iniciais que foram atribuídos ao vetor de pesos {w}, assim como 
da disposição espacial das amostras de treinamento e do valor especificado para a 
taxa de aprendizado. 
 
Exercício 7 = O resultado vai variar toda vez que o algoritmo for executado, então 
mesmo tendo as mesmas amostras, o resultado será diferente. 
 
Exercício 8 = Se a saída produzida pelo Perceptron está não coincidente com a 
saída desejada, os pesos sinápticos e limiares da rede serão então incrementados 
proporcionalmente aos valores de seus sinais de entrada; caso contrário, a saída 
produzida pela rede é igual ao valor desejado, os pesos sinápticos e limiar 
permanecerão então inalterados. Este processo é repetido, sequencialmente para 
todas as amostras de treinamento, até que a saída produzida pelo Perceptron seja 
similar à saída desejada de cada amostra. 
 
Exercício 9 = Não é possível, pois na figura os dados não são linearmente 
separáveis, e a técnica do perceptron não permite isso. 
 
Exercício 10 = Tipicamente, devido às suas características estruturais, as funções 
de ativação normalmente usadas no Perceptron são a função degrau ou degrau 
bipolar. Assim, independente da função de ativação a ser utilizada, tem-se apenas 
duas possibilidades de valores a serem produzidos pela sua saída, ou seja, valor 0 
ou 1 se for considerada a função de ativação degrau, ou ainda, valor -1 ou 1 se for 
assumida a função degrau bipolar. 
 
 
Capítulo 4 
 
Exercício 7 = 
 
Exercício 8 = Verdadeira. A rede Adaline não tem relação forte de inicialização dos 
pesos à luz dos valores finais do hiperplano ideal. O hiperplano de separabilidade 
sempre será o mesmo. 
 
Exercício 9 = Não será pois varia em função da disposição espacial das amostras 
de treinamento e do valor assumido para a taxa de aprendizado. 
 
Exercício 10 = Sim, há necessidade de atualização do operador, devido a variação 
é a que vai fornecer um indicativo do melhor resultado em que o processo de 
treinamento está sendo executado. Assim sendo caso erro, o processo minimiza o 
erro quadrático em relação às amostras disponíveis para o aprendizado em forma 
decrescente no decorrer das épocas.

Continue navegando