Buscar

Lógica Nebulosa e Redes Neurais

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 4 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Faça Valer Apena
3.1
Observe as proposições a seguir e considere-as sob o ponto de vista da Lógica Proposicional (Booleana) e sob o ponto de vista da Lógica Nebulosa (ou Difusa):
Antônio é alto.
Carlos tem boa saúde.
O restaurante é próximo de onde Denise se encontra.
c) I,III e IV apenas.
O indivíduo mais à esquerda é alto em um grau de 0,60 (de 0 a 1) e o indivíduo mais à direita é alto em um grau de 1,00 (100% alto). Usando as regras e operações da Lógica Nebulosa, qual o grau de veracidade da seguinte afirmação: “o indivíduo mais à esquerda não é alto”. 
b) 40%	
	
A Lógica nebulosa não é um conceito novo. A teoria foi introduzida em 1965, pelo pesquisador azerbaijanês radicado nos EUA.
d) Apesar de inicialmente renegada nos EUA, a Lógica Nebulosa foi aceita na China e no Japão.
3.2
Nós, seres humanos, temos percepções imprecisas e tomamos decisões com base nessas percepções, muitas vezes sendo mais aptos a lidar com o mundo à nossa volta do que os computadores.
d) Imprecisão.
Em linhas gerais, nossa percepção acústica é de que um ambiente é quieto (zero barulho) se a taxa de som vai de 0 até 8 decibéis. A partir daí, passamos a perceber o som, de maneira linearmente crescente, até cerca de 110 decibéis.
d) P(X)={0 -› X≤8; X-8/102 -› 8<X<110; 1 -› X≥110
O software MATLAB permite a criação de diversos tipos diferentes de funções de pertinência (onze, no total). Uma dessas funções tem como definição: função linear, que define 4 pontos.
b) trapmf
3.3
A Fuzzificação é o processo pelo qual uma vatiável que pode ser numericamente definida deixa de ser representada pelos valores numéricos que possa assumir e passa a ser representada por um conjunto de função de pertinência, que correspondem a definições difusas em linguagem natural.
c) variável, numericamente definida, função de pertinência, linguagem natural
Trata-se de uma regra no campo do raciocínio aproximado que permite conclusões mais ou menos vagas a partir de premissas mais ou menos vagas. Quanto mais vagas as premissas, mais vagas serão as conclusões. Simetricamente, quanto menos vagas as premissas, menos vagas serão as conclusões. Melhor sintetiza a definição dada acima é:
b) Inferência
O passo final da resolução de problemas por meio de Lógica Nebulosa é o processo de defuzzificação.
Ao usar a Lógica Nebulosa para calcular a gorjeta de um garçom em um restaurante, em função da qualidade da comida e da gentileza no atendimento, e entrar com valores para essas duas variáveis no sistema.
	b) ” Dê pouca gorjeta. ”
4.1
As Redes Neurais são “a bola da vez” as pesquisas de Inteligência Artificial, retendo a atenção de pesquisadores no mundo todo, na busca por melhores e mais eficientes sistemas computacionais.
b) As pesquisas de Ramón y Cajal e Golgi acerca dos neurônios.
As entradas de uma LTU são booleanas e combinadas após serem multiplicadas por pesos individuais. A combinação desses valores é comparada com um limiar preestabelecido. Se for maior, gera um sinal booleano “1” de saída. Do contrário, nenhum sinal é enviado (sinal “0”).
b) booleanas, pesos, limiar, maior.
Nesta fase de uma rede neural artificial, utilizam-se algum dos vários mecanismos de reconfiguração de pesos e limiares para reforçar os estados que geram resposta corretas, ao mesmo tempo inibindo os estados que geram respostas erradas. Qual fase de uma rede neural melhor sintetiza o trecho acima?
e) Fase de Aprendizado.
4.2
Podemos afirmar que a principal característica de uma rede neural é a capacidade de aprender com o ambiente (conjunto de entradas) que lhe é apresentado e, por meio desse aprendizado, melhorar seu desempenho.
d) Os processos são semelhantes, uma vez que tanto o cérebro nem as redes neurais utilizam mecanismos de reforço.
Em redes neurais baseadas nesse tipo de regra de aprendizado, temos uma camada de entrada e uma camada de saída. As conexões com sinalização positiva (que potencialmente excitam e provocam o disparo dos neurônios na camada posterior.
d) Aprendizado competitivo.
No que diz respeito aos perceptrons, é importante observar que a Regra de Rosenblatt determina que os conjuntos devem ser linearmente separáveis, caso contrário, uma resposta exata não será possível, mas apenas uma resposta aproximada, com algum grau de erro.
c)
4.3
Segundo Anderson e Rosenfeld (1998), ADALINE é o nome dado pelo pesquisador Bernard Widrow a um tipo de neurônio artificial desenvolvido por ele e por seu aluno de doutorado, Ted Hoff, em 1960.
d) O neurônio de McCulloch-Pitts passa o sinal de saída por sua função de ativação linear, que é usada para ajustar os pesos.
Segundo Anderson e Rosenfeld (1998), o modelo do ADALINE tem sua significância no contexto de redes neurais porque foi por meio dele que Widrow e Hoff deduziram o algoritmo de minimização da média dos quadrados dos erros (algoritmo LMS, abreviação de Least Mean Squares), mais conhecido em português como Erro Quadrático Médio (EQM), ou Regra Delta. Este algoritmo é utilizado como função de adaptação no ADALINE, e pode ser visto alimentando os pesos na figura a seguir.
e) Ao elevarmos o erro ao quadrado e buscarmos minimizar esse erro, o resultado será o mínimo para os módulos positivo e negativo.
O fluxo desse tipo de rede neural é as camadas ocultas e, daí, para a camada de saída, sempre em um fluxo de avanço, da entrada para a saída. A saída de um neurônio de uma camada serve de entrada para os neurônios da entrada posterior, até a camada de saída. O texto acima se refere a que tipo da rede neural.
c) Feedforward

Continue navegando