Buscar

N2 - EXERCÍCIOS

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE GOIÁS
ESCOLA DE CIÊNCIAS EXATAS E DA COMPUTAÇÃO
GRADUAÇÃO EM ENGENHARIA DE COMPUTAÇÃO
EXERCÍCIOS N2 – INTELIGÊNCIA ARTIFICIAL
VINICIUS BIASI NASCIMENTO
GOIÂNIA
2021
VINICIUS BIASI NASCIMENTO
EXERCÍCIOS N2 – INTELIGÊNCIA ARTIFICIAL
Exercícios N2, apresentados à disciplina Inteligência Artificial – CMP1110 – A01, como requisito parcial para obtenção de nota de N2.
Orientador(a): Prof. Dr. Talles Marcelo Gonçalves de Andrade Barbosa.
GOIÂNIA
2021
· 1) Resolver a “lista-de-revisao.pdf”, exercícios sobre resolução de problemas usando buscas, total:10 exercícios. Falta 7,8
1) A figura a seguir representa um mapa enviado a um agente inteligente embutido num robô móvel. A função do agente em questão é descobrir o mapa (matriz de adjacência) e encontrar um caminho. Proponha uma medida de desempenho para a função de agente apresente no mínimo duas soluções para a implementação da função de agente e, ao final, responda a seguinte questão: qual das soluções propostas maximiza a medida de desempenho?
Tabela 1: matriz de adjacência para um grafo direcionado.
Exemplo de um grafo direcionado:
Com base nos dados da matriz, os seguintes arcos foram direcionados para montar o seguinte grafo: 0-1, 1, 3-1, 2-3, 2-1, 4-1,4-2, 5-4.
Medida de desempenho: complexidade de tempo
1° solução: Busca primeiro em largura
2° solução: Busca primeiro em profundidade
A complexidade de tempo do BFS - O(bd−1), onde b é o fator de ramificação e d é a profundidade da primeira solução.
A complexidade de tempo de DFS - O(bm), onde m é a máxima profundidade da arvore.
· Comparando os dois o BFS se sai melhor pois em nem todos os casos a arvores vai tem que ser percorrida até a sua máxima profundidade.
2) Sugira especificação para os agentes a serem utilizados nas seguintes aplicações:
a) Controle de velocidade em veículos de passeio:
Implementar uma arvore de decisão que reduz e aumenta a velocidade considerando as variáveis de velocidade máxima permitida, situação do asfalto (molhado ou não), velocidade de outros veículos a frente para não bater etc.
b) Controle de velocidade em veículos esportivos: 
Construir uma arvore de decisão que possua mais parâmetros que o deixem competitivo como sempre tentar superar a velocidade do corredor a frente, condições da pista como angulação das curvas e velocidade máxima que ela pode ser feita etc.
c) Elevador:
Uma arvore de decisão que verifique o peso máximo permitido, tenha como variáveis os andares e como atributos se vai ter que parar no andar ou não. A arvore de decisão vai parar nos andares de forma ordenada. Abrir e fechar a porta quando chega no andar e considerar se tem algumas pessoas na porta por meio de um sensor. E a utilização de um sensor que possa verificar quantas pessoas entraram no elevador.
 d) Bomba de infusão de medicamentos:
Implementar uma arvore de decisão com as variáveis dos níveis de determinadas substâncias no corpo, o tempo que a dose deve ser aplicada e que decida quando aplicar e quanto aplicar para manter os níveis do medicamento estáveis no organismo.
e) Posicionamento de telescópio astronômico:
Construir uma arvore de decisão em que verifica se o posicionamento está desejado ou não, que tenha como os atributos sim ou não, e as variáveis se o posicionamento está desejado ou não, para verificar se alguma determinada estrela está na posição correta com base no telescópio. 
f) Controle de temperatura de uma incubadora:
Implementar uma arvore de decisão que possa obter a ação de verificar se uma incubadora está proporcionando ao recém-nascido um ambiente termicamente confortável, para um bebe cujo nascimento ocorreu de forma prematura, necessita-se de um ambiente termicamente neutro, semelhante ao útero materno. E que tenha as variáveis e atributos com base no controle da temperatura e umidade com base, na escolha do usuário.
3) Utilizando orientação a objetos, construa um modelo para a representação do conhecimento necessário a um agente inteligente. Em seguida, conversa a informação em uma rede semântica. 
“Um Ford é um tipo de automóvel. Bob possui dois automóveis. Bob estaciona seu automóvel em casa. A casa dele é na Califórnia, que é em estado. Sacramento é a capital do Estado da California. Automóveis circulam em auto estados, tais como Rota 101 e Rodovia 81.”
· Representação do conhecimento:
· Rede semântica:
4) Crie uma arvore de decisão que permita a identificação de um item de uma categoria de seu interesse (Automóveis, futebol, animais, filmes).
5) Um avião não tripulado ou UAV (Unmanned Aerial Vehicle) foi construído para a patrulha de fronteira. Ele deve visitar cada uma das cidades de um conjunto de cidades e retornar à cidade de partida. O agente inteligente embutido no robô aéreo deve encontrar o caminho mais curto que permita que ele visite cada uma das cidades. Assim:
a) Defina um modelo para a representação do conhecimento necessário para que a função de agente possa ser implementada. Para isso, considere uma instancia particular do problema.
Para resolver o problema usamos o algoritmo do caixeiro viajante.
	Origem
	Destino
	Distância (Km)
	Goiânia
	Senador Canedo
	27
	Goiânia
	Anápolis
	56
	Goiânia
	Aparecida de Goiânia
	20
	Goiânia 
	Trindade
	26
	Trindade 
	Senador Canedo
	50
	Trindade
	Anápolis
	82
	Trindade
	Aparecida de Goiânia
	46
	Aparecida de Goiânia
	Senador Canedo
	33
	Aparecida de Goiânia
	Anápolis
	74
	Anápolis
	Senador Canedo
	62
· Onde os vértices são os estados e as arestas os pesos, então a fórmula fica: . Os pesos são as distâncias dos municípios, que vai ter n−1, ou seja: 5, de Goiânia por exemplo é possível se deslocar para 4 outros municípios, quando um percurso é escolhido, fica 3, 2 ... e assim sucessivamente.
b) Para escolher o melhor caminho utilizando uma abordagem de força bruta deve-se visitar cada caminho possível e comparar o seu custo com os demais.
Começando por Goiânia são quatro opções de caminho disponíveis, escolhendo um sobram três, depois dois e depois um:
O total de caminhos possíveis é: 4x3x2x1 = 4! = 24
Mas como metade desses caminhos se repetem pelo grafo ser bidirecional:
Quantidade de caminhos = 4! 24! 
2 = 12
Assim para passar por todos os caminhos a quantidade será:
quantidade de caminhos= n! 2 quantidade de caminhos= n!2
Onde n é o número de municípios no grafo.
6) O que significa dizer que um método de busca é monotônico? Quão desejável é essa propriedade? Descreva um método de busca e aponte a monotonicidade desse método.
Ser monotônico significa dizer que ao se aproximar do resultado do objetivo utilizando essa heurística o custo diminui.
Muito desejável pois se a heurística é consistente ele garante um resultado ótimo.
No algoritmo de busca A* ao usar a heurística do caminho ter um custo de uma linha reta. Ela é consistente pois ao se aproximar do objetivo utilizando-a como parâmetro o custo é otimizado.
7) Escreve um programa (na linguagem de sua preferência) para resolver o problema da navegação autônoma usando o algoritmo A*. O veículo auto guiado, quando está em um ponto (i,j), pode se deslocar para qualquer em um dos pontos vizinhos (i+-1, j+-1), desde que está na posição que esteja livre. Inicialmente é fornecido em uma lista das posições em que existem obstáculos, e, portanto, não pode ser ocupada pelo veículo. Para medir o custo de movimentação de um ponto ao eu vizinho, adota-se:
Custo = {1, se movimento na vertical ou horizontal; Xd, se movimento na diagonal;}.
Faça inicialmente xd = raiz (2). Coloque uma opção no seu programa para que o usuário passa a variar xd. Investigue e discuta o efeito da variação de xd na rota encontrada pelo algoritmo (xd>0).
Adote como heurística para medir o custo do movimento entre a posição atual e a posição final a distância direta entre 2 posições, ignorado os possíveis obstáculos. O programa deverá fornecer como saída (se possível na forma ...)
8) Uma forma de se resolver um problema de minimização unidimensional é gerar uma sequência, , ...,  de modo que à medida que . Para tal pode-se promover um mecanismo para obtenção de um novo ponto  a partir de um ponto Wk arbitrário, de modo que .
a) Construa o espaço de estados para uma função polinomial de grau 2.
b) Apresente o algoritmo para implementar a função do agente, que deseja encontrar o mínimo global para isso, utilize um exemplo numérico. 
9) Considere o problema do labirinto, ilustrado abaixo. Já sabemos que a resposta desejada para esse problema é o caminho que nos leva da entrada até a saída.
a) Modele o espaço de estados por meio de um grafo, rotulando os nós.
 
b) Aplique os procedimentos de busca estudados em sala: largura, profundidade, custo uniforme, melhor escolha e A*. Para as buscas informadas, defina claramente a função de custo g(n) e a função heurística h(n), quando estas forem necessárias para a composição da função de avaliação f(n). Apresente os resultados por meio de grafos resultantes.
Busca em largura: Intuitivamente, você começa pelo vértice raiz e explora todos os vértices vizinhos. Então, para cada um desses vértices mais próximos, exploramos os seus vértices vizinhos (verdes) inexplorados e assim por diante, até que ele encontre o alvo da busca (vermelho).
Busca em profundidade: Intuitivamente, o algoritmo começa num nó raiz (selecionando algum nó como sendo o raiz, no caso de um grafo) e explora tanto quanto possível cada um dos seus ramos, antes de retroceder.
Melhor escolha:
C) Apresente uma análise crítica para os resultados obtidos:
· A busca em largura nós dá a resposta em relação a caminho mínimo. É retornado o menor o caminho mínimo da entrada até a saída, como a resposta desejada é o caminho que leva de entrada até a saída, independente se o mais curto ou não, desde que seja um caminho.
· A busca em profundidade também retorna um caminho, mas dependendo do vértice descoberto primeiro, o caminho poderá ser maior que para a busca em largura, porém ainda é um caminho. Essa ganha em relação ao consumo de memória, pois consome menos que a outra.
10) Algoritmos de busca que se preocupam em examinar todos os caminhos, como busca em largura, são métodos força bruta. Qual a implicação do uso desses algoritmos na implementação de uma função de agente? Proponha uma heurística para o exercício 5. 
Possuem alto custo computacional o que torna inviável a sua aplicação. Em muitos casos levaria séculos para tais algoritmos forneceres um resultado. Por exemplo, o algoritmo de Dijkstra e passar o caminho mais curtos do que todos os caminhos, porque o objetivo é ir de um ponto a outro, não é necessário atravessar todas as arestas.
· 2) Utilizando Java ou Python apresentar a solução para os dois exercícios que estão ao final dos slides, no arquivo “BuscaLocal.pdf”. Falta 1 e 2.
1) Aplicar o mesmo método e tecnologia para o “exercício 5” da lista de exercícios proposta na aula passada e relatar os resultados.
Considerar: circuito com 20 cidades de fronteira. Par isso, usar o mapa do Brasil com as respectivas distâncias. Critério de parada: 5 minutos de execução. 
2) Usando AF, faça a modelagem e apresente os resultados para o problema de encontrar o valor máximo para a função matemática f(x) = sem(x), com xx na faixa de 1 a 15, sendo x em radianos. Aplique o mesmo procedimento para o “exercício 8” da lista de exercícios proposta na aula passada.
Dica: estudar a 14.8 do livro de Bem Coppin.
· 3) Ler o cap. 18 (do livro de Bem Coppin) e fazer os exercícios da Seção 18.12, 18.1-18.11. 
18.1 Explique a diferença entre as lógicas bivalentes e polivalente. Qual tipo de lógica é mais familiar para você?
A lógica bivalente trabalha com dois valores, verdadeiro ou falso.
A lógica polivalente trabalha com um intervalo de valores, nessa lógica o verdadeiro ou falso é descrito como uma porcentagem, como por exemplo, algo pode ser 0,2 verdade e 0,8 mentira. 
A lógica bivalente foi a mais estudada e por isso em termos acadêmicos ela é a mais familiar.
18.2 O que é a lei do terceiro excluído? Argumente contra a necessidade dessa lei.
A lei do terceiro excluído descreve que para uma determinada proposição só existem dois valores possíveis, verdadeiro ou falso.
Essa lei não leva em conta os diversos aspectos da realidade que podem ser descritos com valores não tão exatos, como por exemplo, a classificação de um objeto por meio de um adjetivo em que podem existir subjetividade suficiente para que ele não seja considerado nem bonito nem feio por exemplo, mas em algum grau entre esses dois extremos. Assim o princípio do terceiro excluído não é uma regra mais um caso especial em que um valor a um valor verdade é atribuído 100 % de certeza e zero a todos os outros valores verdade.
18.3 O que é uma variável linguística? Dê 10 exemplos de variáveis linguísticas que você usaria para descrever um edifício.
Variáveis linguísticas são palavras que usamos em linguagem natural para descrever algum objeto, como o adjetivo alto, magro etc. Em linguagem natural nós aprendemos a processar sentenças como muito alto ou meio alto e atribuir sentido a elas mesmo que não haja valores definidos para alto.
Exemplo: Edifício alto, edifício com estrutura fraca, edifício novo, edifício cheio, edifico agradável, edifício elegante, edifício bem localizado, edifício seguro, edifício aconchegante e edifício caro.
18.4 O que são modificadores aponte cinco modificadores que se apliquem às variáveis linguística que você usaria para descrever um edifício.
Modificadores são palavras que situam um determinado objeto em uma região do espectro de sua classificação. Muito e pouco são modificadores.
Um prédio pode ser muito alto, alto ou pouco alto.
18.5 Como conjuntos nebulosos diferem de conjuntos tradicionais? Qual a variação entre variáveis linguísticas e conjuntos tradicionais?
Em um conjunto tradicional podemos dizer que um elemento pertence ou não aquele conjunto. Os conjuntos nebulosos atribuem um número que define um grau de pertinência aquele conjunto, posso dizer que hoje é um dia quente, mas a pertinência desse dia no conjunto dos dias quentes é nebulosa, pois outros podem achar que hoje é um dia frio ou agradável. Assim eu atribuo um valor de pertinência a esse dia no conjunto dos dias quentes, frios e agradáveis, podendo ser 0,9 para dia quente, 0,3 para dia agradável e 0,01 para dia frio.
· Uma variável linguística pode variar sua pertinência de 0 a 1, em um intervalo contínuo. 
· Os conjuntos tradicionais a pertinência é 0 ou 1, pertence ou não pertence.
18.6 Qual a ligação entre conjuntos nebulosos e lógica nebulosa?
Sobre conjuntos nebulosos podem ser feitas operações com operadores lógicos. A forma como esses operadores agem em conjuntos nebulosos é a lógica nebulosa.
Ficam definidos os operadores: 
A∧ B => A e B como min (A, B)
A∨ B => A ou B como máx. (A, B)
not A => negação de A como 1 – A.
Por meio desses operadores lógicos pode-se construir proposições, inferir sobre uma proposição e construir tabelas verdade para proposições.
18.7 Explique cuidadosamente como a lógica nebulosa difere da lógica aristotélica tradicional.
Devido as restrições de existirem apenas dois valores verdade na lógica aristotélica alguns paradoxos são formados. Uma coisa não pode ser verdadeira e falsa ao mesmo tempo isso seria uma contradição, A∧!A (A e não A é sempre falso). Devido a lógica nebulosa não usar apenas dois valores verdade, mas a porcentagem de pertinência a de ser verdade ou mentira, é perfeitamente possível que A∧!A tenha um valor diferente de falso na tabela verdade de uma lógica nebulosa, podendo a proposição ser meio verdade e meio mentira ao mesmo tempo.
18.8 Explique como a inferência de Mamdani funciona.
Para cada regra no formato A -> B, onde A pode ser uma conjunção ou uma disjunção de valores, deve-se escolher como B o valor resultante do antecedente.
Tendo os valores de B que representam a pertinência para cada conjunto nebuloso deve-se associar os valores de pertinência para os mesmos conjuntos nebulosos, por exemplo, se ao final houver os valores de pertinência para pessoa Alta = {0.1, 0.2, 0.3}, pelaanálise do escopo do problema deve ser feita uma combinação desses valores de pertinência para alta, somar, escolher o máximo ou o mínimo. Cada caso deve ser analisado.
Tendo apenas um valor de pertinência para cada conjunto nebuloso de B, o próximo passo é marcar no gráfico de cada conjunto nebuloso de B o valor de pertinência correspondente.
E por último calcular o valor do centro de massa da combinação das áreas resultante dos valores de pertinência de cada conjunto. Isso será um valor numérico no eixo x que representa o valor a ser aplicado no controlador fuzzy.
· Centro de massa – 1.
· Valor de Saída – 2.
18.9 Explique o que significa desnebulização. Como ela é realizada?
E o processo que transforma o conjunto dos valores de pertinência de conjuntos nebulosos, em um valor numérico de saída.
Esse valor é calculado como o centro de massa da combinação das áreas dos conjuntos nebulosos.
18.10 Quais vantagens os sistemas especialistas nebulosos têm em relação aos sistemas especialistas tradicionais? Haveria alguma desvantagem?
A vantagem está em combinar a experiencia de vários profissionais em um único modelo, a precisão e corretude será mais alta. Em um caso de diagnóstico médico por exemplo, um sistema fuzzy especialista emularia uma segunda opinião médica.
Não consigo pensar em nenhuma desvantagem pois os modelos fuzzy simulam bem a realidade humana por considerarem variáveis linguísticas.
18.11 O que é um sistema neuronebuloso? Como ele aprende? Compare e contraste os sistemas neuro neuronebulosos com as redes neuronais tradicionais? 
Os sistemas neuro-nebulosos misturam a capacidade de aprendizado das redes neurais com o poder de interpretação linguística dos sistemas de inferência difusos, obtendo-se resultados tais como aplicabilidade de algoritmos de aprendizagem desenvolvidos para as redes neurais, possibilidade de promover a integração do conhecimento, e a possibilidade de extrair conhecimento para uma base de regras difusas a partir de um conjunto de dados. O sistema neuro-nebuloso consiste de um sistema nebuloso tradicional exceto que cada etapa, pode proporcionar capacidades de aprendizado de redes neurais para otimizar o conhecimento do sistema. O sistema neuro-nebuloso Anfis (Adapative &euroFuzzy Inference Systems) usa um conjunto de dados de entrada-saída para construir um sistema de inferência nebuloso cujos parâmetros de projeto são ajustados usando o algoritmo backpropagation ou uma mistura hibrida com o método dos mínimos quadrados. O trabalho desenvolvido por Jang (Jang, 1993), é um dos trabalhos que abriu o caminho nesta área. A maioria desses sistemas neuro-nebulosos tradicionais são adequados para treinamento supervisionado. Entretanto, quando a informação sobre a saída desejada não está disponível, é necessário realizar o aprendizado dos sistemas neuro-nebulosos através do algoritmo de Reinforcement Learning (RL). (Yushimoto, 1999).
· 4) Utilizando o Matlab (toolbox de Lógica Fuzzy) ou o Python (skfuzzy) simular os seguintes sistemas de controle fuzzy: 
a) Sistema de controle do guindaste (veja slides); 
[System]
Name='Fuzzy_Sistema_de_controle_do_guindaste'
Type='mamdani'
Version=2.0
NumInputs=2
NumOutputs=1
NumRules=3
AndMethod='min'
OrMethod='max'
ImpMethod='min'
AggMethod='max'
DefuzzMethod='centroid'
[Input1]
Name='Distância'
Range=[0 10]
NumMFs=3
MF1='Longe':'trimf',[0 0 4]
MF2='Média':'trimf',[1 5 9]
MF3='Perta':'trimf',[6 10 10]
[Input2]
Name='Ângulo'
Range=[-45 45]
NumMFs=3
MF1='Negativo':'trimf',[-45 -45 -5]
MF2='Zero':'trimf',[-10 0 10]
MF3='Positivo':'trimf',[5 45 45]
[Output1]
Name='Potência'
Range=[0 25]
NumMFs=3
MF1='Baixa':'trimf',[0 0 5]
MF2='Média':'trimf',[0 12.5 25]
MF3='Alta':'trimf',[16 25 25]
[Rules]
1 1, 3 (1): 2
2 0, 2 (1): 2
3 3, 1 (1): 2
· Distancia: 
· Potencia:
 
· Ângulo:
 
· Aplicando as regras:
· Valores Fuzzy do Sistema de controle do guindaste:
· Superfície Fuzzy do Sistema de controle do guindaste:
b) Sistema de controle do freio de um veículo (cap 18 – Ben Coppin) 
[System]
Name='Fuzzy_Sistema_de_controle_do_freio_de_um_veiculo'
Type='mamdani'
Version=2.0
NumInputs=3
NumOutputs=1
NumRules=4
AndMethod='min'
OrMethod='max'
ImpMethod='min'
AggMethod='max'
DefuzzMethod='centroid'
 
[Input1]
Name='Velocidade_Carro'
Range= [0 100]
NumMFs=3
MF1='Baixa':'trimf',[0 0 60]
MF2='Média':'trimf',[20 50 80]
MF3='Alta':'trimf',[40 100 100]
 
[Input2]
Name='Velocidade_Roda'
Range= [0 100]
NumMFs=3
MF1='Baixa':'trimf',[0 0 60]
MF2='Média':'trimf',[20 50 80]
MF3='Alta':'trimf',[40 100 100]
 
[Input3]
Name='Pressao_Freio'
Range= [0 100]
NumMFs=3
MF1='Baixa':'trimf',[0 0 60]
MF2='Média':'trimf',[20 50 80]
MF3='Alta':'trimf',[40 100 100]
 
[Output1]
Name='Aperte_Freio'
Range= [0 100]
NumMFs=2
MF1='Apertar':'trimf',[0 0 100]
MF2='Soltar':'trimf',[0 100 100]
 
[Rules]
0 0 2, 1 (1): 1
3 3 3, 1 (1): 1
3 1 3, 2 (1): 1
0 0 1, 2 (1): 1
· Velocidade Carro:
· Velocidade Roda: 
· Aperte Freio: 
· Pressão Freio:
· Aplicando as regras:
· Valores Fuzzy do Sistema do freio de um veículo:
· Superfície Fuzzy do Sistema de controle do guindaste:
c) Sistema de controle para o ar condicionado
[System]
Name='Fuzzy_Sistema_de_controle_para_o_ar_condicionado'
Type='mamdani'
Version=2.0
NumInputs=2
NumOutputs=1
NumRules=9
AndMethod='min'
OrMethod='max'
ImpMethod='min'
AggMethod='max'
DefuzzMethod='centroid'
[Input1]
Name='Temperatura'
Range= [20 50]
NumMFs=3
MF1='Baixa':'trimf',[20 20 30]
MF2='Média':'trimf',[20 30 40]
MF3='Alta':'trimf',[30 50 50]
[Input2]
Name='Umidade'
Range= [0 100]
NumMFs=3
MF1='Baixa':'trimf',[0 0 50]
MF2='Média':'trimf',[0 50 70]
MF3='Alta':'trimf',[50 70 70]
[Output1]
Name='Consumo'
Range= [20 150]
NumMFs=3
MF1='Baixo':'trimf',[20 20 80]
MF2='Médio':'trimf',[20 80 130]
MF3='Alto':'trimf',[80 150 150]
[Rules]
1 1, 1 (1): 1
1 2, 1 (1): 1
1 3, 2 (1): 1
2 1, 2 (1): 1
2 2, 2 (1): 1
2 3, 2 (1): 1
3 1, 3 (1): 1
3 2, 3 (1): 1
3 3, 2 (1): 1
· Temperatura:
· Umidade:
· Consumo:
· Aplicando as regras:
· Valores Fuzzy do Sistema de controle para o ar condicionado:
· Superfície Fuzzy do Sistema de controle para o ar condicionado:
· 5) Sobre o assunto Raciocínio Probabilístico e Redes Bayesianas faça os ex. sobre modelagem (utilizando a ferramenta de sua preferência) p. 34 e os ex. 12.12 (Bem Coppin) p. 54.
1. Utilizando a ferramenta de sua preferência, simular Redes Bayesianas (dois itens) que constam nos slides. Fazer 3 perguntas para cada modelo.
O exercício foi simulado no software Netica.
Foi criado cinco tabelas/nós simulando os nós: C, S, P, E e F.
Valores das médias dos nós:
Ingressar na Faculdade: Sim – 50% e Não – 50%;
Estudar: Nada – 47.5% e Muito – 52.5%;
Frequentar Festas: Sim – 50%, Não – 50%.
Bem Sucedido nos Exames: Sim – 51.6% e Não – 48.4%;
Divertirá: 50% e 50%.
a. Dado uma pessoa que ingressou na faculdade e frequenta festas, qual a
probabilidade de ela ser bem sucedida nos exames?
P = 32.7%
b. Dado uma pessoa que estuda muito e não frequenta festas, qual a probabilidade de ela ser bem sucedida nos exames?
P = 80%
c. Dado uma pessoa que ingressou na faculdade, frequenta festas e estuda pouco, qual a probabilidade dela se divertir?
P = 60%
2) A rede bayesiana para esse domínio é dada na Figura 14.2. A estrutura da rede mostra que o roubo e os terremotos afetam diretamente a probabilidade de o alarme disparar se o telefonema de João e Maria depender apenas do alarme. A rede representa, portanto, nossas suposições de que eles não percebem roubos diretamente, não notam pequenos terremotos e não conferem antes de telefonar.
Foi criado cinco tabelas/nós simulando os nós: R, T, A, J e M.
Valores das médias dos nós:
Roubo: Sim – 94% e Não – 6%;
Terremoto: Sim – 29% e Não – 71%;
Alarme: Sim – 95.7% e Não – 4.26%;
João Liga: Sim – 86.6% e Não – 13.4%;
Maria Liga: Sim – 68.3% e Não – 31.7%.
a. Dado que houve roubo e terremoto, qual a probabilidade de o alarme tocar? 
P = 100%
b. Dado que João ligue e Maria não ligue, qual a probabilidade de o alarme tocar? 
P = 98.9%
c. Dado que João não ligue, Marianão ligue e não haja terremoto, qual a probabilidade de o alarme tocar?
P = 42.7%
12.1 Explique o que é entendido por probabilidade condicionada de um evento.
Probabilidade condicionada refere-se à probabilidade de um evento ocorrer com base em um evento anterior. Evidentemente, esses dois eventos precisam ser conjuntos não vazios pertencentes a um espaço amostral finito. Em um lançamento simultâneo de dois dados, por exemplo, obtêm-se números em suas faces superiores.
12.2 O teorema de Bayes usa uma probabilidade condicionada e duas probabilidades a priori para calcular apenas uma probabilidade condicionada. Isso não parece muito útil. Discuta esse comentário.
O teorema de Bayes é dado por: PAB=P(B|A)P(A) / P(B)
Onde: 
P(A|B) = Probabilidade condicionada;
P(A) e P(B) = Probabilidade priori.
Quando temos uma tabela de dados a probabilidade, P(B|A)PBA são conseguidas pelos dados, da mesma forma, P(A|B)PAB também poderia ser calculada através dos dados sem a necessidade de utilizar o teorema de Bayes. Tendo os dados em mãos parece complexo o caminho de calcular uma probabilidade condicionada pelo teorema de Bayes.
A vantagem de usar o teorema de Bayes está no fato de as probabilidades a priori serem dinâmicas e podem mudar com o tempo. Por exemplo, “suponha” que hoje a probabilidade de se obter corona vírus seja de 0.001, em uma eventual campanha de vacinação essa probabilidade seria bem menor, 0.0000001 talvez, nesse caso utilizar o teorema de Bayes ao invés da base de dados coletada permitir tornar dinâmicos esses valores.
12.3 Explique o propósito da função v-com ruído.
Diminuir a quantidade de dados a serem guardados na tabela. A função v-com ruído utiliza o valor da probabilidade de condicionadas para cada hipótese para calcular a probabilidade condicionada em duas ou mais hipóteses.
12.4 Explique como o teorema de Bayes pode ser usado para desenvolver sistemas de aprendizagem. 
Imagine uma situação como essa: você está trabalhando em um problema de classificação e gerou o conjunto de hipóteses, criou os recursos e analisou a importância das variáveis. E agora, em menos de uma hora, seu chefe quer ver o primeiro resultado do modelo. O que você vai fazer? Você tem centenas de milhares de pontos de dados e muitas variáveis no conjunto de dados de treinamento. Nessa situação, se estivesse em seu lugar, eu teria usado ‘Naive Bayes’, que pode ser extremamente rápido em relação a outros algoritmos de classificação. Ele usa o teorema de probabilidade de Bayes para prever a classe de um conjunto de dados desconhecido.
12.5 Explique como o classificador ótimo de Bayes é o classificador ingênuo de Bayes funcionam.
O classificador ótimo de bays calcula a probabilidade de um evento considerando que haja relação entre todas as hipóteses.
O classificador ingênuo calcula a hipótese de um evento considerando que os atributos dos dados são independentes. Ou seja, se determinada fruta é considerada uma “Maçã” se ela for “Vermelha”, “Redonda” e possui “aproximadamente 10cm de diâmetro”, o algoritmo não vai levar em consideração a correlação entre esses fatores, tratando cada um de forma independente.
12.6 Explique por que filtragem colaborativa é uma técnica tão útil. Quão bem sucedida você acha que ela pode ser? O que poderia limitar sua eficácia?
Filtragem Colaborativa exploram a ideia de que existem relações entre os produtos e os interesses das pessoas. Para isso ela se baseia esses relacionamentos nas escolhas que um usuário faz ao comprar, assistir, ou curtir alguma coisa. Em seguida, faz conexões com outros usuários de interesses semelhantes para produzir uma previsão.
Nesse ponto ela pode ser positiva para muitos usuários com a ideia de alcance e até mesmo a facilidade de achar conteúdos, no mais rápido possível. 
Outro ponto, que pode destacar também e o limite que ela pode trazer, por exemplo seja na avaliação de um produto em que muitos usuários gostem ou não gostem de um determinado produto. Podendo deixar os produtos com feedbacks negativos eles serem “descartados” facilmente, ou retirados de um determinado local. Um dos pontos que
poderia limitar a sua eficácia seria a minimização do volume de dados coletados dos
usuários, fazendo assim ter uma base que não concentra, mas que cria esses dados para algo positivo. 
6) Ajuste o MLP para controle do robô apresentado na Figura 1.
7) Investigar, experimentar e apresentar um exemplo de CNN, matlab ou keras/tensorflow.
8) Assistir aos vídeos de duas aulas (no MIT) e escrever uma resenha sobre cada um dos vídeos.
· MIT Introduction to Deep Learning | 6.S191
Em Introduction to Deep Learning, o palestrante Alexander Amini chama a atenção para a questão do aprendizado profundo, e com isso ele evidencia criando um algoritmo com base na fala de uma determinada pessoa e criando o realismo que possa “mudar” a pessoa, e colocando uma pessoa conhecida, exemplo ele utilizou o ex-presidente dos EUA - Barack Obama, com isso o algoritmo conseguiu captar as informações que são a fala e as expressões faciais que o próprio palestrante gravou dele, e repassar para todos os ouvintes da palestra com o rosto de Barack Obama, com isso ele explicou que o aprendizado profundo está revolucionando muitas coisas da robótica, a medicina e tudo mais, destacando a construção desses algoritmos, e que o algoritmo possa ser usado em humanos ou indivíduos. O palestrante destaca principalmente o aprendizado profundo e as relações que ele relaciona não apenas sobre a base técnica desta tecnologia e suas implicações éticas e sociais.
A palestra é expositiva, analítico, descritivo, e usa principalmente de exemplos teóricos explicando os termos do aprendizado profundo, em como os algoritmos são construídos, e como eles aprendem.
No primeiro tópico da palestra, o palestrante evidencia “porque a preocupação com o aprendizado profundo”, e evidencia que o aprendizado profundo difere do aprendizado de máquina tradicional, ele evidencia que os algoritmos de aprendizado de máquina eles definem um conjunto de recursos em seus dados geralmente esses os recursos tendem a ser feitos e projetados a mãos, e quando são implementados, primeiro começando e definidos as estruturas por exemplo de uma imagem, detectando as bordas dela e as características na imagem do que ela difere de uma imagem a outra. A segunda ideia que ele passa, é o porquê os dados se tornaram tão importantes na atualidade, e ele destaca que a época em que temos mais dados do que nunca.
No segundo tópico, o palestrante destaca “bloco de construção fundamental – Perceptron ” em que ele evidencia uma função de perceptron e vai detalhando-a. E destaca a utilização da rede neural com uma função de ativação linear, e um problema realmente difícil porque não importa o quão profundo seja a rede neural, você só será capaz de produzir um limite de decisão de linha única, e você só e capaz de separar esses espaços com uma linha, e destaca que o uso das funções de ativação não linear permite que a rede neural se aproxime com funções complexas e isso e que se torna a rede neurais extraordinariamente poderosas. 
No terceiro tópico, o palestrante exemplifica “a construção do perceptron, na construção de redes neurais e vendo como elas se juntam”, ele destaca a importância do perceptron e utiliza um software para mostrar a construção utilizando a função de perceptron. 
No quarto tópico, o palestrante detalha “Aplicando as redes neurais”, e destaca a ideia não apenas de como construir uma rede neural diretamente de um “peceptron”, mas como compô-los juntos para formar redes neurais profundas complexas, e a capacidade de uma rede neural de definir uma previsão.
No quinto tópico, o palestrante trabalha a relação de “Funções de perda”, “Treinamento e descida gradiente”, “Retropropagação” com algoritmos usados para exemplificar os modelos. O algoritmo de Retropropagação em teoria, parece muito simples, é apenas uma extensão muito basica sobre derivados e a regra da cadeia, mas agora vamos abordar alguns “insights” de treinar essas redes na pratica quetornam esse processo muito mais complicado na pratica e a porque usar a Retropropagação, nem sempre é tão facil agora na pratica de treinamento redes neurais e otimização de redes podem ser extremamete dificies e, na verdade é extremamente intensivo computacionalmente. 
No sexto tópico, o palestrante evidencia os Gradiente descendente em lote e Regularização: abandono e parada precoce. Treinar essas redes na pratica a ideia de agrupar seus dados em minilotes, com a computação paralelizavel, podendo dividir os lotes em trabalhos separados e maquinas separadas, assim alcançar anda mais paraleliação e aumento de velocidade em nosso GPU’s.
No Setimo tópico, e sobre “Overfitting” também conhecido como o problema de generalização e um dos problemas mais fundamentais em todo o aprendizado de maquina e não apenas no aprendizado profundo. O Overfitting, e fundamental para entender, no aprendizado de máquina que descreve com precisão nossos dados de teste, não os dados de treinamento embora esteja, otimizados este modelo com base nos dados de treinamento, e que esses dados de treinamento, com base no desempenho nos dados de teste, e com esses dados de treinamento, eles irão ser generalizados com os dados de testes invisíveis. 
No oitavo topico, “Regularização” o palestrante trabalha a relação da certeza nos modelos, em que eles não acabam excessivamente ajustados na rede neural, tem varios parametros. A regularização define como uma tecnica que restringe que esses problemas de otimização, em que os problemas de tal forma a serem desencorajados nos modelos complexos de realmente serem aprendidos e superequipados, e eles são utilizados para que o modelo possa ser generalizado para invisivel em um conjunto de dados e em redes neurais, e utilizando de técnics para realmente impor a regularização, e podemos destacar tambem o modelo chamada de abandono, que é uma tecnica de regularização em aprendizado profundo.
Entretanto, a palestra e bem complexa em seus dados e exemplos bem atuais. Por fim, o palestrante acaba concluindo, e resumindo três pontos-chaves sobre os blocos de construção fundamentais das redes neurais, o perceptron foi evidenciado o empilhamento e a composição desses perceptrons juntos formando redes neurais hierárquicas e na sua otimização matemática nos modelos com propagação de volta, propagação de volta e, foi abordado o lado prático dos modelos apresentados. 
A palestra em si, evidencia um principal ponto ao aprendizado profundo, e como os códigos podem definir os modelos e suas aplicações. E a palestra foi útil ao retratar a importância nos dados nos tempos atuais, e a importância do aprendizado profundo. 
· MIT 6.S191: Convolutional Neural Networks:
 Em Convolutional Neural Networks, o palestrante Alexander Amini chama a atenção para a questão de dar um “poder” as maquinas um senso de visão, um dos sentidos humanos mais importantes, e ele irá retratar o aprendizado profundo na construção de sistemas de visão computacional, das redes neurais convolucional, e com isso ele evidencia, e dá um exemplo na análise e o entendimento o que uma imagem significa, mas utilizando algoritmo para saber as previsões e o entendimento ao olhar em uma imagem, analisando os objetos em cena e realmente prever e antecipando no futuro o que vai acontecer a seguir, criando um algoritmo de visão computacional com base na determinação de objetos em um local por exemplo, em uma rua de cidade em que o algoritmo possa determinar se e um veículo, qual e o tipo de veículo carro, caminhão e colocando em com evidencias suas características. O palestrante destaca principalmente o aprendizado profundo que ele está trazendo uma incrível revolução ou evolução da visão computacional, com algoritmos e aplicativos que vão desde permitir que robôs usem pistas visuais para realizar coisas como navegação.
A palestra é expositiva, analítico, descritivo, e usa principalmente de exemplos teóricos explicando os termos de redes neurais convolucionais e aprendizado profundo, em exemplos atuais, que englobam temas importantes da atualidade como os algoritmos são construídos, e como eles aprendem.
No primeiro tópico da palestra, o palestrante evidencia “o que os computadores (vêem)”, então para um computador as imagens são apenas números, existem duas dimensões com listas de números, cada um desses números pode ser representado pelo que é chamado de pixel, e um pixel é simplesmente um número. Os tipos de algoritmos de visão computacional executados, existem dois tipos comuns de tarefas de aprendizagem: regressão e classificação (A classificação é a tarefa de prever um rótulo de classe discreto. A regressão é a tarefa de prever uma quantidade contínua). Outros bancos de dados podem ser utilizados para o processo de classificação e regressão.
No segundo tópico da palestra, o palestrante detalha o “Aprendendo recursos visuais”, outras abordagens podem ser utilizadas para aprender recursos visuais, como por exemplo as redes neurais, no caso elas podem detectar os olhos, bocas, narizes, cabelos, entre outros recursos visuais dos humanos, essas hierarquias visuais serão classificadas pelas redes neurais. Uma arquitetura utilizada é a de feedforward: é uma rede neural artificial em que as conexões entre os nós não formam um ciclo. Como tal, é diferente de seu descendente: redes neurais recorrentes. A rede neural feedforward foi o primeiro e mais simples tipo de rede neural artificial desenvolvida. Nesta rede, as informações se movem em apenas uma direção - para a frente - dos nós de entrada, através dos nós ocultos (se houver) e para os nós de saída. Não há ciclos ou loops na rede. É visto também sobre as redes neurais totalmente conectadas (FCNNs), que são um tipo de rede neural artificial em que a arquitetura é tal que todos os nós, ou neurônios, em uma camada são conectados aos neurônios na próxima camada. Por fim o palestrante fala sobre uma estrutura espacial, que se refere a uma estrutura feita de um conjunto de membros lineares interconectados no espaço, resistindo a cargas aplicadas em suas conexões ou ao longo de seus comprimentos.
No terceiro tópico, o palestrante exemplifica a “Extração e convolução de recursos”, é ilustrado duas imagens (imagens com vários números negativos (-1), onde é desejável classificar a letra x em um conjunto de imagens em preto e branco de letras onde o preto é igual ao negativo e o branco igual ao positivo, para fazer essa classificação, não basta simplesmente comparar as duas imagens a olho nu, não importa se as imagens possuem algum tipo de deformação, o classificador deve robusto nesse caso. Para propor esse modelo de classificação, ele basicamente compara as duas imagens de um pedação de um x pedaço e realmente peças importantes que ele deve procurar são exatamente o tem, que é chamado de recursos, se o modelo pode encontrar essas características importantes, as outras características brutas que definem ax na mesma posição, é possível ver a aproximação das mesmas posições, então pode ficar muito melhor no entendimento a semelhança.
 No quarto tópico, o palestrante detalha “A operação de convolução”, matematicamente, uma convolução é uma operação linear que a partir de duas funções, gera uma terceira (normalmente chamada de feature map). No contexto de imagens, é possível entender esse processo como um filtro/kernel que transforma uma imagem de entrada. Um kernel é uma matrix utilizada para uma operação de multiplicação de matrizes. Esta operação é aplicada diversas vezes em diferentes regiões da imagem. A cada aplicação, a região é alterada por um parâmetro conhecido como stride. Normalmente o stride possui o valor 1, o que significa que a transformação será aplicada em todos os pixels da imagem.
 No quinto tópico, o palestrante trabalha a relação de “Convolutional Neurak Networks (CNNs)”, usando a operação convolucional são realmente essenciais para as redes neurais convolucionais que são usados para tarefas de visão computacional. Pode-se usar cnns para classificação de dados de imagem e podemosusar esses recursos para mapeá-los em uma tarefa de classificação para essas imagens, agora existem três componentes principais e operações que são essenciais para um cnn.
Primeira parte são as operações de convolução e que permite gerar esses mapas de recursos e detectar recursos em nossa imagem e a segunda parte é a aplicação de uma não linearidade, a fim de nos ajudar a lidar com esses recursos que extraímos sendo altamente não linear em terceiro lugar, precisamos aplicar algum tipo de operação de agrupamento, isto é outra palavra para uma operação de down sampling e isso nos permite reduzir o tamanho de cada mapa de recursos agora é o cálculo de uma classe de pontuações que é o que estamos fazendo quando definimos uma tarefa de classificação de imagem é realmente realizada usando esses recursos que obtemos por meio de convolução não linearidade e agrupamento e, em seguida, passando esses recursos aprendidos para um rede totalmente conectada ou uma camada densa.
Para treinar este modelo de ponta a ponta, desde a entrada de imagem até a saída de predição de classe usando camadas totalmente conectadas e camadas convolucionais ponta a ponta, onde parte do camadas convolucionais os conjuntos de pesos dos filtros para cada camada convolucional e também como os pesos que definem essas camadas totalmente conectadas que realmente realizam nossa classificação.
No exemplo dado no vídeo e pegado uma amostra de uma imagem que é um filtro de uma matriz 4x4, para cada elemento e aplicado os pesos Wij. Os resultados e isso realmente define também como as camadas convolucionais estão conectados os resultados e isso realmente define também como as camadas convolucionais estão conectadas.
No sexto tópico, o palestrante evidencia a “Não linearidade e agrupamento”, aplicamos essa não linearidade após cada operação de convolução, ao aplicarmos esta função de ativação não linear ao volume de saída dessa camada fazemos isso porque os dados da imagem são altamente não lineares. A operação substitui todos os valores negativos por zero e mantém todos os valores positivos com qualquer. Se chegar a zero valores negativos indicam detecção negativa de uma convolução, mas isso a não linearidade, na verdade, meio que fixa isso em algum sentido e é uma operação não linear, então ele satisfaz nossa capacidade de aprender dinâmica não linear como parte de nosso modelo de rede neural.
No Sétimo tópico, e sobre as “Aplicações”, podemos utilizar as CNNs para classificação de imagens, podemos querer olhar para diferentes domínios de classificação de imagens, podemos apresentar novas arquiteturas especificamente para coisas como imagem e objeto detecção de segmentação semântica e até mesmo coisas como legendas de imagens. As CNNs tem um impacto significativo na medicina e na saúde, um artigo que foi publicado foi demonstrado que uma CNN pode superar o especialista radiologistas na detecção de câncer de mama diretamente em imagens de mamografia, em vez de fornecer um código binário previsão do que é uma saída embora câncer ou não câncer ou que tipo de objetos.
No oitavo tópico, o palestrante trabalha a relação de “Detecção de objetos”, para analisar uma imagem é um problema muito mais difícil, pois pode haver muitos objetos na imagem e eles podem ser sobrepostos uns com os outros parcialmente obstruídos etc. Portanto, não queremos apenas localizar o objeto queremos também realizar a classificação nesse objeto, por isso é realmente mais difícil do que simplesmente tarefa de classificação porque ainda temos que fazer a classificação, mas também temos que detectar onde todos esses objetos estão, além de classificar cada um desses objetos agora nossa rede também precisa ser flexível e efetiva e capaz de inferir não apenas potencialmente. Como as CNNs pode ser usado para fazer isso, então o que podemos fazer e colocando uma caixa aleatória sobre esta imagem em algum lugar da imagem ela tem alguma localização aleatória, mas também tem um tamanho aleatório e podemos pegar essa caixa e alimentá-la por meio de nossa rede neural de classificação de imagens. A tarefa de prever qual é a classe desta imagem, ela não está fazendo a detecção de objetos e prevê que tem alguma classe se não houver classe nesta caixa, então ele simplesmente pode ignorá-la e repetimos esse processo, então escolhemos outra caixa na cena e passamos isso através da rede para prever sua classe e podemos continuar fazendo isso com diferentes caixas na cena e manter fazendo isso e ao longo do tempo. Se nenhum objeto for encontrado, podemos simplesmente descartá-lo e seguir para a próxima caixa.
No nono tópico, o palestrante trabalha a relação de “Carros com direção de ponta a ponta”, considerando a tarefa de controle robótico para carros autônomos e navegação direta a partir de dados de visão, especificamente, este modelo vai receber como entrada a percepção bruta do veículo, que vem, por exemplo, de uma câmera no carro e também verá uma representação barulhenta de mapas do Street View. Esse modelo pode ser treinado de ponta a ponta passando cada uma dessas câmeras por seus extratores de recursos convolucionais dedicados e, em seguida, basicamente extrair todos esses recursos e, em seguida, concatená-los, reduzi-las e, em seguida, concatená-los em um único recurso. O vetor de extração, então, uma vez que temos toda esta representação de todos os recursos extraídos de todas as nossas câmeras e mapas, podemos realmente usar essa representação para prever os parâmetros de controle total em cima de um controle determinístico dado ao destino desejado do veículo, este controle probabilístico é muito poderoso porque aqui estamos realmente aprendendo para apenas otimizar uma distribuição de probabilidade sobre onde o veículo deve dirigir a qualquer momento. O resultando e que um humano pode realmente entrar na entrada do carro e definir um destino desejado e de ponta a ponta da CNNs vai emitir os comandos de controle para acionar o veículo em direção a esse destino.
Entretanto, a palestra e bem complexa em seus dados e exemplos bem atuais. Por fim, o palestrante acaba concluindo, os fundamentos da visão computacional como as imagens são representado como uma matriz de valores de brilho e como podemos usar convoluções e como elas funcionam, ele trabalhou a relação dessa construção sobre as convoluções na arquitetura básica, definindo convoluções redes neurais e discutido como CNNs pode ser usado para classificação, por fim, o palestrante trabalhou a relação de várias extensões e aplicativos de como você pode usar esses arquiteturas de rede neural convolucional como um módulo de extração de recursos e, em seguida, usar este para realizar sua tarefa em mãos e um pouco sobre como podemos realmente visualizar o comportamento de nossa rede neural e realmente entender um pouco sobre o que ela está fazendo nos bastidores por meio maneiras de alguns desses mapas de segmentação semântica e realmente obter uma perspectiva mais refinada da classificação de resolução muito alta dessas imagens de entrada.
A palestra em si, evidencia um principal ponto ao aprendizado profundo na construção de sistemas de visão computacional, e como os códigos e conhecimentos podem definir os modelos e suas aplicações. E a palestra foi útil ao retratar a importância com temas atuais incluindo acessibilidade, incluindo o campo de medicina, e trazendo uma nova perspectiva de conhecimento que está crescendo a cada momento.

Continue navegando