Prévia do material em texto
Aprendizado de Máquina - Redes Neurais Lista de Exercícios Para Estudo - Perceptron e Redes Simples Essa lista de exercícios foi feita por aluno com o objetivo de revisar o entendimento dos principais tópicos baseado nos materiais do professor da disciplina de Aprendizado de Máquina. Exercícios 1. O que é um Perceptron e qual foi seu papel na história das redes neurais? 2. Como os pesos e o bias influenciam a saída de um Perceptron? 3. Por que o Perceptron falha ao tentar resolver o problema do XOR? 4. Qual foi a importância dos trabalhos de McCulloch e Pitts no desenvolvimento das redes neurais? 5. Como o Perceptron é utilizado em problemas de classificação binária? 6. Em que contexto o ADALINE e o MADALINE foram desenvolvidos, e qual foi seu impacto? 7. Por que houve uma pausa nas pesquisas sobre redes neurais nas décadas de 1960 e 1970? 8. Como o Perceptron se relaciona com as funções lógicas AND e OR? 9. Quais são as limitações de redes com uma única camada de Perceptrons? 10. Como os desenvolvimentos no algoritmo backpropagation renovaram o interesse em redes neurais? Gabarito 1. O Perceptron, desenvolvido por Frank Rosenblatt, foi uma das primeiras tentativas de criar uma rede neural funcional. Ele foi projetado para resolver problemas de classificação simples, utilizando uma combinação linear de pesos e entradas para determinar a saída. 2. Os pesos indicam a importância de cada entrada no modelo, enquanto o bias atua como um ajuste fino que desloca a função de ativação. Ambos determinam se o Perceptron ativa a saída 0 ou 1. 3. O Perceptron falha no problema do XOR porque não consegue encontrar uma linha de separação linear para as entradas desse problema, demonstrando a necessidade de redes mais complexas. 4. McCulloch e Pitts criaram o primeiro modelo matemático de um neurônio, mostrando que ele podia ser representado como um circuito lógico. Esse trabalho lançou as bases para o desenvolvimento das redes neurais. 5. O Perceptron é útil em classificação binária ao prever duas classes distintas, como "sim" ou "não", com base na soma ponderada das entradas e no threshold aplicado. 6. ADALINE e MADALINE foram redes desenvolvidas para problemas do mundo real, como eliminar ecos em linhas telefônicas. Eles demonstraram o potencial das redes neurais além de experimentos acadêmicos. 7. A pausa nas pesquisas se deu por limitações computacionais e pela descoberta de que os Perceptrons eram incapazes de resolver alguns problemas simples. Isso desviou o foco para sistemas especialistas e IA simbólica. 8. O Perceptron pode implementar funções lógicas simples, como AND e OR, mas falha em situações mais complexas, como o XOR, devido à falta de capacidade de não-linearidade. 9. Redes com uma única camada são limitadas, pois não conseguem resolver problemas com padrões mais complexos. Elas não têm a capacidade de capturar relações não lineares entre as entradas. 10. O backpropagation permitiu que redes mais profundas fossem treinadas, ajustando pesos de forma eficiente e resolvendo o problema do XOR e outros desafios mais complexos.