Prévia do material em texto
Aprendizado de Máquina - Regressão Linear Lista de Exercícios Para Estudo - Fundamentos Essa lista de exercícios foi feita por aluno com o objetivo de revisar o entendimento dos principais tópicos baseado nos materiais do professor da disciplina de Aprendizado de Máquina. Exercícios 1. O que é regressão linear e como ela é aplicada na modelagem de dados? 2. Como a regressão linear simples difere da regressão linear múltipla? 3. Por que a linearidade entre as variáveis é importante para a regressão linear? 4. Quais são as principais suposições feitas para aplicar a regressão linear? 5. Em que situações a regressão linear pode não ser adequada? 6. Como interpretar os coeficientes em um modelo de regressão linear? 7. Qual é o papel do termo de erro nos modelos de regressão linear? 8. Como a multicolinearidade afeta a precisão dos coeficientes? 9. Por que é importante verificar a normalidade dos resíduos em regressão linear? 10. Como a heterocedasticidade pode prejudicar a validade do modelo? Gabarito 1. A regressão linear é um método estatístico usado para modelar a relação entre uma variável dependente e uma ou mais variáveis independentes, sendo amplamente utilizada em previsões e análises de tendências. 2. A regressão linear simples envolve apenas uma variável independente para prever o resultado, enquanto a múltipla utiliza várias variáveis, aumentando a complexidade e a precisão do modelo. 3. A linearidade entre variáveis é essencial para garantir que a relação entre as variáveis independentes e a dependente possa ser representada por uma linha reta ou um plano, facilitando a interpretação dos resultados. 4. As principais suposições incluem linearidade, independência dos resíduos, homocedasticidade (variância constante dos resíduos), e normalidade dos erros, garantindo a validade do modelo. 5. A regressão linear pode ser inadequada em cenários onde a relação entre as variáveis é não linear ou onde existem dados atípicos que distorcem o ajuste da linha. 6. Os coeficientes indicam o impacto de cada variável independente sobre a variável dependente. Um coeficiente positivo significa que um aumento na variável independente tende a aumentar a dependente. 7. O termo de erro representa a parte da variação na variável dependente que não pode ser explicada pelas variáveis independentes, sendo essencial para avaliar a precisão do modelo. 8. A multicolinearidade ocorre quando variáveis independentes estão fortemente correlacionadas, dificultando a determinação dos efeitos individuais de cada variável no modelo. 9. Verificar a normalidade dos resíduos é importante para garantir que as estimativas dos coeficientes sejam não viesadas e precisas, aumentando a confiança nas previsões. 10. A heterocedasticidade, ou variância não constante dos resíduos, pode levar a erros nas previsões e na inferência estatística, exigindo ajustes no modelo para melhorar sua validade.