Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

102. Overfitting e Underfitting 
No contexto de aprendizado de máquina, overfitting e underfitting são dois problemas 
comuns que podem afetar a performance de um modelo. Ambos ocorrem quando o 
modelo não é capaz de aprender adequadamente a partir dos dados, mas por razões 
opostas. 
O overfitting ocorre quando o modelo é excessivamente complexo e se ajusta demais 
aos dados de treinamento, capturando não apenas os padrões reais, mas também o 
"ruído" ou variações aleatórias dos dados. Como resultado, o modelo tem um 
desempenho excepcional nos dados de treinamento, mas falha em generalizar para 
novos dados, resultando em uma baixa performance nos dados de teste ou em produção. 
Isso acontece frequentemente quando o modelo tem muitos parâmetros ou quando o 
conjunto de dados de treinamento é pequeno. 
O underfitting, por outro lado, ocorre quando o modelo é muito simples e não 
consegue capturar os padrões subjacentes nos dados. Isso pode acontecer quando o 
modelo é muito raso ou quando há um número insuficiente de parâmetros. O 
underfitting resulta em um modelo que tem um desempenho fraco tanto nos dados de 
treinamento quanto nos dados de teste, pois não consegue aprender corretamente a partir 
dos dados.O underfitting, por outro lado, ocorre quando o modelo é muito simples para 
capturar os padrões complexos dos dados. Em vez de aprender os padrões subjacentes, o 
modelo falha em identificar até mesmo as relações mais óbvias, resultando em um 
desempenho ruim tanto nos dados de treinamento quanto nos dados de teste. 
Esse problema é frequentemente observado quando o modelo tem poucos parâmetros ou 
é inadequado para a tarefa em questão. Por exemplo, tentar usar uma regressão linear 
simples para um problema não linear provavelmente resultará em underfitting, pois o 
modelo não será capaz de capturar a complexidade dos dados. 
Ambos os problemas podem ser mitigados com técnicas como regularização, escolha 
adequada de modelos, aumento de dados e validação cruzada. No caso do overfitting, é 
comum aplicar técnicas de regularização, como L1 e L2, que penalizam modelos 
complexos, forçando-os a aprender apenas os padrões mais relevantes. Para combater o 
underfitting, pode ser necessário aumentar a complexidade do modelo ou adicionar mais 
características aos dados.Questões: 
1. O que caracteriza o overfitting em um modelo de IA? 
o a) O modelo tem um desempenho fraco em dados de treinamento e teste 
o b) O modelo captura apenas os padrões reais dos dados 
o c) O modelo se ajusta demais aos dados de treinamento e falha em 
generalizar 
o d) O modelo não aprende nada dos dados 
o Resposta correta: c) 
2. Qual técnica pode ajudar a evitar o overfitting? 
o a) Aumento da complexidade do modelo 
o b) Redução da quantidade de dados de treinamento 
o c) Uso de regularização para penalizar modelos complexos 
o d) Substituição do modelo por um mais simples 
o Resposta correta: c)

Mais conteúdos dessa disciplina