Prévia do material em texto
102. Overfitting e Underfitting No contexto de aprendizado de máquina, overfitting e underfitting são dois problemas comuns que podem afetar a performance de um modelo. Ambos ocorrem quando o modelo não é capaz de aprender adequadamente a partir dos dados, mas por razões opostas. O overfitting ocorre quando o modelo é excessivamente complexo e se ajusta demais aos dados de treinamento, capturando não apenas os padrões reais, mas também o "ruído" ou variações aleatórias dos dados. Como resultado, o modelo tem um desempenho excepcional nos dados de treinamento, mas falha em generalizar para novos dados, resultando em uma baixa performance nos dados de teste ou em produção. Isso acontece frequentemente quando o modelo tem muitos parâmetros ou quando o conjunto de dados de treinamento é pequeno. O underfitting, por outro lado, ocorre quando o modelo é muito simples e não consegue capturar os padrões subjacentes nos dados. Isso pode acontecer quando o modelo é muito raso ou quando há um número insuficiente de parâmetros. O underfitting resulta em um modelo que tem um desempenho fraco tanto nos dados de treinamento quanto nos dados de teste, pois não consegue aprender corretamente a partir dos dados.O underfitting, por outro lado, ocorre quando o modelo é muito simples para capturar os padrões complexos dos dados. Em vez de aprender os padrões subjacentes, o modelo falha em identificar até mesmo as relações mais óbvias, resultando em um desempenho ruim tanto nos dados de treinamento quanto nos dados de teste. Esse problema é frequentemente observado quando o modelo tem poucos parâmetros ou é inadequado para a tarefa em questão. Por exemplo, tentar usar uma regressão linear simples para um problema não linear provavelmente resultará em underfitting, pois o modelo não será capaz de capturar a complexidade dos dados. Ambos os problemas podem ser mitigados com técnicas como regularização, escolha adequada de modelos, aumento de dados e validação cruzada. No caso do overfitting, é comum aplicar técnicas de regularização, como L1 e L2, que penalizam modelos complexos, forçando-os a aprender apenas os padrões mais relevantes. Para combater o underfitting, pode ser necessário aumentar a complexidade do modelo ou adicionar mais características aos dados.Questões: 1. O que caracteriza o overfitting em um modelo de IA? o a) O modelo tem um desempenho fraco em dados de treinamento e teste o b) O modelo captura apenas os padrões reais dos dados o c) O modelo se ajusta demais aos dados de treinamento e falha em generalizar o d) O modelo não aprende nada dos dados o Resposta correta: c) 2. Qual técnica pode ajudar a evitar o overfitting? o a) Aumento da complexidade do modelo o b) Redução da quantidade de dados de treinamento o c) Uso de regularização para penalizar modelos complexos o d) Substituição do modelo por um mais simples o Resposta correta: c)