Ed
há 10 meses
A técnica de bagging, que significa "Bootstrap Aggregating", é uma abordagem em aprendizado de máquina que visa melhorar a precisão dos modelos. Ela funciona ao treinar múltiplos modelos (geralmente do mesmo tipo) em diferentes subconjuntos do conjunto de dados, que são gerados por amostragem com reposição. Vamos analisar as alternativas: a) A combinação de modelos treinados de forma sequencial para reduzir o erro. - Isso descreve mais a técnica de boosting, não bagging. b) A aplicação de múltiplos modelos em diferentes partes do conjunto de dados para melhorar a performance. - Esta descrição se alinha com a ideia de bagging, onde múltiplos modelos são treinados em subconjuntos do conjunto de dados. c) A combinação de modelos simples para criar um modelo complexo e mais preciso. - Embora isso possa ser verdade em um contexto mais amplo, não é uma descrição precisa do bagging. d) A técnica de reduzir a dimensionalidade dos dados de entrada. - Isso não está relacionado ao bagging. e) A aplicação de uma única técnica de classificação em todos os dados de treinamento. - Isso não descreve bagging, que envolve múltiplos modelos. Portanto, a alternativa correta é: b) A aplicação de múltiplos modelos em diferentes partes do conjunto de dados para melhorar a performance.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material