Ed
há 9 meses
Para entender o principal benefício do Gradient Boosting, é importante saber que essa técnica é um método de ensemble que combina múltiplos modelos fracos (geralmente árvores de decisão) de forma sequencial. Cada novo modelo é treinado para corrigir os erros do modelo anterior, o que resulta em um modelo final mais robusto e com melhor desempenho. Analisando as alternativas: a) Ele melhora a performance do modelo criando múltiplos modelos de forma independente. - Isso não é correto, pois os modelos são criados de forma sequencial, não independente. b) Ele cria um único modelo altamente complexo e ajustado. - Embora o resultado final seja um modelo complexo, o foco do Gradient Boosting é na correção dos erros dos modelos anteriores. c) Ele aumenta a performance de um modelo corrigindo os erros dos modelos anteriores de forma sequencial. - Esta é a descrição correta do funcionamento do Gradient Boosting. d) Ele simplifica o modelo ao utilizar apenas os melhores atributos. - O Gradient Boosting não necessariamente simplifica o modelo, mas sim o torna mais complexo ao adicionar modelos. e) Ele aumenta a dimensionalidade dos dados para melhorar a performance. - Isso não é uma característica do Gradient Boosting. Portanto, a alternativa correta é: c) Ele aumenta a performance de um modelo corrigindo os erros dos modelos anteriores de forma sequencial.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material