Ed
há 2 meses
A normalização de dados em projetos de Inteligência Artificial (IA) refere-se ao processo de ajustar os dados para que estejam em uma escala comum, o que é essencial para garantir que diferentes variáveis contribuam de maneira equilibrada para o modelo. Analisando as alternativas: A) O processo de remover dados duplicados - Isso se refere à deduplicação, não à normalização. B) A limpeza dos dados para remover outliers - Isso é parte do pré-processamento, mas não é a definição de normalização. C) A conversão de dados de texto em imagens - Isso não é normalização, mas sim uma transformação de tipo de dado. D) O ajuste dos dados para que estejam em uma escala comum - Esta é a definição correta de normalização. E) A transformação de dados categóricos em numéricos - Isso é uma técnica chamada codificação, não normalização. Portanto, a alternativa correta é: D) O ajuste dos dados para que estejam em uma escala comum.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade