Ed
há 2 meses
Vamos analisar as opções apresentadas em relação à declaração do engenheiro de ML sobre a necessidade de simplificar o processo de implantação de modelos treinados e tratá-los como "gado", ou seja, de forma padronizada e otimizada. A. NVIDIA NIM (NVIDIA Inference Microservices) - Esta opção se refere a microserviços de inferência que permitem a implantação e escalabilidade de modelos de aprendizado de máquina, o que se alinha com a ideia de tratar modelos como "gado". B. HPE Data Fabric - Esta opção se relaciona mais à gestão e integração de dados, não especificamente à implantação de modelos. C. Apache Airflow - É uma ferramenta de orquestração de workflows, que ajuda a gerenciar tarefas, mas não se foca diretamente na implantação de modelos. D. JupyterLab - É um ambiente de desenvolvimento interativo, mais voltado para a criação e teste de modelos, não para a implantação. Diante dessa análise, a opção que melhor descreve o benefício primário mencionado na declaração do engenheiro de ML é: A. NVIDIA NIM (NVIDIA Inference Microservices).
Mais perguntas desse material