Ed
há 2 meses
Vamos analisar as opções apresentadas com base na descrição do problema do cliente. A situação envolve um chatbot que precisa responder a perguntas utilizando a documentação do produto, que é atualizada diariamente. O cliente não deseja mudar o modelo, mas sim garantir que as respostas sejam rápidas e baseadas na documentação mais recente. Agora, vamos às alternativas: A. A classic AI inferencing workload. - Isso se refere a um trabalho de inferência tradicional, onde um modelo é usado para fazer previsões ou classificações, mas não necessariamente envolve a recuperação de informações atualizadas. B. A model development and experimentation workload. - Isso se refere ao desenvolvimento e experimentação de modelos, o que não é o foco aqui, já que o cliente não quer mudar o modelo. C. A RAG (Retrieval-Augmented Generation) inferencing workload. - Esta opção se refere a um trabalho de inferência que combina a recuperação de informações (neste caso, a documentação do produto) com a geração de respostas. Isso se encaixa perfeitamente na necessidade do cliente de usar a documentação atualizada para responder rapidamente. D. A large-scale model training workload. - Isso se refere ao treinamento de modelos em larga escala, o que não é relevante, pois o cliente não deseja treinar um novo modelo. Diante dessa análise, a alternativa correta é: C. A RAG (Retrieval-Augmented Generation) inferencing workload.
Mais perguntas desse material