Ed
há 7 meses
Vamos analisar as opções apresentadas sobre as TPUs (Tensor Processing Units) do Google em relação às GPUs e CPUs tradicionais. 1. As TPUs são exclusivamente para renderização de gráficos 3D, não sendo úteis em modelos de linguagem. - Esta afirmação é falsa, pois as TPUs são projetadas para acelerar operações de machine learning, incluindo modelos de linguagem, e não se limitam à renderização de gráficos. 2. As TPUs são otimizadas para operações massivas de matrizes, acelerando de forma significativa o treinamento de grandes redes neurais. - Esta afirmação é verdadeira. As TPUs são realmente otimizadas para operações de matrizes, o que as torna muito eficientes para o treinamento de redes neurais profundas. 3. As TPUs não possuem qualquer vantagem energética, consumindo mais energia do que servidores convencionais. - Esta afirmação é falsa. As TPUs são projetadas para serem mais eficientes em termos de energia em comparação com CPUs e GPUs tradicionais. 4. As TPUs foram abandonadas pelo Google em 2018 devido a problemas de compatibilidade com TensorFlow. - Esta afirmação é falsa. As TPUs continuam a ser utilizadas e suportadas pelo Google, especialmente em conjunto com o TensorFlow. Portanto, a opção correta que descreve um dos diferenciais das TPUs em relação a GPUs e CPUs tradicionais é: As TPUs são otimizadas para operações massivas de matrizes, acelerando de forma significativa o treinamento de grandes redes neurais.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade