Baixe o app para aproveitar ainda mais
Prévia do material em texto
PERGUNTA 1 Quais das afirmativas abaixo estão corretas em relação ao impacto da escolha do tamanho no mini-batch (minilote) no treinamento da rede? I. Ao ampliar o tamanho do mini-batch, podemos fazer melhor uso das GPUs. II. O mini-batch com tamanho 1 é equivalente ao método do gradiente on-line, ou seja, os parâmetros do modelo são ajustados a cada iteração do laço de treinamento. III. O tamanho do mini-batch deve refletir um balanceamento entre uso eficiente de memória e paralelização. Selecione a alternativa correta: A. Apenas a afirmativa I está correta. B. Apenas as afirmativas II e III estão corretas. C. Apenas as afirmativas I e III estão corretas. D. Apenas as afirmativas I e II estão corretas. E. Todas as afirmativas estão corretas. PERGUNTA 2 Os sistemas de Inteligência Artificial, como os modelos de aprendizado de máquina profundo, possuem grande impacto no nosso dia a dia. Contudo, o desenvolvimento e aplicação de tais modelos também podem trazer resultados negativos para a sociedade. Dessa forma, alguns princípios devem ser seguidos durante o desenvolvimento de tais sistemas. Quais das afirmativas abaixo representam esses princípios? I. Garantir segurança e equidade. II. Respeito à privacidade e à segurança dos dados. III. Reconhecer implicações legais/política. IV. Sustentar direitos e valores humanos. Selecione a alternativa correta: A. Apenas as afirmativas I, III e IV estão corretas. B. Todas as afirmativas estão corretas. C. Apenas as afirmativas I, II e IV estão corretas. D. Apenas as afirmativas I, II e III estão corretas. E. Apenas as afirmativas II, III e V estão corretas. PERGUNTA 3 O treinamento de uma rede neural, em particular redes profundas, pode ser bastante complexo e custoso. Nesse contexto, há diversas técnicas disponíveis para facilitar e acelerar esse processo, como a normalização em lote. Qual é a função principal da normalização em lote (batch normalization)? Selecione a alternativa correta: A. A normalização em lote tem como função principal evitar que modelo atinja um sobreajuste (overfitting). B. Ele pode melhorar a convergência do algoritmo de retropropagação, normalizando os dados para atingir variância igual a um e média zero em cada minilote (mini-batch) do conjunto de treinamento. C. A normalização em lote tem como objetivo melhorar o processo de treinamento quando consideramos dados ruidosos. D. A normalização em lote tem como função principal melhorar a capacidade de generalização do modelo treinado. E. Ele pode melhorar a convergência do algoritmo de retropropagação, normalizando os valores gerados nas camadas ocultas da rede para os exemplos contidos no minilote (mini-batch). PERGUNTA 4 Um modelo seq-2-seq (sequência-para-sequência) é normalmente composto por um codificador e um decodificador. Quais das afirmativas abaixo estão corretas em relação a essa família de modelos? I. Modelos seq-2-seq são capazes de aprender a associar sequências de entrada a sequências de saída de comprimento arbitrário. II. Modelos seq-2-seq são mais eficazes quando a sequência de entrada e saída têm o mesmo comprimento. III. Em um modelo de rede neural seq-2-seq, a sequência de entrada, de tamanho arbitrário, é codificada em um espaço latente (estado oculto) de tamanho fixo. IV. Modelos seq-2-seq são úteis apenas para tarefas de processamento de linguagem natural. Selecione a alternativa correta: A. Apenas as afirmativas I, III e IV estão corretas. B. Apenas as afirmativas III e IV estão corretas. C. Apenas as afirmativas I, II e III estão corretas. D. Apenas as afirmativas I e III estão corretas. E. Apenas as afirmativas II, III e IV estão corretas. PERGUNTA 5 As redes transformers (transformador), propostas em 2018, têm se destacado como o principal modelo neural para processamento de sequências, como processamento de linguagem natural. Qual das alternativas abaixo descreve as vantagens dessas redes em relação a uma rede recorrente? Selecione a alternativa correta: A. As redes transformers utilizam o mecanismo de atenção, permitindo que esses modelos sejam mais eficientes que as redes recorrentes, as quais não podem fazer uso do mecanismo de atenção. B. As redes transformers processam a entrada paralelamente, ao contrário das redes recorrentes, que processam a informação de forma sequencial. Por essa razão, elas podem fazer uso mais intenso de GPUs. C. Por tratar-se de arquiteturas bidirecionais, as redes transformers possuem maior capacidade de aprendizagem do que as redes recorrentes tradicionais. Por essa razão, têm sido amplamente utilizadas para o processamento de linguagem natural. D. As redes transformers processam a entrada de forma sequencial, ao contrário das redes recorrentes, que processam a informação de forma paralela. Por essa razão, elas podem fazer uso mais intenso de GPUs. E. As redes transformers e as redes recorrentes são equivalentes, logo, não há vantagem ou desvantagem ao comparar esses modelos. PERGUNTA 6 Qual é o papel do mecanismo de atenção em modelos seq-2-seq (sequência-para-sequência)? Selecione a alternativa correta: A. O mecanismo de atenção é usado apenas para melhorar a capacidade de generalização dos modelos seq-2-seq. B. O mecanismo de atenção não é usado em modelos seq-2-seq. C. O mecanismo de atenção permite que o modelo seq-2-seq gere uma saída para cada elemento da sequência de entrada. D. O mecanismo de atenção é usado apenas para reduzir o overfitting em modelos seq-2-seq. E. O mecanismo de atenção permite que o modelo seq-2-seq se concentre em partes relevantes da sequência de entrada durante o processamento.
Compartilhar