Ed
ontem
Vamos analisar cada uma das afirmações sobre perceptrons e redes neurais: ( ) A separabilidade linear de um perceptron simples permite constatar se o mesmo conseguirá dividir corretamente o espaço de classificação com uma reta. É verdadeira (V). A separabilidade linear é um conceito fundamental que determina se um perceptron pode classificar corretamente os dados usando uma linha (reta) no espaço de características. ( ) O método de aprendizagem por correção de erros aumenta a força dos pesos positivamente correlacionados ou diminui daqueles negativamente correlacionados. É verdadeira (V). O método de correção de erros ajusta os pesos com base na diferença entre a saída desejada e a saída real, aumentando os pesos que contribuem positivamente para a saída correta e diminuindo os que contribuem negativamente. ( ) A função sigmoide é um tipo de função de transferência para RNA. É verdadeira (V). A função sigmoide é uma função de ativação comum em redes neurais, especialmente em redes neurais artificiais (RNA). ( ) A taxa de aprendizagem permite que uma pequena parcela do erro de classificação seja propagada de volta no perceptron. É verdadeira (V). A taxa de aprendizagem controla o quanto os pesos são ajustados em resposta ao erro, permitindo que o erro seja propagado de volta durante o treinamento. ( ) O problema do XOR só consegue ser classificado corretamente pelo algoritmo perceptron se criarmos uma camada oculta. É verdadeira (V). O perceptron simples não pode resolver o problema do XOR, que é um problema não linear, a menos que uma camada oculta seja adicionada. Agora, vamos compor a sequência: 1. V 2. V 3. V 4. V 5. V Portanto, a sequência correta é: A) V - V - V - V - V.