Logo Passei Direto
Buscar
O que é e para que serve o robots.txt ? Grupo de escolhas da pergunta Um conjunto de regras; Define a estrutura do documento HTML em que as informações estão. Um tipo de robô ou coletor automático; Faz download do conteúdo de websites Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define Define as permissões do coletor automático em um determinado website. Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define a estrutura do documento HTML em que as informações estão.
User badge image
Douglas Rodrigues

ontem

Respostas

User badge image

Ed Verified user icon

ontem

O arquivo robots.txt é um padrão de regras utilizado para gerenciar o acesso de robôs de busca (crawlers) a um site. Ele serve para informar quais partes do site podem ou não ser acessadas por esses robôs, ajudando a proteger informações sensíveis e a otimizar a indexação do site. Analisando as opções: 1. Um conjunto de regras; Define a estrutura do documento HTML em que as informações estão. - Incorreto, pois o robots.txt não define a estrutura do HTML. 2. Um tipo de robô ou coletor automático; Faz download do conteúdo de websites. - Incorreto, pois o robots.txt não é um robô, mas sim um arquivo que orienta os robôs. 3. Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define as permissões do coletor automático em um determinado website. - Correto, pois descreve exatamente o que é o robots.txt e sua função. 4. Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define a estrutura do documento HTML em que as informações estão. - Incorreto, pois novamente confunde a função do robots.txt com a estrutura HTML. Portanto, a alternativa correta é: Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define as permissões do coletor automático em um determinado website.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina