Buscar

15 SEO-Search-Engine-Optimization

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 46 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 46 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 46 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1 
 
SUMÁRIO 
1 INTRODUÇÃO ................................................................................... 2 
2 COMUNICAÇÃO E INTERNET ......................................................... 5 
3 INÍCIO DOS SISTEMAS DE BUSCA ................................................. 9 
4 FUNCIONAMENTO DAS SEARCH ENGINES ................................ 11 
4.1 O relacionamento entre profissionais de SEO e as máquinas de 
busca 13 
4.2 Classificações em SEO ............................................................. 15 
4.3 Fatores de análise On-Page ...................................................... 19 
4.4 As vantagens de SEARCH ENGINE OPTIMIZATION ............... 24 
4.5 Boas práticas em SEO .............................................................. 25 
5 SISTEMAS DE BUSCA ORGÂNICA ............................................... 27 
5.1 Ferramentas para apoiar a otimização de mecanismos de 
pesquisa 31 
5.2 Usabilidade e Acessibilidade ..................................................... 32 
5.3 Velocidade de carregamento da página .................................... 33 
5.4 Atributos importantes para o SEO de um site ........................... 34 
6 FERRAMENTAS PARA ANÁLISE DE SEO ..................................... 34 
6.1 Análise da página ...................................................................... 35 
BIBLIOGRAFIA ...................................................................................... 44 
 
 
 
2 
 
1 INTRODUÇÃO 
 
Fonte: thenextweb.com 
O termo SEO (do inglês, Search Engine Optimization, Acrônimo SEO) 
também se refere a indústria de consultoria, que trabalha na otimização de 
projetos e websites de seus clientes. Alguns comentaristas, e também alguns 
profissionais de SEO, dividiram os métodos usados por seus praticantes em 
categorias como os "SEO de White Hat" (geralmente utilizam métodos 
aprovados pelos sistemas de busca, como a prática de construção de conteúdo 
relevante e melhoria da qualidade do site), ou "SEO de Black Hat" (utilizam 
truques como "cloaking", que é a camuflagem do conteúdo real da página, e 
spamdexing). O termo "spamdexing" (originado da fusão de spam e indexing) 
refere-se a pratica de Spam direcionada aos motores de busca.1 
A Internet já se estabeleceu como a maior fonte e distribuidora de 
informação da história, mudando completamente o modo das pessoas 
interagirem e se comunicarem. Com o seu espantoso crescimento, aumentou-
se também a dificuldade de se organizar toda a sua informação de modo que ela 
estivesse sempre disponível para quem quisesse, quando quisesse. A 
dificuldade passou a ser, portanto, não mais a armazenagem e o acesso à 
informação, mas como organizá-la de modo a ser possível para qualquer um 
 
1 Texto extraído do link: http://www.otimizacaodesitesbh.com.br/blog/wp-
content/uploads/2018/04/apostila-seo-basica.pdf 
 
3 
 
encontrar o que procura. Buscando fornecer como valor uma solução para o 
problema, surgiram as Search Engines, mecanismos de busca da Internet que 
facilitam e simplificam muito a procura por informações de modo que o usuário 
consiga acessar dados relevantes no meio de um mar de informações, 
organizando assim a web (GRAPPONE; COUZIN, 2006). 
Mecanismos de busca (Search Engines) são softwares que vasculham um 
índice ou base de dados e retornam combinações de resultados relevantes 
baseados nas informações digitadas em uma caixa de pesquisa (THUROW, 
2003). Já palavras-chave são termos descritivos pelos quais um os 
administradores de um website querem ser encontrados nas buscas das search 
engines (GRAPPONE; COUZIN, 2006). Atualmente, as search engines atuam 
como intermediárias na navegação de sites pela web, unindo interessados a 
interesses. Seja qual for a necessidade de um consumidor, ele pode obter as 
informações sobre o que deseja através de uma rápida busca online, sendo a 
principal maneira de usuários descobrir novos sites (THUROW, 2003). 
Os algoritmos de busca atualmente estão tão avançados que é mais fácil 
colocar o nome de um site no Google do que escrever o endereço completo na 
barra de endereços do navegador. Além disso, caso se escreva a informação 
errada, os maiores buscadores possuem corretores ou já informam buscas de 
assuntos similares. Eles fornecem dados de shows, curiosidades, notícias, 
produtos e buscas relacionadas, localização de negócios na região, e várias 
outras informações para os usuários da Internet. 
Por todas estas razões, recentemente é bastante comum que as pessoas 
procurarem através da Internet por informações de produtos e serviços que 
desejam ou necessitam. Assim, juntando-se o fato das search engines atuarem 
como intermediárias nesse processo com o poder da web de acessar uma 
quantidade extremamente alta de consumidores quando comparada com seu 
custo operacional, saber lidar bem com as search engines é fundamental para 
um uso efetivo da Internet com o objetivo de se aprimorar os seus resultados de 
um empreendimento (THUROW, 2003). 
É no sentido de melhorar a visibilidade em sites de busca que entram as 
técnicas de SEO – Search Engine Optimization. SEO pode ser definido como 
“uma grande variedade de tarefas que buscam melhorar a posição e a qualidade 
de listagem de um website entre os resultados pagos e não-pagos de search 
 
4 
 
engines, com o objetivo final de aumentar o tráfego para o website e conseguir 
mais conversões. ” (GRAPPONE; COUZIN, 2006). Por sua vez, uma conversão 
é uma ação feita por um visitante de um website que realiza o objetivo do seu 
idealizador (GRAPPONE; COUZIN, 2006), como compra de um produto, clique 
em um anúncio, etc. SEO é frequentemente sobre pequenas modificações a 
serem feitas ao website. 
Uma característica do SEO é que não importa o tamanho da empresa, 
mesmo ela sendo pequena, com uma boa gestão ela pode competir até mesmo 
com gigantes multinacionais (GRAPPONE; COUZIN, 2006). Além disso, SEO é 
especialmente efetivo para empresas que atendem a um nicho específico para 
um público-alvo mais exclusivo (FOX, 2010). É interessante ressaltar que os 
objetivos de um plano de SEO devem ser a primeira coisa a serem definidos. A 
definição como objetivo simplesmente colocar o website em primeiro lugar no 
Google é um equívoco pois isso não adiantará nada se trouxer as pessoas 
erradas ou levar a conteúdo ruim (GRAPPONE; COUZIN, 2006; FOX, 2010). 
Para se decidir qual o foco dos esforços e um entendimento melhor do 
mercado dos buscadores, vale verificar como ele está distribuído. A situação 
atual do mercado das search engines está no descrita no quadro a seguir: 
 
 
Fonte: netmarketshare.com 
 
Pelo quadro anterior, é visível também a grande predominância do Google 
no mercado. Devido ao fato de ser a mais importante ferramenta de busca na 
atualidade a maioria dos guias de SEO focam no Google para o uso de suas 
técnicas, e o modelo proposto não será diferente. Mas as boas práticas a serem 
apresentadas valem como esforço para melhorar o ranking em outros websites. 
 
5 
 
O Google ainda possui diversas ferramentas grátis, cada uma com uma 
finalidade diferente, que auxiliam quem quer melhorar sua presença na internet 
e são inclusive utilizadas no modelo descrito. 
Algumas delas são: 
 Google para Webmasters Tools: Fornece dados relativos ao site, 
realiza diagnósticos, possui diversos tutoriais, fóruns de ajuda e 
fornece acesso a mudanças feitas no algoritmo de procura do 
Google (FOX, 2010). 
 Google Adsense/Trends: mostra dados, estatísticas, relativos a 
palavras-chave (FOX, 2010). 
 Google AdWords: ferramenta para gestão de anúncios no Google 
(GRAPPONE; COUZIN, 2006).2 
2 COMUNICAÇÃO E INTERNET 
 
Fonte: fluxoconsultoria.poli.ufrj.br 
 
2 Texto extraído do link: http://pro.poli.usp.br/wp-content/uploads/2013/10/TF-Luis-
Henrique-Linhares-Proposta-de-Modelo-para-Planejamento-e-Gest%C3%A3o-de-Marketing-Online-para-Pequenos-Neg%C3%B3cios-1.pdf 
 
6 
 
Durante o auge da Guerra Fria entre Estados Unidos e União Soviética, o 
Departamento de Defesa norte-americano almejava alcançar a liderança militar 
na área de Ciências e Tecnologia, então elaborou um projeto de uma rede que 
permitisse a conexão de computadores em longas distâncias para troca de 
informações. Essa rede foi lançada em 1969 com o nome de “Arpanet” e em 
1973, foi realizada a primeira conexão internacional da Arpanet, ligando o 
College University de Londres ao Royal Radar Establishment, na Noruega. Em 
1982, a Arpanet incorporou um protocolo de comunicação chamado 
Transmission Control Protocol/Internet Protocol, conhecido como TCP/IP. A 
partir desse momento, esse protocolo de comunicação passou a ser usado como 
padrão, fornecendo a possibilidade de conexão com outras redes que adotavam 
o mesmo protocolo. Desse ponto, surge o termo “internet”, que vem do inglês 
interconnected network, e significa rede interconectada. Hoje, a internet é uma 
rede mundial pública que interliga computadores no mundo inteiro. Em 1989, 
foi criado o WWW (World Wide Web) e também o padrão para representação de 
hipertexto e multimídia, conhecido como Hypertext Markup Language, ou HTML, 
possibilitando assim o uso dos chamados links, que levam o usuário para outras 
páginas ou documentos em rede. Essas inovações contribuíram para que 
informação pudesse circular com mais velocidade e intensidade ao permitir que 
a visualização de documentos fosse através de navegadores. (OGDEN, 
CRESCITELLI 2007). O ponto marcante da primeira fase da internet, também 
conhecida como Web 1.0, foi a quantidade de informação disponibilizada ao 
público. Nela surgiu o e-commerce, possibilitando aumento de lucros das 
empresas que estavam presentes na rede. Porém, com a maioria de serviços 
pagos, essa ferramenta ainda representava um alto custo para investimento. 
Apesar desse grande avanço, a comunicação pela internet ainda estava em sua 
fase restrita, centralizada e estática. A maior parte do conteúdo que era 
desenvolvido e publicado vinha ainda das grandes corporações e quase não 
havia interatividade com e entre os usuários de forma geral. 
A Web 1.0 era bastante onerosa para os seus utilizadores; a grande 
maioria dos serviços era pago e controlado através de licenças, os 
sistemas eram restritos a quem detinha poder de compra para custear 
as transações on-line e adquirir o software para criação e manutenção 
de sites. A Web 1.0 trouxe grandes avanços no que diz respeito ao 
acesso à informação e ao conhecimento, porém a filosofia que estava 
por detrás do conceito de rede global foi sempre a de um espaço aberto 
 
7 
 
a todos, ou seja, sem um “dono” ou indivíduo que controlasse o acesso 
ou o conteúdo publicado. Houve sempre preocupação por tornar este 
meio cada vez mais democrático, e a evolução tecnológica permitiu o 
aumento do acesso de utilizadores possível pela largura de banda das 
conexões, pela possibilidade de se publicarem informações na Web, 
de forma fácil, rápida e independente de software específico, 
linguagem de programação ou custos adicionais. (COUTINHO, 
BOTTENTUIT JUNIOR, 2007, p.1) 
Ao longo do tempo, a internet foi se desenvolvendo e evoluindo cada vez 
mais. Seu estágio atual, segundo especialistas, está na chamada web 2.0, ponto 
em que as características da web 1.0 são aliadas a novas características e 
inovações, fazendo a usabilidade do usuário na rede se expandir, bem como o 
uso de novas ferramentas, ditando cada vez mais maior interação e participação 
entre as pessoas. 
O termo web 2.0 foi criado em outubro de 2004 por Tim O’Reilly, da 
O’Reilly Media, para ser utilizado em uma série de palestras sobre o 
novo modelo de negócios na internet após a bolha da NASDAQ, ou 
seja, era uma marca comercial usada para fins de marketing. Mas o 
termo se popularizou rapidamente e começou a ser utilizado em 
diversos textos para descrever o que estava acontecendo na internet 
com o crescimento das mídias e redes sociais e os sites colaborativos. 
(TORRES, 2009, p. 349) 
No contexto da Web 2.0, a maior parte dos sistemas e serviços são 
gratuitos, facilitando e ampliando o acesso. Além disso, ela permite a criação de 
comunidades entre os usuários pois além de acessá-la, podem compartilhar e 
reunir informações em diversos sites de relacionamento ou mídias sociais, 
atraindo assim pessoas que têm interesses específicos. A participação e 
colaboração em diversos processos entre usuários são uma das principais 
características da web 2.0. A integração possibilitada é dada através da 
comunicação feita por diversos recursos - textos, vídeos, áudios e imagens, por 
exemplo. Com isso, novas ferramentas permitem intensa interatividade 
caracterizando o ambiente hipermidiático como um espaço ou rede de pessoas 
que se conectam o tempo inteiro. 
Novas tecnologias e aplicações, como os blogs, as ferramentas de 
busca, os fóruns, as redes sociais e tantas outras aplicações online 
foram utilizadas pelos internautas para, literalmente, assumir o 
controle, a produção e o consumo de informação, atividades antes 
restritas aos grandes portais e empresas. (TORRES, 2009, p. 24) 
 
8 
 
Torres (2009) defende que a Internet quebrou barreiras: “não há mais 
separação entre produtor e consumidor. Não há mais exclusividade de produção 
nem na mídia nem no software.” (TORRES, 2009, p. 25). Entre outros benefícios 
que a Internet oferece, Torres e Cozer (2000) destacam a capacidade de 
segmentação que essa mídia possui. 
Outra característica que a torna única é o controle eletrônico do tráfego. 
Na internet é possível saber, com precisão quantos visitantes um 
determinado site possui, de onde eles vieram, para onde foram, de qual 
região estão vindo, quanto tempo ficaram visitando o site, quais 
páginas visitaram e muito mais. Dessa forma, a internet como mídia é 
mais promissora do que qualquer outra mídia existente no mundo 
(TORRES, COZER, 2000, p. 13). 
O advento da web 2.0 e suas novas características permitiu ao receptor 
papel ativo na comunicação. Ele agora pode interagir com as empresas, 
aumentando o nível de envolvimento, exigência e controle do mesmo sobre o 
processo de compra. 
O ciberespaço prenuncia uma era em que o processo de compra e 
venda torna-se mais automatizado e conveniente. As empresas 
conectam-se entre si e com os clientes em uma rede virtual 
homogênea. A informação na Internet flui pelo planeta em um instante 
e sem custo. [...] O tempo e a distância, que representaram grandes 
custos e barreiras comerciais no passado, encolhem imensamente, os 
comerciantes que continuarem a vender nas formas antigas 
lentamente desaparecerão de cena. Kotler (2000, p. 257) 
Ricardo Cavallini (2008) em O Marketing depois de amanhã discute todas 
as transformações tecnológicas que culminaram em mudanças de 
comportamento no mundo que consequentemente influenciaram o mercado e a 
forma de entende-lo, principalmente pelo fato de terem surgidos novas mídias 
com também novas funcionalidades. 
Cavallini (2008) discute essas modificações causadas principalmente pela 
web, é nela que o consumidor vai buscar informações e disponibilizá-las 
também. Por isso, a comunicação em mundo digital é essencial para que as 
marcas possam atingir seu público satisfatoriamente. “O consumidor ganha mais 
poder, exige uma mudança na proposta de valor das empresas e, 
consequentemente, nos seus esforços de marketing” (CAVALLINI, 2008, p. 25). 
 
9 
 
Diante desse contexto, dos benefícios em comunicação mencionados, é 
fundamental para as empresas pensarem em um planejamento de marketing 
digital, que tem em vista objetivos, táticas e meios de avaliação de resultados. 3 
3 INÍCIO DOS SISTEMAS DE BUSCA 
 
Fonte: fiscooggi.it 
 
Webmasters e responsáveis dos portais de conteúdo começaram a 
otimizar seus sites para os sistemas de busca em meados de -1990s, porque os 
primeirosmotores de busca estavam iniciando a indexação do conteúdo na 
World Wide Web. No início, os webmasters precisavam enviar o endereço do 
site aos vários sistemas de busca existentes na Rede, para que programas como 
spiders, pudessem "mapear" o site e armazenar as informações coletadas. O 
padrão e suporte das Máquinas de Busca era mapear uma página da web inteira 
e selecionar as chamadas palavras relacionadas na busca; então uma página 
com muitas palavras diferentes ampliavam a combinação de resultados, e uma 
página da web contendo uma relação de palavras como um dicionário teria como 
resultado um grande número de combinações, consequentemente limitando os 
resultados somente a nomes únicos. Os sistemas de busca então classificavam 
a informação por tópicos, muitas vezes exibindo como resultado das buscas 
páginas já expiradas, não existentes ou de conteúdo diferente ao que estava 
armazenado. Como o número crescente de documentos online, e vários 
 
3 Texto extraído do link: http://www.ufjf.br/facom/files/2014/03/Marketing-na-Era-
Digital.pdf 
 
10 
 
webmasters trabalhando para aumentar o valor nos resultados em busca 
orgânica, os sistemas de buscas mais populares começaram a classificar as 
páginas de resultados mais relevantes em primeiro. Este era o início de um atrito 
entre Sistemas de Busca e webmasters que continua até hoje. 
Os primeiros motores de busca eram orientados pelos próprios 
webmasters. Na ocasião, as versões existentes dos algoritmos utilizados nos 
sistemas de busca confiaram aos webmasters e provedores de conteúdo a 
responsabilidade no fornecimento das informações na forma de Categorias e o 
uso das Meta-Tag para palavras-chave meta tags ou sistemas de busca que 
usavam arquivos de índice como ALIWEB, fornecendo assim um guia para o 
índice de cada página. Quando alguns webmasters começaram a abusar no uso 
das Meta-Tags, fazendo com que as informações de Meta-Tags das páginas não 
correspondessem ao conteúdo, os motores de busca abandonaram esta forma 
de obter informações através de Meta-Tags e desenvolveram um sistema de 
ranking mais complexo utilizando algoritmos, elevando a filtragem das palavras 
e elevando o número limitado para palavras (anti dicionário) e são mais diversas, 
incluindo: 
 Texto dentro do Tag de título 
 Nome de Domínio 
 URL (de Universal Resource Locator): em português significa 
(Localizador Uniforme de Recursos) diretórios e nomes de arquivos 
 HTML element|HTML tags: cabeçalhos, negrito e textos com 
ênfase 
 Keyword density: Densidade das palavras 
 Proximidade das Palavras-Chave 
 Alt attributes: Atributo em texto alternativo para imagens 
 Textos dentro da Tag NOFRAMES 
 
Pringle, em al. (Pringle et al., 1998), também definiu um número de 
atributos dentro da codificação HTML de uma página que frequentemente eram 
manipulados por provedores de conteúdo na Internet tentando melhorar a 
própria classificação em motores de busca. Devido a fatores que estão 
praticamente sob o controle exclusivo dos responsáveis por um site, os motores 
 
11 
 
de busca continuaram a sofrer abusos e tentativas de classificações 
manipuladas. Para fornecer melhores resultados a seus usuários, os sistemas 
de busca tiveram que se adaptar e assegurar que as páginas de resultados 
mostrem sempre os resultados mais relevantes durante uma procura, ao invés 
de páginas inúteis cheias de palavras-chave e termos criados 
inescrupulosamente por webmasters na tentativa de usá-las como iscas para 
exibirem webpages sem link ou conteúdo. Estes fatos levaram ao nascimento de 
um novo tipo de motor de busca.4 
4 FUNCIONAMENTO DAS SEARCH ENGINES 
 
Fonte: dumblittleman.com 
 
Os mecanismos de busca usam softwares especiais (software robots), 
chamados de spiders (aranhas) ou crawlers (rastreadores), que vasculham a 
web para buscar informações (THUROW, 2003). Eles começam em uma página 
e continuam anexando a web através de links que vão levando a outras páginas. 
De acordo com Thurow (2003), os mecanismos de busca realizam basicamente 
três tarefas, ilustradas na Figura - Funcionamento de um Mecanismo de Busca 
a seguir: 
 
4 Texto extraído do link: http://www.otimizacaodesitesbh.com.br/blog/wp-
content/uploads/2018/04/apostila-seo-basica.pdf 
 
12 
 
 
Fonte: pro.poli.usp.br 
 
1. Os spiders encontram sites e páginas na web e criam listas de 
palavras e frases encontradas em cada página. 
2. As search engines criam um índice da web com as palavras e 
frases encontradas em cada página visitada. 
3. Ao receber um pedido de pesquisa, o mecanismo de busca utiliza 
as palavras chave utilizadas e através de algoritmos de busca 
procura em seus índices os resultados mais relevantes e os mostra 
ao usuário. 
 
Portanto, ao se fazer uma busca no Google, por exemplo, ele não realiza 
a procura na Internet em si, mas em suas próprias bases de dados que contêm 
uma grande porção da informação contida na Internet. Muitas técnicas SEO 
envolvem facilitar a leitura do site por esses softwares e controlar as informações 
lidas, de modo a melhorar o posicionamento nos sites de busca. Outras levam 
 
13 
 
em conta como funcionam os algoritmos dos sites de busca que definem a 
relevância das páginas. De acordo com Grappone e Couzin (2006), o algoritmo 
do Google destaca os seguintes fatores: 
Relevância das palavras-chave: número de vezes que aparece em textos, 
localização (título, subtítulo, descrição da página, URL,...), proximidade entre as 
palavras chave do termo buscado, etc.; 
 O texto/conteúdo do site; 
 Idade do domínio; 
 Page Rank: desenvolvido pelos fundadores do Google, é uma nota 
atribuída a um site, baseado no número de links que direcionam a 
ele e no ranking dos sites que fornecem esses links, entre outras 
características (THUROW, 2003). 
Existem outros fatores além desses, mas eles mudam constantemente 
conforme novas atualizações são feitas, mas os que foram mencionados são 
mais relevantes e constantes nos algoritmos. Os algoritmos de outros 
buscadores relevam fatores similares. Ultimamente, contudo, os algoritmos 
estão tão avançados que o atualmente o que mais importa acaba sendo o 
comportamento e satisfação dos usuários em si e, portanto, antes de se prender 
a estes fatores, deve-se ter em mente quais são os benefícios propostos ao 
cliente. O SEO deve estar coordenado com os esforços de Marketing do resto 
da empresa, e mesmo com as características gerais de gestão e administração 
(FOX, 2010).5 
4.1 O relacionamento entre profissionais de SEO e as máquinas de busca 
Não se encontram menções de Otimização para sistemas de busca na 
Usenet antes de 1997, alguns anos após a introdução dos primeiros mecanismos 
de busca. Os operadores de mecanismos de busca rapidamente reconheceram 
alguns webmasters estavam realizando esforços visando melhor classificação 
no ranking dos mecanismos de busca, chegando a se utilizar de técnicas de 
manipulação. Nos primeiros mecanismos de busca, como o Infoseek, a primeira 
 
5 Texto extraído do link: http://pro.poli.usp.br/wp-content/uploads/2013/10/TF-Luis-
Henrique-Linhares-Proposta-de-Modelo-para-Planejamento-e-Gest%C3%A3o-de-Marketing-
Online-para-Pequenos-Neg%C3%B3cios-1.pdf 
 
14 
 
posição do ranking era obtida sem muita dificuldade, assim como era pegar o 
código-fonte da página mais bem colocada, colocar na própria página e enviar o 
endereço para instantaneamente indexar e classificar a página. 
Os principais motores de busca disponibilizam guias e informações para 
ajudar o webmaster com a indexação e otimização do seu site: Google, Yahoo, 
e MSN. 
A Google tem o Ferramentas do Google para webmasters, que ajuda a 
descobrir se existe algum problema de indexação do site do webmaster dentro 
da máquina de busca e aindadisponibiliza inúmeros dados sobre o tráfego no 
Google para o seu site. 
O Yahoo! tem o Site Explorer (em inglês), que permite enviar sua URL 
gratuitamente (como também o MSN e o Google), explorar todas as páginas 
indexadas pelo Yahoo!, ver quais são as mais populares e disponibiliza um mapa 
detalhado de um site, suas páginas e links. 
Estes sites de busca também permitem a criação de "adWords", que são 
anúncios de um site ou negócio na internet, que aparecem no resultado da busca 
de alguém que procura qualquer coisa relacionada com aquele produto/serviço. 
Uma forma que muitas empresas estão usando para fazer a divulgação e 
marketing na Internet. O Yahoo! tem o Search Marketing(em inglês) e a Google 
tem o Google Advertising Professionals.6 
 
 
 
 
6 Texto extraído do link: 
http://www.otimizacaodesitesbh.com.br/blog/wp-content/uploads/2018/04/apostila-seo-
basica.pdf 
 
15 
 
4.2 Classificações em SEO 
 
Fonte: hostpapa.ca 
 
É muito importante que o site não se utilize de malícia para tentar 
aumentar o seu ranking, pois isso pode acabar por bani-lo dos resultados de 
pesquisa. No campo do SEO existem inclusive os seguintes termos: 
 White Hat SEO: Metodologia que utiliza somente técnicas que 
ficam dentro das diretrizes das search engines para os donos, 
administradores ou desenvolvedores de um site (GRAPPONE; 
COUZIN, 2006). 
 Black Hat SEO: Metodologia que utiliza técnicas que não estão de 
acordo com as diretrizes das search engines para webmasters 
(GRAPPONE; COUZIN, 2006). São técnicas que só visam 
melhorar o posicionamento do site por meios que não agregam 
valor ao cliente. Um exemplo dessa metodologia é a utilização de 
diversas palavras e textos em áreas escondidas no site ou em 
cores que se misturam ao fundo, de modo que os visitantes não 
percebem, mas as quais os botsdas search engines leem, cuja 
única função é a aumentar o número de palavras chave no site e, 
portanto, a sua relevância. 
 
16 
 
Sites que incluem técnicas de Black Hat caso sejam pegos pelas search 
engines, o que não é incomum devido à qualidade de seus algoritmos e sua 
constante atualização, são banidos dos seus resultados. Estas técnicas não são 
usadas neste trabalho. Basicamente, o método correto de melhorar sua posição 
é através de uma entrega de algum valor ao visitante do seu site e de um bom 
design (FOX, 2010). 
Dentro de um resultado de busca, ainda se tem diferentes elementos, 
como o título que serve de link para a página de destino e o endereço do website. 
Os Snippets são os textos que aparecem em baixo de cada um dos resultados 
de uma pesquisa que servem como descrição para cada pesquisa. 
 
 
Fonte: pro.poli.usp.br 
 
Outra classificação importante é a entre os tipos de resultados fornecidos: 
 Resultados orgânicos: são os resultados não pagos relevantes 
fornecidos pelos algoritmos das search engines de acordo com as 
palavras-chave fornecidas pelo usuário (GRAPPONE; COUZIN, 
2006). 
 Resultados pagos: são anúncios pagos disponibilizados na lista de 
resultados de um mecanismo de busca que são relacionados, 
também por um algoritmo, com as palavras-chave digitadas pelo 
usuário. O tipo mais comum é o PPC, Pay-perClick, em que cada 
vez que o anúncio publicado é clicado por um usuário, o anunciante 
paga uma determinada taxa (GRAPPONE; COUZIN, 2006). 
 
17 
 
 
Fonte: pro.poli.usp.br 
 
De modo a se garantir que o site seja de uso confortável pelo usuário e 
devido à importância do assunto quando se desenvolve um website, diversos 
especialistas em web design desenvolveram algumas regras básicas que devem 
ser seguidas e servem de base para a definição de alguns parâmetros utilizados 
no modelo. Um quadro com estas regras é fornecido a seguir: 
 
 
Fonte: pro.poli.usp.br 
 
O URL, sigla em inglês para Uniform Resource Locator, é uma sequência 
de caracteres que funciona como um endereço que corresponde à localização 
de um arquivo na Internet (THUROW, 2003). O URL não designa somente 
páginas na internet, mas todo documento que está online, como arquivos ou 
 
18 
 
imagens. O texto presente em URLs é usado no algoritmo de mecanismos de 
busca como forma de mostrar resultados relevantes e um URL simples facilita o 
entendimento do usuário e por isso tem sua importância no SEO de um site. 
Como mencionado anteriormente, o SEO se baseia muito em texto pois 
as search engines o usam para a aplicação de seus algoritmos e decidir quais 
os resultados de uma busca. Assim, no caso de vídeos e imagens são 
necessárias outras formas de aviso para os buscadores sobre o que é o 
conteúdo sendo mostrado. É para isso que existem os marcadores, que 
informam aos buscadores as mais variadas informações sobre um produto, mas 
que não ficam necessariamente visíveis aos usuários. Contudo, os buscadores 
podem usar essas informações para fornecer resultados mais relevantes. Por 
exemplo, para um vídeo esses marcadores podem descrever a duração, a data 
de filmagem, o diretor, os autores, mesmo se essas informações não estiverem 
em forma de texto no site. Um site que fornece informações mais específicas 
sobre esta linguagem, além dos diferentes tipos de informações que podem ser 
adicionadas deste modo é o http://schema.org/. Este tipo de linguagem é 
compreendido pelos maiores buscadores (Google, Yahoo!, Bing). 
Convém ainda explicar dois conceitos bastante proeminentes em SEO. O 
primeiro é o de “no follow”. Quando não se quer que as search engines sigam 
algum link dentro de uma página por algum motivo, (ex. conteúdo não confiável, 
páginas de logins, spams que aparecem em comentários, etc.), adiciona-se o 
código no follow no link. Por exemplo : nome do link O segundo é o robots.txt. 
Este arquivo descreve quais páginas dentro do website o administrador não quer 
que as search engines entrem e indexem o conteúdo. Podem ser páginas de 
logins, páginas que não devem ser tornadas públicas ou páginas usadas 
somente pelos administradores do site. Para isso, adiciona-se o arquivo 
chamado robots.txt à página raiz do domínio, geralmente a página principal de 
um site (ex.: http://www.site.com.br é a página raiz do domínio site.com.br). A 
esta página raiz adiciona-se o arquivo mencionado, com a lista dos domínios 
internos do site que a search engine não deve seguir. O arquivo fica então no 
URL: http://www.site.com.br/robots.txt. O texto do arquivo é uma lista do tipo: 
User-agent: * 
Disallow: /domínioquenãosequerseguir1/ 
Disallow: /domínioquenãosequerseguir2/ […] 
 
19 
 
Por fim, todas as práticas de SEO acabam convergindo para um fator de 
SEO que, conforme a evolução da tecnologia na área, acaba ficando cada vez 
mais importante. Trata-se da criação de conteúdo de qualidade, que atrai 
visitantes e os faz retornar. Se a experiência do usuário for boa, os resultados 
de SEO tendem a aumentar naturalmente.7 
4.3 Fatores de análise On-Page 
Muitos aspectos On-Page são relacionados ao uso de palavras-chave 
(JERKOVIC, 2010). 
 
Palavras Chave 
As palavras-chave são palavras pesquisadas pelas pessoas nos motores 
de busca com o objetivo de usá-las para achar respostas ou soluções para os 
problemas. Definir palavras-chave para uma página significa transmitir ao 
Googlebot que o seu conteúdo trata do assunto daquele termo específico. A 
etapa de pesquisa de mercado para definição de palavras-chave é de suma 
importância, já que é dessa forma que se descobre se há demanda e o tamanho 
da procura do conteúdo que o site quer divulgar (BATISTA, 2015). 
 
Tag title 
A tag de título title informa tanto os usuários como os mecanismos de 
busca qual o assunto de determinada página. A tag title é colocada dentro da tag 
head do HTML. É ideal criar um título único e conciso para cada página do site 
(GOOGLE, 2008). Mecanismos de buscas usam o conteúdo da tag title como 
títulos de resultados de buscas.Todas as páginas de um site devem fazer uso 
de importantes palavras-chave definidas para a página relacionada (JERKOVIC, 
2010). O tamanho recomendado de caracteres para o conteúdo de título seria 
entre 60 e 70, pois é a restrição dos títulos exibidos nos resultados de busca do 
Google. Mesmo passando de 70 caracteres, é importante que as palavras-chave 
 
7 Texto extraído do link: http://pro.poli.usp.br/wp-content/uploads/2013/10/TF-Luis-
Henrique-Linhares-Proposta-de-Modelo-para-Planejamento-e-Gest%C3%A3o-de-Marketing-
Online-para-Pequenos-Neg%C3%B3cios-1.pdf 
 
20 
 
e mais importantes da descrição do conteúdo estejam aparecendo primeiro 
(SCHULTZE, 2013). 
 
Tag meta de descrição 
A tag meta da descrição dá ao Google e outros mecanismos de busca um 
resumo do assunto da página. A meta tag de descrição pode ser uma ou duas 
frases, ou até mesmo um breve parágrafo. As tags meta de descrição são 
importantes porque talvez o Google utilize como descrição das páginas 
(conhecidos como “snippets”). Alternativamente, o Google pode utilizar um 
trecho relevante de texto visível da página, caso esta forma represente melhor a 
consulta do usuário. (GOOGLE, 2008). Os Snippets aparecem entre o título e a 
URL da página de um resultado de busca, como ilustrado na figura abaixo. 
 
Fonte: bsi.uniriotec.br 
Página 404 
 
Fonte: rafaelfelipesantos.com.br 
 
A página 404 é retornada quando uma página solicitada não é encontrada. 
Para isso, o servidor web retorna um código de status HTTP 404 para indicar a 
ausência da página. Isso ocorre em diversas situações, como quando o usuário 
clica em um link corrompido, ou quando acha uma página do site excluída ou a 
ou mesmo quando ele digita uma URL de forma errada. A página 404 padrão 
gerada pelo servidor não oferece informações simples, podendo fazer com que 
o usuário abandone o site. Para melhorar essa questão, é recomendável criar 
 
21 
 
uma página 404 personalizada que utilize uma linguagem compreensível ao 
usuário para informar do fato ocorrido. Além disso, a página 404 deve aproveitar 
a aparência do site, adicionando links orientando o usuário a voltar para a página 
inicial do site ou para outra página de destaque do site. Ao criar a página 404, o 
administrador do site deve certificar que ela retorna um código HTTP 404 para 
não ser indexada pelo Google e outras ferramentas de pesquisa (GOOGLE, 
2016e). 
 
Redirecionamento 301 
A configuração de redirecionamento 301 é utilizada quando duas ou mais 
URLs diferentes direcionam a uma mesma página de um site. O 
redirecionamento 301 consiste em um código de status HTTP 301 que indica 
que uma página foi permanentemente movida para um local específico. Com a 
sua utilização, é possível determinar uma única URL específica para os 
mecanismos de pesquisa indexarem e serem redirecionados para a página 
correta (GOOGLE, 2016f). 
 
URL amigável 
A URL amigável consiste em uma URL cuja leitura seja de fácil 
compreensão tanto para o usuário quanto para os buscadores (GOOGLE, 
2016d). Em termos de SEO, URLs muito complexas, especialmente os que 
contêm vários parâmetros podem causar problemas para os rastreadores de 
pesquisa (GOOGLE, 2008). Além disso, a URL também aparece nos resultados 
de busca de páginas, o que também é um fator que ajuda o usuário a decidir 
clicar no conteúdo apontado, facilitando a sua leitura. É recomendável utilizar 
categorias e nomes descritivos para a composição da URL, já que esse fator 
pode levar a um melhor rastreamento pelos mecanismos de pesquisa 
(GOOGLE, 2008). A figura abaixo mostra como a URL também é exibida nos 
resultados de pesquisa. 
 
22 
 
 
Fonte: bsi.uniriotec.br 
 
 
 
Arquivos com informações para buscadores 
Há dois arquivos utilizados na estrutura do site que ajudam o Google a 
descobrir e indexar as páginas do site: robots.txt e sitemap. O robots.txt é um 
arquivo localizado na raiz do site com a função de indicar as páginas do site que 
não devem ser acessadas por indexadores de mecanismos de pesquisa. O 
arquivo utiliza o Protocolo de Exclusão de robôs padrão, que são um pequeno 
conjunto de comandos que são usados para indicar o acesso ao site por seção 
e tipos específicos de rastreadores web (GOOGLE, 2016g). Um sitemap é um 
arquivo que lista as páginas do site para informar ao Google e outros 
mecanismos de pesquisa sobre a organização do conteúdo do site. O Googlebot 
lê esse arquivo para rastrear o site de maneira mais inteligente. O sitemap 
também pode fornecer metadados associados às páginas da web, como quando 
ela foi atualizada, com qual frequência é alterada e a importância dela em relação 
aos outros URLs do site. O Google oferece suporte a vários formatos de sitemap, 
como XML, RSS e TXT (GOOGLE, 2016h).8 
 
 
 
 
 
8 Texto extraído do link: http://bsi.uniriotec.br/tcc/textos/201606Ferreira.pdf 
 
23 
 
Conteúdo duplicado 
O Google não gosta de conteúdo duplicado, portanto, muito cuidado com 
páginas parecidas dentro do mesmo site. Copiar textos de outros sites também 
pode ser um erro. 
 
Tecnologia em Flash 
Para o SEO, a tecnologia Flash é abominável. Para quem não sabe, flash 
é a tecnologia utilizada para aqueles efeitos de objetos em movimento, 
animações, etc. Áreas desenvolvidas em flash não possuem conteúdo, apenas 
um arquivo que não será lido pelos robôs. Existem, inclusive, sites totalmente 
desenvolvidos em flash. Trata-se de um grande erro para o SEO e usabilidade 
em geral. 
 
Utilizar Palavras-chave erradas 
Aquela velha impressão de que a keyword (palavra-chave) usada em 
excesso em meu site é exatamente aquilo que as pessoas buscam no Google 
pode ser um engano. Este tipo de engano costuma ocorrer em sites que fazem 
o SEO dos achismos, focando em termos sem procura. Utilizar bem as palavras 
será fundamental para o sucesso de um site. 
 
Black Hat 
Este é o termo usado para as técnicas fraudulentas de SEO. Muitos sites 
acabam utilizando meios errados para atrair mais visitas em seus sites, e com 
isso ganham punições do Google. Existem profissionais que acabam vendendo 
este tipo de serviço, prometendo aos seus clientes um crescimento bastante 
rápido nos resultados. A dica é: cuidado com milagres. O trabalho de SEO se 
desenvolve a médio e longo prazo, e ao usar blackhat o Google pode até punir 
seu site retirando-o dos resultados de busca.9 
 
 
9 Texto extraído do link: 
http://www.rafaelfelipesantos.com.br/wp-content/uploads/2015/07/ebook-8-introducao-
a-seo.pdf 
 
24 
 
4.4 As vantagens de SEARCH ENGINE OPTIMIZATION 
Segundo Marcel (2008), a maioria das navegações web iniciam a partir de 
um mecanismo de pesquisa. Se um site, jornal ou blog não estiver bem 
posicionado na pesquisa, dificilmente será encontrado. 
Pesquisas de Eye-Tracking demonstram que os usuários tendem a focar 
a sua atenção apenas nos primeiros resultados da Search Engine Results Page. 
Com base nestes estudos, é possível afirmar que a quantidade de olhares para 
as três primeiras posições da busca orgânica é muito maior do que as outras 
posições e os primeiros resultados possuem elevada taxa de cliques. 
Ledford (2009) explica que a maioria dos internautas, ao realizar uma 
busca, inicia a leitura através dos títulos e descrições dos resultados principais. 
Segundo o autor, as páginas listadas na primeira relação de resultados do 
buscador detêm a maioria do tráfego de visitantes, e esse tráfego se traduz em 
receita. 
O autor explica que, além da vantagem de posicionamento nos 
resultados, também devemos estar atentos à questão da credibilidade. Os 
primeiros resultados na busca orgânica desfrutam de maior credibilidade para o 
usuário, por terem sido trazidos naturalmente pelo mecanismo de busca, e não 
através de campanhas pagas. 
Os jornais e portaisonline devem estar atentos a essa vantagem, visto 
que para notícias, a credibilidade é um dos fatores mais importantes. Se ao 
realizarmos uma busca simples e um jornal que não é de nosso conhecimento 
até o momento estiver entre os primeiros resultados, iremos ler o seu nome como 
ação mínima. Na segunda vez que ele aparecer, vamos ler mais uma vez o seu 
nome. Na terceira vez, já vamos achar que essa fonte é relevante, pois o 
buscador nos traz com frequência o seu resultado. 
Deve-se ter em conta que existe certo preconceito quanto à SEO, vista 
como algo difícil e inaplicável. Lembremos que SEO não envolve apenas 
técnicas de programação e grande parte do sucesso de um resultado num 
mecanismo de pesquisa está atrelado a um bom conteúdo, boas descrições e 
 
25 
 
títulos relevantes. Por este motivo os jornalistas devem estar atentos a estas 
técnicas e utilizá-las em seu dia-a-dia nas redações online.10 
4.5 Boas práticas em SEO 
As práticas em SEO podem ser divididas em duas partes, os fatores 
internos relacionados ao próprio Website, com a utilização de títulos na URL, 
construção de Websites padronizados, correta utilização das tags nas 
linguagens de marcação e a indexação de palavras-chave que representarão o 
conteúdo nos mecanismos de busca. Já no fator externo, é analisado como os 
outros Websites se relacionam com o Website, a quantidade de links apontando 
para o mesmo, a quantidade de acessos ocorridos, entre outros. Porém, faz-se 
necessário ao profissional que trabalha com SEO, analisar as reais 
necessidades do Website de seu cliente, pensando não só nas técnicas, mas em 
todo o contexto que envolve o negócio abordado, conversando com o cliente no 
intuito de conhecer o público alvo e entender bem os objetivos do seu negócio, 
para então definir a estratégia de otimização. A aplicação do conjunto destas 
técnicas e procedimentos podem ser utilizadas tanto no início de 
desenvolvimento de um projeto, quanto a um Website que já se encontra 
disponível na Internet, e que não está obtendo o resultado esperado pelo cliente. 
 A análise detalhada de problemas estruturais e potenciais melhorias de 
conteúdo podem ser entregues em forma de relatório que irá documentar as 
soluções de otimização, segundo Formaggio (2010). Cabe, também, o 
monitoramento dos Websites nos mecanismos de busca, visando manter a 
performance da otimização aplicada, devido ao constante rastreamento que os 
motores de busca desempenham para fins de indexação dos Websites em seus 
bancos de dados, podendo neste procedimento ocorrer algumas variações 
quanto ao seu posicionamento. Deve-se ressaltar que os resultados de SEO 
podem demorar algum tempo para se obter retorno, devido aos diversos 
procedimentos que envolvem o processo de otimização. 
No Brasil, os estudos referentes a SEO estão em processo de evolução e 
no cenário atual algumas empresas do ramo de publicidade e propaganda estão 
 
10 Texto extraído do link: 
http://seonojornalismo.com.br/libraries/down/Cartilha_SEO_no_Jornalismo.pdf 
 
26 
 
se destacando na aplicação e difusão deste conceito. Na figura abaixo, são 
apresentadas as fases de estruturação do SEO.11 
 
 
Fonte: dialnet.unirioja.es/descarga/articulo/3754156.pdf 
 
11 Texto extraído do link: https://dialnet.unirioja.es/descarga/articulo/5025783.pdf 
 
27 
 
5 SISTEMAS DE BUSCA ORGÂNICA 
 
Fonte: pt.depositphotos.com 
 
Google foi iniciado por dois estudantes PhD da Universidade de Stanford, 
Sergey Brin e Larry Page, e trouxe um novo conceito para avaliar páginas da 
web. Este conceito, chamado PageRank™, foi importante para o início da 
criação dos algoritmos do Google. 
O PageRank™ trabalha principalmente com o fator link e usa a lógica 
deste sistema de ligação entre páginas como se tivesse o valor de um voto para 
a página em questão. O fato de uma página ser referenciada através de um link 
funciona de forma a validar a existência do site e dar um valor mais "digno" ao 
voto. O valor de cada link de referência varia diretamente baseado no PageRank 
da página que faz referência ao link e funciona de forma inversa no número de 
links de saídas de uma página. 
Com ajuda de PageRank™, o Google provou ser muito eficiente em 
oferecer resultados relevantes nas páginas de resultados e tornou-se o sistema 
de busca mais bem-sucedido e popular. 
Pelo motivo do sistema PageRank™ fazer a avaliação de websites 
através de fatores externos ou fora do controle de pessoas em particular, o 
Google sentiu que desta maneira poderia ser mais difícil de manipular a 
relevância de uma página. 
 
28 
 
No entanto, webmasters já tinham desenvolvido ferramentas para 
manipulação de links e esquemas para influenciar o sistema de busca Inktomi. 
Estes métodos provaram ser igualmente aplicáveis aos algoritmos do Google. 
Muitos sites focalizaram suas ações em trocar, comprar, e vender links numa 
escala imensa. A confiança do PageRank no sistema de link como um voto de 
confiança para um valor da página foi subvertido como muitos webmasters 
procuraram vender links simplesmente para influenciar o Google em enviar mais 
tráfego, independentemente dos links serem realmente útil as visitantes 
humanos do site. 
Para complicar a situação, o suporte-de-busca omitia o mapeamento de 
uma página web inteira para procurar as chamadas palavras-relacionadas nas 
páginas web, e uma página web contendo uma listagem do tipo dicionário ainda 
combinaria quase todas as buscas (exceto nomes especiais) alcançando um 
link-rank mais alto. Páginas de dicionários e links para esquemas podem 
distorcer severamente os resultados de uma página de resultados. 
Já era tempo para o Google -- e outros motores de procura -- olharem 
para algo mais distante sobre os fatores fora de controle humano. Havia outras 
razões para desenvolver algoritmos mais inteligentes. A Internet estava 
alcançando uma grande parcela de usuários não-técnicos, que geralmente não 
conheciam técnicas avançadas de pesquisa que os ajudassem a encontrar a 
informação que eles estavam buscando e além disso o volume e complexidade 
dos dados indexados tiveram um enorme crescimento em relação aos primórdios 
da Internet. 
Para classificar os sites, os mecanismos de busca levam em consideração 
os seguintes aspectos: 
 Idade do sítio (site) 
 Há quanto tempo o domínio está registrado 
 Idade do conteúdo 
 Freqüência do conteúdo: regularidade com a qual novo conteúdo é 
adicionado 
 Tamanho do texto: número de palavras acima de 200-250 (não 
afetava o Google em 2005) 
 Idade do link e reputação do sítio que o aponta 
 
29 
 
 Características padrão da página 
 Pontuação negativa sobre as características da página (por 
exemplo, redução para sítios web com utilização extensiva de 
meta-tags de palavra chave, indicativos de terem sido 
artificialmente otimizadas) 
 Originalidade do conteúdo 
 Termos relevantes utilizados no conteúdo (os termos que os 
buscadores associam como sendo relacionados ao tema principal 
da página) 
 Google Pagerank (usado apenas no algoritmo do Google) 
 Links externos, o texto contido neste links externos e nos sítios 
(sites)/páginas contendo tais links 
 Citações e fontes de pesquisa (indica que o conteúdo é de 
qualidade para pesquisa) 
 Termos relacionados na base de dados do mecanismo de busca 
(financiar/financiamento) 
 Links apontando para o site e texto-âncora destes links 
 Pontuação negativa para links de chegada (provavelmente 
advindos de páginas de baixo valor, links de chegada recíprocos, 
etc.) 
 Ritmo de aquisição dos links de chegada: muitos ou incremento 
muito rápido pode indicar atividade de comercial de compra de links 
 Texto envolto aos links que apontam para fora e os links de 
chegada. Um link acompanhado das palavras "links patrocinados" 
podeser ignorado 
 Uso da tag "rel=nofollow" sugerindo aos buscadores para ignorar 
um link 
 Profundidade do documento no site 
 Métricas coletadas de outras fontes, tais como monitoramento da 
frequência com a qual usuários retornam clicando em voltar 
quando a SERPs as enviam para uma página em particular 
 Métricas coletadas de fontes como Google Toolbar, Google 
AdWords/Adsense, etc. 
 
30 
 
 Métricas coletadas de compartilhamento de dados com terceiros 
(como provedores de dados estatísticos de programas utilizados 
para monitorar tráfego de sítios (sites)) 
 Ritmo de remoção dos links que apontam para o sítio (site) 
 Uso de sub-domínios, uso de palavras-chave em sub-domínios e 
volume de conteúdo nos sub-domínios, com pontuação negativa 
para esta atividade 
 Conexões semânticas dos documentos servidos 
 Frequência com que os documentos são adicionados ou alterados 
 IP do serviço de hospedagem e o número/qualidade dos demais 
sites hospedados lá 
 Outras afiliações de sites com o site referenciado (eles 
compartilham um IP? Têm um endereço postal comum na página 
"Fale conosco"?) 
 Assuntos técnicos como uso de 301 para redirecionar páginas 
movidas, mostrar um cabeçalho de erro 404 em vez 200 para 
páginas que não existem, uso adequado do arquivo robots.txt 
 Frequência de tempo em que servidor se encontra ativo 
 Se o site mostra conteúdo diferente a categorias diferentes de 
usuários (cloaking) 
 Links "quebrados" não corrigidos prontamente 
 Conteúdo inseguro ou ilegal 
 Qualidade da codificação HTML, presença de erros no código 
 Taxa real de cliques observados pelo mecanismo de busca para as 
listas exibidas na SERPs 
 Classificação de importância feita por humanos nas páginas com 
acessos mais frequentes – ODP12 
 
 
12 Texto extraído do link: http://www.otimizacaodesitesbh.com.br/blog/wp-
content/uploads/2018/04/apostila-seo-basica.pdf 
 
31 
 
5.1 Ferramentas para apoiar a otimização de mecanismos de pesquisa 
Google Search Console 
O Google Search Console é um serviço gratuito oferecido pelo Google 
que ajuda a monitorar e manter a presença do site nos resultados de pesquisa 
Google e a entender como o Google vê o site e otimizando o desempenho dele 
nos resultados de pesquisa (GSC, 2016). Com esse serviço, é possível realizar 
as seguintes ações: verificar se o Google tem acesso ao conteúdo do site, enviar 
novos conteúdos para rastreamento, remover conteúdo para que não seja 
exibido nos resultados de pesquisa, criar e monitorar o conteúdo que exibe 
resultados de pesquisa visualmente atrativos, manter o site com o mínimo de 
interrupção possível para pesquisar o desempenho e monitorar e resolver 
problemas de spam e malware para que o site esteja sempre limpo (GSC, 2016). 
 
WooRank 
O WooRank é uma ferramenta online de otimização de sites, que gera 
relatórios detalhados que exibem status de SEO, mídias sociais, presença local, 
usabilidade e muito mais. O relatório gera critérios analisados nos seguintes 
grupos: SEO On-Page, dispositivo móvel, utilização, tecnologias, erros de 
rastreamento, backlinks, mídias sociais, promoção local, ranking Google e 
visitantes. Os critérios de promoção local, ranking Google e visitantes não são 
gratuitos (WOORANK, 2016). 
O relatório se inicia com uma pontuação dinâmica numa escala de 100 
pontos que representa a eficácia de otimização de busca e marketing. Oferece 
um gráfico que mostra os níveis de acertos, erros e alertas, com proporções 
representadas pelas cores verde, laranja e vermelho, que também estão 
sinalizadas ao longo do relatório completo que a ferramenta oferece. Os critérios 
representados de laranja e vermelho são os que representam as barreiras que 
atingem a pontuação do site, enquanto que o verde representa os critérios bem 
avaliados. Há também critérios representados de cinza, que representam 
critérios importantes, mas que não alteram a pontuação (WOORANK, 2016). 
 
 
32 
 
5.2 Usabilidade e Acessibilidade 
Usabilidade consiste em descrever a qualidade da interação de uma 
interface com os usuários. A usabilidade possui as seguintes características: 
facilidade de manuseio e capacidade de aprendizado rápido, dificuldade de 
esquecimento, ausência de erros operacionais, satisfação do usuário e eficiência 
na execução das tarefas a que se propões (FERREIRA e NUNES, 2008). 
De acordo com as normas da ISO 9241, usabilidade também é a 
capacidade de um produto ser usado por usuários específicos para atingir 
objetivos específicos com eficácia, eficiência e satisfação em um contexto 
específico (ISO, 2007). 
De acordo com a Lei Federal nº 13.146/2015, acessibilidade é a 
possibilidade e condição de alcance para utilização, com segurança e 
autonomia, de espaços, mobiliários, equipamentos urbanos, edificações, 
transportes, informação e comunicação, inclusive seus sistemas e tecnologias, 
bem como de outros serviços e instalações abertos ao público, de uso público 
ou privados de uso coletivo, tanto na zona urbana como na rural, por pessoa com 
deficiência ou mobilidade reduzida (BRASIL, 2015). 
A acessibilidade na web é a possibilidade de qualquer pessoa que 
apresente alguma deficiência ou necessidade especial ter acesso aos seus 
recursos. Não se trata apenas de acesso por deficientes; é preciso levar em 
conta, no desenvolvimento de páginas Web, as diversas situações e 
características que o usuário pode apresentar (FERREIRA e NUNES, 2008). 
Em 2008, a W3C criou um guia de recomendações Web Content 
Acessibility Guidelines (WCAG), que está atualmente na versão 2.0. As diretrizes 
do WCAG abrangem diversas recomendações com a finalidade de tornar o 
conteúdo da Web mais acessível para um maior número de pessoas com 
deficiência (W3C, 2014). 
Já no Brasil, foi criado em 2005 o Modelo de Acessibilidade em Governo 
Eletrônico (eMAG), que foi formulado para orientar profissionais que tenham 
contato com a publicação de informações ou serviços na Internet a desenvolver, 
alterar e/ou adequar páginas, sítios e portais, tornando-os acessíveis ao maior 
número de pessoas possível. Atualmente está na versão 3.1, lançada em abril 
de 2014 (BRASIL, 2014). 
 
33 
 
5.3 Velocidade de carregamento da página 
 
Fonte: erichsenwebdesign.com.br 
 
O tempo de carregamento da página pode afetar o envolvimento dos 
visitantes, retenção e taxas de conversão. O carregamento lento de páginas é 
uma das maiores reclamações dos usuários na Web (WOORANK, 2016). 
Em 2010, o Google inseriu um novo critério no seu algoritmo de 
classificação: a velocidade do site. A velocidade consiste no quão rápido o site 
responde a requisições da Web. A aceleração de sites é importante não só para 
os administradores, como também para os usuários. Sites rápidos fazem os 
usuários felizes e facilitam uma boa experiência do usuário. Quando um site 
responde de forma lenta, os visitantes passam menos tempo nele, diminuindo 
sua retenção (GOOGLE, 2010). 
Embora seja importante, a velocidade do site não carrega tanto peso na 
determinação de relevância do site. Menos de 1% das queries de busca são 
afetadas nesta implementação. A ideia é incentivar a olhar esse critério não só 
para melhorar o site na classificação de resultados de busca, mas também para 
melhorar a experiência do usuário na Web (GOOGLE, 2010). 
O tempo de espera é um fator crítico de usabilidade na Web (FERREIRA 
e NUNES, 2008). A maioria das questões de usabilidade está relacionada com 
o nível comportamental. Os tempos de resposta são um exemplo clássico de 
 
34 
 
uma questão que afeta emoções comportamentais: simplesmente não é 
confortável sentar e esperar, esperar, esperar (NORMAN, 2008).13 
5.4 Atributos importantes para o SEO de um site 
Um site otimizado, ao longo do tempo, poderá acarretar em tráfego de 
qualidade, podendo assim gerar melhores negóciosatravés da internet. Dentro 
do SEO ainda existem alguns atributos importantes neste processo, e a maior 
parte está diretamente ligado com os conteúdos do site. 
Antes de nos aprofundarmos melhor neste tema, é importante dar ênfase 
a dois comandos importantes dentro de uma página: a meta title e meta 
description. Já abordamos o tema, mas vale reforçar. Nunca deixe de utilizá-las 
em cada página de seu site, pois elas serão parte fundamental da estratégia. 
 Meta tags são comandos aplicados nos códigos do site, que servem para 
passar determinadas informações ao Google. Estas áreas não são visíveis aos 
usuários, apenas o robô do Google consegue identificar tais informações. 
 Existem várias “meta tags”, mas as mais importantes são as title e 
description. A title informará ao Google o título do conteúdo, utilizado para o 
SEO, sempre, mencionando a palavra-chave. A description terá a função de 
informar ao Google o resumo daquela página em questão. Funcionará como uma 
espécie de sumário. É importante utilizar esses comandos em todas as páginas 
do site.14 
6 FERRAMENTAS PARA ANÁLISE DE SEO 
Existem diversas ferramentas que ajudam a poupar tempo na realização 
da otimização do site para ranqueamento nos mecanismos de busca que ajudam 
o profissional de SEO no dia a dia. 
 
 
13 Texto extraído do link: http://bsi.uniriotec.br/tcc/textos/201606Ferreira.pdf 
14 Texto extraído do link: http://www.rafaelfelipesantos.com.br/wp-
content/uploads/2015/07/ebook-8-introducao-a-seo.pdf 
 
35 
 
6.1 Análise da página 
O mais conhecido Google Webmastes Tools, talvez a mais utilizada pelos 
profissionais de SEO (https://www.google.com/webmasters/tools). Esta 
ferramenta oficial do Google lhe fornece excelentes dicas sobre problemas em 
títulos, meta descriptions, entre outros. 
Em junho de 2005 o Google apresentou uma nova ferramenta chamada 
de Google Sitemaps, onde os objetivos da ferramenta eram apenas dois, manter 
o Google informado de novas páginas na web e atualizações, e aumentar a 
cobertura de indexação de páginas pelo Google. 
Já em 2006, o Google Sitemaps foi rebatizado para Google Search 
Console, onde novas funcionalidades passaram a integrar a ferramenta, como 
diagnóstico automático de problemas. (ROCK CONTENT, 2016). 
A instalação e configuração requer algum conhecimento técnico, no 
entanto é muito simples e fácil. 
Primeiramente você deve possuir uma conta no Google, e após logado 
deve adicionar uma propriedade, ou seja, a URL do seu site. Logo após você é 
direcionado para a próxima página onde o Google lhe fornece diversas formas 
de confirmar a propriedade do seu site onde podemos ver na figura abaixo. 
 
 
Fonte: riuni.unisul.br 
 
 
36 
 
Na figura acima podemos ver que o método de configuração apresentado 
é o recomendado pelo Google, onde você copia e cola o código fornecido pelo 
Google no painel de controle no site do seu domínio contratado. O Google 
também fornece métodos alternativos onde é necessário um maior 
conhecimento técnico, onde fornece tags HTML para serem adicionadas a 
página inicial do seu site, vincular com o Google Analytics e o gerenciador de 
tags do Google como podemos visualizar na figura a seguir. 
 
 
Fonte: riuni.unisul.br 
 
O Google pode levar cerca de 24 horas para verificar a propriedade do 
seu site. Feito isso é apresentada a tela inicial com a sua propriedade, e clicando 
nela você é encaminhado até o painel do Search Console, já com algumas 
informações do seu site ao centro, e no lado esquerdo as funcionalidades da 
ferramenta apresentadas na figura a seguir. 
 
 
37 
 
 
Fonte: riuni.unisul.br 
 
Uma das funcionalidades interessante do Search Console é a Search 
Analytics, onde é possível saber quais as palavras que as pessoas estão 
pesquisando no Google para chegar ao seu site, clicando em tráfego de pesquisa 
e Search Analytics, apresentado na figura a seguir. 
 
 
Fonte: riuni.unisul.br 
 
Outra funcionalidade muito interessante e altamente útil do Google Search 
Console é o Sitemaps. Caso seu site tenha muitas páginas e por algum acaso o 
Google não indexou todas elas, o Sitemaps irá ajudar neste caso. O Sitemaps é 
um arquivo XML que você cria do seu site e informa ao Google todas as páginas 
do seu site para que ele possa indexá-las de forma mais prática, com isso, não 
 
38 
 
há necessidade de você ficar esperando o Google descobrir todas as suas 
páginas. Este arquivo pode ser criado através de ferramentas grátis disponíveis 
na internet, como por exemplo, o Sitemap Generator, através do endereço 
https://www.xmlsitemaps.com/. Na página inicial desta ferramenta basta inserir 
o endereço do seu site, selecionar a frequência em que você atualiza o conteúdo 
do site, a última modificação feita no site e a prioridade da URL mencionada 
relativo a outras páginas do mesmo site, como mostra a figura a seguir. 
 
 
Fonte: riuni.unisul.br 
 
 
Feito isso, basta aguardar o arquivo sitemaps.xml gerado, adicionar o 
arquivo na pasta raiz do seu site na sua hospedagem e no Google Search 
Console, no menu rastreamento, Sitemaps, adicionar o caminho do arquivo para 
enviar, como mostra a figura abaixo. 
 
 
39 
 
 
Fonte: riuni.unisul.br 
 
Assim, o Google vai descobrir todas as páginas que existem no seu site e 
irá facilitar a indexação de todas as páginas do seu site. 
Para melhorias em seu site, outra funcionalidade do Search Console 
localizado no menu aspecto de pesquisa, melhorias de HTML, o Google informa 
o que ele identificou no site que poderia melhorar com relação a meta descrição, 
a tag tittle e algum conteúdo que não foi indexado, como mostra a figura abaixo. 
 
 
Fonte: riuni.unisul.br 
O Google Search Console é uma ferramenta relativamente fácil, mesmo 
para usuários iniciantes, possui também ferramentas avançadas, e seu maior 
mérito é detectar automaticamente melhorias para o seu site figurar entre os 
primeiros nas pesquisas orgânicas do Google. 
O mecanismo de pesquisa Bing da Microsoft, lançado em 2009, também 
possui a sua plataforma para ajudar os webmasters o Bing Webmasters Tools, 
 
40 
 
também fornece várias dicas para otimização, e para alguns profissionais é uma 
ferramenta mais completa que a do Google. 
A criação da conta no Big Webmasters Tools requer uma conta na 
Microsoft, e assim como o Search Console do Google, deve-se adicionar a 
propriedade e a verificação da propriedade, onde três opções são oferecidas. A 
primeira, um arquivo BingSiteAuth.xml que deve ser adicionada na pasta raiz do 
seu servidor Web, a segunda copiando e colando um meta name na tag head da 
sua página web padrão e a terceira adicionando um registro CNAME ao DNS na 
sua hospedagem, o requer um conhecimento técnico maior, como mostra a 
figura a seguir. 
 
 
Fonte: riuni.unisul.br 
Assim como o Google Search Console, o Bing pode demorar dias, ou 
poderá ter a verificação de propriedade instantânea, dependendo do método de 
verificação utilizado, e já começará a fornecer relatórios do site. 
 
41 
 
Feito a configuração é apresentado a página inicial com todas as 
funcionalidades no menu à esquerda, como mostra a figura abaixo. 
 
 
Fonte: riuni.unisul.br 
Assim como o Google Search Console, o Bing Webmaster Tools também 
oferece relatórios, métricas e dados para melhorar o seu site, dicas são exibidas 
de forma precisa. 
Sitemaps também são possíveis de serem enviados ao Bing para que 
agilizem a varredura das páginas do seu site, o bing também oferece pesquisas 
de palavras – chave, dentre outras diversas funcionalidades também existentes 
no Google Search Console. 
Mas o diferencial do Bing Webmaster Tools não presente no Google que 
é muito útil para usuários iniciantes é o Analisador de SEO, onde basta digitar a 
URL do site que dentro de alguns segundos o Bing realiza uma varredura no seu 
site, indicando onde encontrouerros e prontamente orientando como corrigi-los, 
como mostra a figura a seguir. 
 
 
42 
 
 
Fonte: riuni.unisul.b 
 
Sem dúvida as duas ferramentas para análise de SEO são sensacionais 
e muito completas. A ferramenta Google Serach Console leva vantagem por 
justamente ser a ferramenta do Google, integrada com todas as outras 
ferramentas de marketing digital do Google, tendo o seu mecanismo de busca o 
mais utilizado pelos usuários da internet do mundo inteiro, no entanto a 
ferramenta da Microsoft Bing Webmaster Tools apresentou um diferencial que 
tornou a ferramenta um pouco mais completa e interessante que a do Google. O 
analisador de SEO apresentado anteriormente surpreende pelos resultados 
apresentados de forma instantânea e é muito útil para usuários iniciantes. 
O quadro a seguir traz um comparativo dos quesitos avaliados, mostrando 
os melhores aspectos de cada ferramenta. 
 
 
Fonte: riuni.unisul.br 
Outra ferramenta bastante interessante é a Screaming Frog, ela varre o 
site para ler todas as informações contidas nele, podendo encontrar problemas 
 
43 
 
de redirecionamento, falta de alt text em imagens, documentos duplicados, entre 
outros. Já a ferramenta Pagespeed Insights, é utilizada para avaliar o tempo de 
carregamento e otimizações em HTML/CSS/JS de uma página.15 
 
 
15 Texto extraído do link: 
https://www.riuni.unisul.br/bitstream/handle/12345/2006/Vers%C3%A3o%20Final%20Ki
ev%20Maia%20TCC%202016.pdf?sequence=1 
 
44 
 
BIBLIOGRAFIA 
BATISTA, T. O que são palavras-chave e por que se fala tanto sobre elas no 
marketing de conteúdo. 2015. 
BRASIL. e-MAG – Modelo de Acessibilidade em Governo Eletrônico. 2014. 
BRASIL. Lei nº 13146, de 6 de Julho de 2015. Institui a Lei Brasileira de Inclusão 
da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência). 
CAVALLINI, Ricardo. O Marketing depois de amanhã. São Paulo: Ed. do Autor, 
2008. 
COUTINHO, Clara Pereira; BOTTENTUIT JUNIOR, João Batista. Blog e Wiki: 
Os Futuros Professores e as Ferramentas da Web 2.0. 2007. 
FERREIRA, S. , NUNES, R. e-Usabilidade. 1ª ed. Rio de Janeiro, LTC Editora, 
2008. 
GOOGLE. Saiba mais sobre sitemaAs. Disponível em: 
<https://support.google.com/webmasters/answer/156184?hl=pt-BR>. 
GRAPPONE, J.; COUZIN, G. Search Engine Optimization: An Hour a Day. 
Indianapolis: Wiley Publishing, 2006. 
GSC. Google Search Console. O que é o Search Console. Disponível em: 
<https://support.google.com/webmasters/answer/4559176?hl=ptBR&ref_topic=
3309469> 
JERKOVIC, J. I. SEO Warrior. 1ª ed. California, O'Reilly Media, 2010. 
ISO 9241-11. Ergonomic requirements for office work with visual display 
terminals (VDTs) – Part. 11: Guidance on usability. 1998. 
KOTLER, Philip. Administração de marketing: a edição do novo milênio. Trad. 
Bazán Tecnologia e Linguística; Rev. Arão Sapiro. São Paulo: Prentice Hall, 
2000. 
LEDFORD, Gerri. SEARCH ENGINE OPTIMIZATION BIBLE, 2nd edition. Wiley 
Publishing, 2009. 
 
45 
 
MARCEL, Frank. SEO: Navegação para visitantes e buscadores. [7 de julho de 
2008] Disponível em: < http://www.mestreseo.com.br/usabilidade/seo-
navegacao-visitantesbuscadores>. 
NORMAN, D. A. Design Emocional: por que adoramos (ou detestamos) os 
objetos do dia-a-dia. 1ª ed. Editora Rocco, São Paulo. 2008 
OGDEN, J. R.; CRESCITELLI, E. Comunicação integrada de marketing: 
conceitos, técnicas e práticas. James R. Ogden, Edson Crescitelli; tradução 
Cristina Bacellar. 2ª Ed. São Paulo: Pearson Prentice Hall, 2007. 
PRINGLE, G., ALLISON, L., & DOWE, D. L. 1998. What is a tall poppy among 
web pages? Elsevier Science Publishers B. V.,Proceedings of the seventh 
international conference on World Wide Web 1998., 7, 369–377. 
ROCK CONTENT. O guia completo do Google Search Console. 2016. 
SCHULTZE, B. Title Tag – Importância para SEO. 2013. Disponível em: < 
http://www.seomarketing.com.br/title-SEO.php>. 
THUROW, S. Search Engine Visibility. 1st ed. New Riders Publishing, 2003. 
TORRES, Cláudio. A Bíblia do Marketing Digital. São Paulo: Novatec Editora, 
2009. 
TORRES, G.; COZER, A. Alavancando Negócios da Internet. Rio de Janeiro: 
Axcel Books, 2000. 
W3C. Web Content Acessibility Guidelines (WCAG) 2.0. 2014. 
WOORANK. Disponível em: <www.woorank.com/pt>

Continue navegando