Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 SUMÁRIO 1 INTRODUÇÃO ................................................................................... 2 2 COMUNICAÇÃO E INTERNET ......................................................... 5 3 INÍCIO DOS SISTEMAS DE BUSCA ................................................. 9 4 FUNCIONAMENTO DAS SEARCH ENGINES ................................ 11 4.1 O relacionamento entre profissionais de SEO e as máquinas de busca 13 4.2 Classificações em SEO ............................................................. 15 4.3 Fatores de análise On-Page ...................................................... 19 4.4 As vantagens de SEARCH ENGINE OPTIMIZATION ............... 24 4.5 Boas práticas em SEO .............................................................. 25 5 SISTEMAS DE BUSCA ORGÂNICA ............................................... 27 5.1 Ferramentas para apoiar a otimização de mecanismos de pesquisa 31 5.2 Usabilidade e Acessibilidade ..................................................... 32 5.3 Velocidade de carregamento da página .................................... 33 5.4 Atributos importantes para o SEO de um site ........................... 34 6 FERRAMENTAS PARA ANÁLISE DE SEO ..................................... 34 6.1 Análise da página ...................................................................... 35 BIBLIOGRAFIA ...................................................................................... 44 2 1 INTRODUÇÃO Fonte: thenextweb.com O termo SEO (do inglês, Search Engine Optimization, Acrônimo SEO) também se refere a indústria de consultoria, que trabalha na otimização de projetos e websites de seus clientes. Alguns comentaristas, e também alguns profissionais de SEO, dividiram os métodos usados por seus praticantes em categorias como os "SEO de White Hat" (geralmente utilizam métodos aprovados pelos sistemas de busca, como a prática de construção de conteúdo relevante e melhoria da qualidade do site), ou "SEO de Black Hat" (utilizam truques como "cloaking", que é a camuflagem do conteúdo real da página, e spamdexing). O termo "spamdexing" (originado da fusão de spam e indexing) refere-se a pratica de Spam direcionada aos motores de busca.1 A Internet já se estabeleceu como a maior fonte e distribuidora de informação da história, mudando completamente o modo das pessoas interagirem e se comunicarem. Com o seu espantoso crescimento, aumentou- se também a dificuldade de se organizar toda a sua informação de modo que ela estivesse sempre disponível para quem quisesse, quando quisesse. A dificuldade passou a ser, portanto, não mais a armazenagem e o acesso à informação, mas como organizá-la de modo a ser possível para qualquer um 1 Texto extraído do link: http://www.otimizacaodesitesbh.com.br/blog/wp- content/uploads/2018/04/apostila-seo-basica.pdf 3 encontrar o que procura. Buscando fornecer como valor uma solução para o problema, surgiram as Search Engines, mecanismos de busca da Internet que facilitam e simplificam muito a procura por informações de modo que o usuário consiga acessar dados relevantes no meio de um mar de informações, organizando assim a web (GRAPPONE; COUZIN, 2006). Mecanismos de busca (Search Engines) são softwares que vasculham um índice ou base de dados e retornam combinações de resultados relevantes baseados nas informações digitadas em uma caixa de pesquisa (THUROW, 2003). Já palavras-chave são termos descritivos pelos quais um os administradores de um website querem ser encontrados nas buscas das search engines (GRAPPONE; COUZIN, 2006). Atualmente, as search engines atuam como intermediárias na navegação de sites pela web, unindo interessados a interesses. Seja qual for a necessidade de um consumidor, ele pode obter as informações sobre o que deseja através de uma rápida busca online, sendo a principal maneira de usuários descobrir novos sites (THUROW, 2003). Os algoritmos de busca atualmente estão tão avançados que é mais fácil colocar o nome de um site no Google do que escrever o endereço completo na barra de endereços do navegador. Além disso, caso se escreva a informação errada, os maiores buscadores possuem corretores ou já informam buscas de assuntos similares. Eles fornecem dados de shows, curiosidades, notícias, produtos e buscas relacionadas, localização de negócios na região, e várias outras informações para os usuários da Internet. Por todas estas razões, recentemente é bastante comum que as pessoas procurarem através da Internet por informações de produtos e serviços que desejam ou necessitam. Assim, juntando-se o fato das search engines atuarem como intermediárias nesse processo com o poder da web de acessar uma quantidade extremamente alta de consumidores quando comparada com seu custo operacional, saber lidar bem com as search engines é fundamental para um uso efetivo da Internet com o objetivo de se aprimorar os seus resultados de um empreendimento (THUROW, 2003). É no sentido de melhorar a visibilidade em sites de busca que entram as técnicas de SEO – Search Engine Optimization. SEO pode ser definido como “uma grande variedade de tarefas que buscam melhorar a posição e a qualidade de listagem de um website entre os resultados pagos e não-pagos de search 4 engines, com o objetivo final de aumentar o tráfego para o website e conseguir mais conversões. ” (GRAPPONE; COUZIN, 2006). Por sua vez, uma conversão é uma ação feita por um visitante de um website que realiza o objetivo do seu idealizador (GRAPPONE; COUZIN, 2006), como compra de um produto, clique em um anúncio, etc. SEO é frequentemente sobre pequenas modificações a serem feitas ao website. Uma característica do SEO é que não importa o tamanho da empresa, mesmo ela sendo pequena, com uma boa gestão ela pode competir até mesmo com gigantes multinacionais (GRAPPONE; COUZIN, 2006). Além disso, SEO é especialmente efetivo para empresas que atendem a um nicho específico para um público-alvo mais exclusivo (FOX, 2010). É interessante ressaltar que os objetivos de um plano de SEO devem ser a primeira coisa a serem definidos. A definição como objetivo simplesmente colocar o website em primeiro lugar no Google é um equívoco pois isso não adiantará nada se trouxer as pessoas erradas ou levar a conteúdo ruim (GRAPPONE; COUZIN, 2006; FOX, 2010). Para se decidir qual o foco dos esforços e um entendimento melhor do mercado dos buscadores, vale verificar como ele está distribuído. A situação atual do mercado das search engines está no descrita no quadro a seguir: Fonte: netmarketshare.com Pelo quadro anterior, é visível também a grande predominância do Google no mercado. Devido ao fato de ser a mais importante ferramenta de busca na atualidade a maioria dos guias de SEO focam no Google para o uso de suas técnicas, e o modelo proposto não será diferente. Mas as boas práticas a serem apresentadas valem como esforço para melhorar o ranking em outros websites. 5 O Google ainda possui diversas ferramentas grátis, cada uma com uma finalidade diferente, que auxiliam quem quer melhorar sua presença na internet e são inclusive utilizadas no modelo descrito. Algumas delas são: Google para Webmasters Tools: Fornece dados relativos ao site, realiza diagnósticos, possui diversos tutoriais, fóruns de ajuda e fornece acesso a mudanças feitas no algoritmo de procura do Google (FOX, 2010). Google Adsense/Trends: mostra dados, estatísticas, relativos a palavras-chave (FOX, 2010). Google AdWords: ferramenta para gestão de anúncios no Google (GRAPPONE; COUZIN, 2006).2 2 COMUNICAÇÃO E INTERNET Fonte: fluxoconsultoria.poli.ufrj.br 2 Texto extraído do link: http://pro.poli.usp.br/wp-content/uploads/2013/10/TF-Luis- Henrique-Linhares-Proposta-de-Modelo-para-Planejamento-e-Gest%C3%A3o-de-Marketing-Online-para-Pequenos-Neg%C3%B3cios-1.pdf 6 Durante o auge da Guerra Fria entre Estados Unidos e União Soviética, o Departamento de Defesa norte-americano almejava alcançar a liderança militar na área de Ciências e Tecnologia, então elaborou um projeto de uma rede que permitisse a conexão de computadores em longas distâncias para troca de informações. Essa rede foi lançada em 1969 com o nome de “Arpanet” e em 1973, foi realizada a primeira conexão internacional da Arpanet, ligando o College University de Londres ao Royal Radar Establishment, na Noruega. Em 1982, a Arpanet incorporou um protocolo de comunicação chamado Transmission Control Protocol/Internet Protocol, conhecido como TCP/IP. A partir desse momento, esse protocolo de comunicação passou a ser usado como padrão, fornecendo a possibilidade de conexão com outras redes que adotavam o mesmo protocolo. Desse ponto, surge o termo “internet”, que vem do inglês interconnected network, e significa rede interconectada. Hoje, a internet é uma rede mundial pública que interliga computadores no mundo inteiro. Em 1989, foi criado o WWW (World Wide Web) e também o padrão para representação de hipertexto e multimídia, conhecido como Hypertext Markup Language, ou HTML, possibilitando assim o uso dos chamados links, que levam o usuário para outras páginas ou documentos em rede. Essas inovações contribuíram para que informação pudesse circular com mais velocidade e intensidade ao permitir que a visualização de documentos fosse através de navegadores. (OGDEN, CRESCITELLI 2007). O ponto marcante da primeira fase da internet, também conhecida como Web 1.0, foi a quantidade de informação disponibilizada ao público. Nela surgiu o e-commerce, possibilitando aumento de lucros das empresas que estavam presentes na rede. Porém, com a maioria de serviços pagos, essa ferramenta ainda representava um alto custo para investimento. Apesar desse grande avanço, a comunicação pela internet ainda estava em sua fase restrita, centralizada e estática. A maior parte do conteúdo que era desenvolvido e publicado vinha ainda das grandes corporações e quase não havia interatividade com e entre os usuários de forma geral. A Web 1.0 era bastante onerosa para os seus utilizadores; a grande maioria dos serviços era pago e controlado através de licenças, os sistemas eram restritos a quem detinha poder de compra para custear as transações on-line e adquirir o software para criação e manutenção de sites. A Web 1.0 trouxe grandes avanços no que diz respeito ao acesso à informação e ao conhecimento, porém a filosofia que estava por detrás do conceito de rede global foi sempre a de um espaço aberto 7 a todos, ou seja, sem um “dono” ou indivíduo que controlasse o acesso ou o conteúdo publicado. Houve sempre preocupação por tornar este meio cada vez mais democrático, e a evolução tecnológica permitiu o aumento do acesso de utilizadores possível pela largura de banda das conexões, pela possibilidade de se publicarem informações na Web, de forma fácil, rápida e independente de software específico, linguagem de programação ou custos adicionais. (COUTINHO, BOTTENTUIT JUNIOR, 2007, p.1) Ao longo do tempo, a internet foi se desenvolvendo e evoluindo cada vez mais. Seu estágio atual, segundo especialistas, está na chamada web 2.0, ponto em que as características da web 1.0 são aliadas a novas características e inovações, fazendo a usabilidade do usuário na rede se expandir, bem como o uso de novas ferramentas, ditando cada vez mais maior interação e participação entre as pessoas. O termo web 2.0 foi criado em outubro de 2004 por Tim O’Reilly, da O’Reilly Media, para ser utilizado em uma série de palestras sobre o novo modelo de negócios na internet após a bolha da NASDAQ, ou seja, era uma marca comercial usada para fins de marketing. Mas o termo se popularizou rapidamente e começou a ser utilizado em diversos textos para descrever o que estava acontecendo na internet com o crescimento das mídias e redes sociais e os sites colaborativos. (TORRES, 2009, p. 349) No contexto da Web 2.0, a maior parte dos sistemas e serviços são gratuitos, facilitando e ampliando o acesso. Além disso, ela permite a criação de comunidades entre os usuários pois além de acessá-la, podem compartilhar e reunir informações em diversos sites de relacionamento ou mídias sociais, atraindo assim pessoas que têm interesses específicos. A participação e colaboração em diversos processos entre usuários são uma das principais características da web 2.0. A integração possibilitada é dada através da comunicação feita por diversos recursos - textos, vídeos, áudios e imagens, por exemplo. Com isso, novas ferramentas permitem intensa interatividade caracterizando o ambiente hipermidiático como um espaço ou rede de pessoas que se conectam o tempo inteiro. Novas tecnologias e aplicações, como os blogs, as ferramentas de busca, os fóruns, as redes sociais e tantas outras aplicações online foram utilizadas pelos internautas para, literalmente, assumir o controle, a produção e o consumo de informação, atividades antes restritas aos grandes portais e empresas. (TORRES, 2009, p. 24) 8 Torres (2009) defende que a Internet quebrou barreiras: “não há mais separação entre produtor e consumidor. Não há mais exclusividade de produção nem na mídia nem no software.” (TORRES, 2009, p. 25). Entre outros benefícios que a Internet oferece, Torres e Cozer (2000) destacam a capacidade de segmentação que essa mídia possui. Outra característica que a torna única é o controle eletrônico do tráfego. Na internet é possível saber, com precisão quantos visitantes um determinado site possui, de onde eles vieram, para onde foram, de qual região estão vindo, quanto tempo ficaram visitando o site, quais páginas visitaram e muito mais. Dessa forma, a internet como mídia é mais promissora do que qualquer outra mídia existente no mundo (TORRES, COZER, 2000, p. 13). O advento da web 2.0 e suas novas características permitiu ao receptor papel ativo na comunicação. Ele agora pode interagir com as empresas, aumentando o nível de envolvimento, exigência e controle do mesmo sobre o processo de compra. O ciberespaço prenuncia uma era em que o processo de compra e venda torna-se mais automatizado e conveniente. As empresas conectam-se entre si e com os clientes em uma rede virtual homogênea. A informação na Internet flui pelo planeta em um instante e sem custo. [...] O tempo e a distância, que representaram grandes custos e barreiras comerciais no passado, encolhem imensamente, os comerciantes que continuarem a vender nas formas antigas lentamente desaparecerão de cena. Kotler (2000, p. 257) Ricardo Cavallini (2008) em O Marketing depois de amanhã discute todas as transformações tecnológicas que culminaram em mudanças de comportamento no mundo que consequentemente influenciaram o mercado e a forma de entende-lo, principalmente pelo fato de terem surgidos novas mídias com também novas funcionalidades. Cavallini (2008) discute essas modificações causadas principalmente pela web, é nela que o consumidor vai buscar informações e disponibilizá-las também. Por isso, a comunicação em mundo digital é essencial para que as marcas possam atingir seu público satisfatoriamente. “O consumidor ganha mais poder, exige uma mudança na proposta de valor das empresas e, consequentemente, nos seus esforços de marketing” (CAVALLINI, 2008, p. 25). 9 Diante desse contexto, dos benefícios em comunicação mencionados, é fundamental para as empresas pensarem em um planejamento de marketing digital, que tem em vista objetivos, táticas e meios de avaliação de resultados. 3 3 INÍCIO DOS SISTEMAS DE BUSCA Fonte: fiscooggi.it Webmasters e responsáveis dos portais de conteúdo começaram a otimizar seus sites para os sistemas de busca em meados de -1990s, porque os primeirosmotores de busca estavam iniciando a indexação do conteúdo na World Wide Web. No início, os webmasters precisavam enviar o endereço do site aos vários sistemas de busca existentes na Rede, para que programas como spiders, pudessem "mapear" o site e armazenar as informações coletadas. O padrão e suporte das Máquinas de Busca era mapear uma página da web inteira e selecionar as chamadas palavras relacionadas na busca; então uma página com muitas palavras diferentes ampliavam a combinação de resultados, e uma página da web contendo uma relação de palavras como um dicionário teria como resultado um grande número de combinações, consequentemente limitando os resultados somente a nomes únicos. Os sistemas de busca então classificavam a informação por tópicos, muitas vezes exibindo como resultado das buscas páginas já expiradas, não existentes ou de conteúdo diferente ao que estava armazenado. Como o número crescente de documentos online, e vários 3 Texto extraído do link: http://www.ufjf.br/facom/files/2014/03/Marketing-na-Era- Digital.pdf 10 webmasters trabalhando para aumentar o valor nos resultados em busca orgânica, os sistemas de buscas mais populares começaram a classificar as páginas de resultados mais relevantes em primeiro. Este era o início de um atrito entre Sistemas de Busca e webmasters que continua até hoje. Os primeiros motores de busca eram orientados pelos próprios webmasters. Na ocasião, as versões existentes dos algoritmos utilizados nos sistemas de busca confiaram aos webmasters e provedores de conteúdo a responsabilidade no fornecimento das informações na forma de Categorias e o uso das Meta-Tag para palavras-chave meta tags ou sistemas de busca que usavam arquivos de índice como ALIWEB, fornecendo assim um guia para o índice de cada página. Quando alguns webmasters começaram a abusar no uso das Meta-Tags, fazendo com que as informações de Meta-Tags das páginas não correspondessem ao conteúdo, os motores de busca abandonaram esta forma de obter informações através de Meta-Tags e desenvolveram um sistema de ranking mais complexo utilizando algoritmos, elevando a filtragem das palavras e elevando o número limitado para palavras (anti dicionário) e são mais diversas, incluindo: Texto dentro do Tag de título Nome de Domínio URL (de Universal Resource Locator): em português significa (Localizador Uniforme de Recursos) diretórios e nomes de arquivos HTML element|HTML tags: cabeçalhos, negrito e textos com ênfase Keyword density: Densidade das palavras Proximidade das Palavras-Chave Alt attributes: Atributo em texto alternativo para imagens Textos dentro da Tag NOFRAMES Pringle, em al. (Pringle et al., 1998), também definiu um número de atributos dentro da codificação HTML de uma página que frequentemente eram manipulados por provedores de conteúdo na Internet tentando melhorar a própria classificação em motores de busca. Devido a fatores que estão praticamente sob o controle exclusivo dos responsáveis por um site, os motores 11 de busca continuaram a sofrer abusos e tentativas de classificações manipuladas. Para fornecer melhores resultados a seus usuários, os sistemas de busca tiveram que se adaptar e assegurar que as páginas de resultados mostrem sempre os resultados mais relevantes durante uma procura, ao invés de páginas inúteis cheias de palavras-chave e termos criados inescrupulosamente por webmasters na tentativa de usá-las como iscas para exibirem webpages sem link ou conteúdo. Estes fatos levaram ao nascimento de um novo tipo de motor de busca.4 4 FUNCIONAMENTO DAS SEARCH ENGINES Fonte: dumblittleman.com Os mecanismos de busca usam softwares especiais (software robots), chamados de spiders (aranhas) ou crawlers (rastreadores), que vasculham a web para buscar informações (THUROW, 2003). Eles começam em uma página e continuam anexando a web através de links que vão levando a outras páginas. De acordo com Thurow (2003), os mecanismos de busca realizam basicamente três tarefas, ilustradas na Figura - Funcionamento de um Mecanismo de Busca a seguir: 4 Texto extraído do link: http://www.otimizacaodesitesbh.com.br/blog/wp- content/uploads/2018/04/apostila-seo-basica.pdf 12 Fonte: pro.poli.usp.br 1. Os spiders encontram sites e páginas na web e criam listas de palavras e frases encontradas em cada página. 2. As search engines criam um índice da web com as palavras e frases encontradas em cada página visitada. 3. Ao receber um pedido de pesquisa, o mecanismo de busca utiliza as palavras chave utilizadas e através de algoritmos de busca procura em seus índices os resultados mais relevantes e os mostra ao usuário. Portanto, ao se fazer uma busca no Google, por exemplo, ele não realiza a procura na Internet em si, mas em suas próprias bases de dados que contêm uma grande porção da informação contida na Internet. Muitas técnicas SEO envolvem facilitar a leitura do site por esses softwares e controlar as informações lidas, de modo a melhorar o posicionamento nos sites de busca. Outras levam 13 em conta como funcionam os algoritmos dos sites de busca que definem a relevância das páginas. De acordo com Grappone e Couzin (2006), o algoritmo do Google destaca os seguintes fatores: Relevância das palavras-chave: número de vezes que aparece em textos, localização (título, subtítulo, descrição da página, URL,...), proximidade entre as palavras chave do termo buscado, etc.; O texto/conteúdo do site; Idade do domínio; Page Rank: desenvolvido pelos fundadores do Google, é uma nota atribuída a um site, baseado no número de links que direcionam a ele e no ranking dos sites que fornecem esses links, entre outras características (THUROW, 2003). Existem outros fatores além desses, mas eles mudam constantemente conforme novas atualizações são feitas, mas os que foram mencionados são mais relevantes e constantes nos algoritmos. Os algoritmos de outros buscadores relevam fatores similares. Ultimamente, contudo, os algoritmos estão tão avançados que o atualmente o que mais importa acaba sendo o comportamento e satisfação dos usuários em si e, portanto, antes de se prender a estes fatores, deve-se ter em mente quais são os benefícios propostos ao cliente. O SEO deve estar coordenado com os esforços de Marketing do resto da empresa, e mesmo com as características gerais de gestão e administração (FOX, 2010).5 4.1 O relacionamento entre profissionais de SEO e as máquinas de busca Não se encontram menções de Otimização para sistemas de busca na Usenet antes de 1997, alguns anos após a introdução dos primeiros mecanismos de busca. Os operadores de mecanismos de busca rapidamente reconheceram alguns webmasters estavam realizando esforços visando melhor classificação no ranking dos mecanismos de busca, chegando a se utilizar de técnicas de manipulação. Nos primeiros mecanismos de busca, como o Infoseek, a primeira 5 Texto extraído do link: http://pro.poli.usp.br/wp-content/uploads/2013/10/TF-Luis- Henrique-Linhares-Proposta-de-Modelo-para-Planejamento-e-Gest%C3%A3o-de-Marketing- Online-para-Pequenos-Neg%C3%B3cios-1.pdf 14 posição do ranking era obtida sem muita dificuldade, assim como era pegar o código-fonte da página mais bem colocada, colocar na própria página e enviar o endereço para instantaneamente indexar e classificar a página. Os principais motores de busca disponibilizam guias e informações para ajudar o webmaster com a indexação e otimização do seu site: Google, Yahoo, e MSN. A Google tem o Ferramentas do Google para webmasters, que ajuda a descobrir se existe algum problema de indexação do site do webmaster dentro da máquina de busca e aindadisponibiliza inúmeros dados sobre o tráfego no Google para o seu site. O Yahoo! tem o Site Explorer (em inglês), que permite enviar sua URL gratuitamente (como também o MSN e o Google), explorar todas as páginas indexadas pelo Yahoo!, ver quais são as mais populares e disponibiliza um mapa detalhado de um site, suas páginas e links. Estes sites de busca também permitem a criação de "adWords", que são anúncios de um site ou negócio na internet, que aparecem no resultado da busca de alguém que procura qualquer coisa relacionada com aquele produto/serviço. Uma forma que muitas empresas estão usando para fazer a divulgação e marketing na Internet. O Yahoo! tem o Search Marketing(em inglês) e a Google tem o Google Advertising Professionals.6 6 Texto extraído do link: http://www.otimizacaodesitesbh.com.br/blog/wp-content/uploads/2018/04/apostila-seo- basica.pdf 15 4.2 Classificações em SEO Fonte: hostpapa.ca É muito importante que o site não se utilize de malícia para tentar aumentar o seu ranking, pois isso pode acabar por bani-lo dos resultados de pesquisa. No campo do SEO existem inclusive os seguintes termos: White Hat SEO: Metodologia que utiliza somente técnicas que ficam dentro das diretrizes das search engines para os donos, administradores ou desenvolvedores de um site (GRAPPONE; COUZIN, 2006). Black Hat SEO: Metodologia que utiliza técnicas que não estão de acordo com as diretrizes das search engines para webmasters (GRAPPONE; COUZIN, 2006). São técnicas que só visam melhorar o posicionamento do site por meios que não agregam valor ao cliente. Um exemplo dessa metodologia é a utilização de diversas palavras e textos em áreas escondidas no site ou em cores que se misturam ao fundo, de modo que os visitantes não percebem, mas as quais os botsdas search engines leem, cuja única função é a aumentar o número de palavras chave no site e, portanto, a sua relevância. 16 Sites que incluem técnicas de Black Hat caso sejam pegos pelas search engines, o que não é incomum devido à qualidade de seus algoritmos e sua constante atualização, são banidos dos seus resultados. Estas técnicas não são usadas neste trabalho. Basicamente, o método correto de melhorar sua posição é através de uma entrega de algum valor ao visitante do seu site e de um bom design (FOX, 2010). Dentro de um resultado de busca, ainda se tem diferentes elementos, como o título que serve de link para a página de destino e o endereço do website. Os Snippets são os textos que aparecem em baixo de cada um dos resultados de uma pesquisa que servem como descrição para cada pesquisa. Fonte: pro.poli.usp.br Outra classificação importante é a entre os tipos de resultados fornecidos: Resultados orgânicos: são os resultados não pagos relevantes fornecidos pelos algoritmos das search engines de acordo com as palavras-chave fornecidas pelo usuário (GRAPPONE; COUZIN, 2006). Resultados pagos: são anúncios pagos disponibilizados na lista de resultados de um mecanismo de busca que são relacionados, também por um algoritmo, com as palavras-chave digitadas pelo usuário. O tipo mais comum é o PPC, Pay-perClick, em que cada vez que o anúncio publicado é clicado por um usuário, o anunciante paga uma determinada taxa (GRAPPONE; COUZIN, 2006). 17 Fonte: pro.poli.usp.br De modo a se garantir que o site seja de uso confortável pelo usuário e devido à importância do assunto quando se desenvolve um website, diversos especialistas em web design desenvolveram algumas regras básicas que devem ser seguidas e servem de base para a definição de alguns parâmetros utilizados no modelo. Um quadro com estas regras é fornecido a seguir: Fonte: pro.poli.usp.br O URL, sigla em inglês para Uniform Resource Locator, é uma sequência de caracteres que funciona como um endereço que corresponde à localização de um arquivo na Internet (THUROW, 2003). O URL não designa somente páginas na internet, mas todo documento que está online, como arquivos ou 18 imagens. O texto presente em URLs é usado no algoritmo de mecanismos de busca como forma de mostrar resultados relevantes e um URL simples facilita o entendimento do usuário e por isso tem sua importância no SEO de um site. Como mencionado anteriormente, o SEO se baseia muito em texto pois as search engines o usam para a aplicação de seus algoritmos e decidir quais os resultados de uma busca. Assim, no caso de vídeos e imagens são necessárias outras formas de aviso para os buscadores sobre o que é o conteúdo sendo mostrado. É para isso que existem os marcadores, que informam aos buscadores as mais variadas informações sobre um produto, mas que não ficam necessariamente visíveis aos usuários. Contudo, os buscadores podem usar essas informações para fornecer resultados mais relevantes. Por exemplo, para um vídeo esses marcadores podem descrever a duração, a data de filmagem, o diretor, os autores, mesmo se essas informações não estiverem em forma de texto no site. Um site que fornece informações mais específicas sobre esta linguagem, além dos diferentes tipos de informações que podem ser adicionadas deste modo é o http://schema.org/. Este tipo de linguagem é compreendido pelos maiores buscadores (Google, Yahoo!, Bing). Convém ainda explicar dois conceitos bastante proeminentes em SEO. O primeiro é o de “no follow”. Quando não se quer que as search engines sigam algum link dentro de uma página por algum motivo, (ex. conteúdo não confiável, páginas de logins, spams que aparecem em comentários, etc.), adiciona-se o código no follow no link. Por exemplo : nome do link O segundo é o robots.txt. Este arquivo descreve quais páginas dentro do website o administrador não quer que as search engines entrem e indexem o conteúdo. Podem ser páginas de logins, páginas que não devem ser tornadas públicas ou páginas usadas somente pelos administradores do site. Para isso, adiciona-se o arquivo chamado robots.txt à página raiz do domínio, geralmente a página principal de um site (ex.: http://www.site.com.br é a página raiz do domínio site.com.br). A esta página raiz adiciona-se o arquivo mencionado, com a lista dos domínios internos do site que a search engine não deve seguir. O arquivo fica então no URL: http://www.site.com.br/robots.txt. O texto do arquivo é uma lista do tipo: User-agent: * Disallow: /domínioquenãosequerseguir1/ Disallow: /domínioquenãosequerseguir2/ […] 19 Por fim, todas as práticas de SEO acabam convergindo para um fator de SEO que, conforme a evolução da tecnologia na área, acaba ficando cada vez mais importante. Trata-se da criação de conteúdo de qualidade, que atrai visitantes e os faz retornar. Se a experiência do usuário for boa, os resultados de SEO tendem a aumentar naturalmente.7 4.3 Fatores de análise On-Page Muitos aspectos On-Page são relacionados ao uso de palavras-chave (JERKOVIC, 2010). Palavras Chave As palavras-chave são palavras pesquisadas pelas pessoas nos motores de busca com o objetivo de usá-las para achar respostas ou soluções para os problemas. Definir palavras-chave para uma página significa transmitir ao Googlebot que o seu conteúdo trata do assunto daquele termo específico. A etapa de pesquisa de mercado para definição de palavras-chave é de suma importância, já que é dessa forma que se descobre se há demanda e o tamanho da procura do conteúdo que o site quer divulgar (BATISTA, 2015). Tag title A tag de título title informa tanto os usuários como os mecanismos de busca qual o assunto de determinada página. A tag title é colocada dentro da tag head do HTML. É ideal criar um título único e conciso para cada página do site (GOOGLE, 2008). Mecanismos de buscas usam o conteúdo da tag title como títulos de resultados de buscas.Todas as páginas de um site devem fazer uso de importantes palavras-chave definidas para a página relacionada (JERKOVIC, 2010). O tamanho recomendado de caracteres para o conteúdo de título seria entre 60 e 70, pois é a restrição dos títulos exibidos nos resultados de busca do Google. Mesmo passando de 70 caracteres, é importante que as palavras-chave 7 Texto extraído do link: http://pro.poli.usp.br/wp-content/uploads/2013/10/TF-Luis- Henrique-Linhares-Proposta-de-Modelo-para-Planejamento-e-Gest%C3%A3o-de-Marketing- Online-para-Pequenos-Neg%C3%B3cios-1.pdf 20 e mais importantes da descrição do conteúdo estejam aparecendo primeiro (SCHULTZE, 2013). Tag meta de descrição A tag meta da descrição dá ao Google e outros mecanismos de busca um resumo do assunto da página. A meta tag de descrição pode ser uma ou duas frases, ou até mesmo um breve parágrafo. As tags meta de descrição são importantes porque talvez o Google utilize como descrição das páginas (conhecidos como “snippets”). Alternativamente, o Google pode utilizar um trecho relevante de texto visível da página, caso esta forma represente melhor a consulta do usuário. (GOOGLE, 2008). Os Snippets aparecem entre o título e a URL da página de um resultado de busca, como ilustrado na figura abaixo. Fonte: bsi.uniriotec.br Página 404 Fonte: rafaelfelipesantos.com.br A página 404 é retornada quando uma página solicitada não é encontrada. Para isso, o servidor web retorna um código de status HTTP 404 para indicar a ausência da página. Isso ocorre em diversas situações, como quando o usuário clica em um link corrompido, ou quando acha uma página do site excluída ou a ou mesmo quando ele digita uma URL de forma errada. A página 404 padrão gerada pelo servidor não oferece informações simples, podendo fazer com que o usuário abandone o site. Para melhorar essa questão, é recomendável criar 21 uma página 404 personalizada que utilize uma linguagem compreensível ao usuário para informar do fato ocorrido. Além disso, a página 404 deve aproveitar a aparência do site, adicionando links orientando o usuário a voltar para a página inicial do site ou para outra página de destaque do site. Ao criar a página 404, o administrador do site deve certificar que ela retorna um código HTTP 404 para não ser indexada pelo Google e outras ferramentas de pesquisa (GOOGLE, 2016e). Redirecionamento 301 A configuração de redirecionamento 301 é utilizada quando duas ou mais URLs diferentes direcionam a uma mesma página de um site. O redirecionamento 301 consiste em um código de status HTTP 301 que indica que uma página foi permanentemente movida para um local específico. Com a sua utilização, é possível determinar uma única URL específica para os mecanismos de pesquisa indexarem e serem redirecionados para a página correta (GOOGLE, 2016f). URL amigável A URL amigável consiste em uma URL cuja leitura seja de fácil compreensão tanto para o usuário quanto para os buscadores (GOOGLE, 2016d). Em termos de SEO, URLs muito complexas, especialmente os que contêm vários parâmetros podem causar problemas para os rastreadores de pesquisa (GOOGLE, 2008). Além disso, a URL também aparece nos resultados de busca de páginas, o que também é um fator que ajuda o usuário a decidir clicar no conteúdo apontado, facilitando a sua leitura. É recomendável utilizar categorias e nomes descritivos para a composição da URL, já que esse fator pode levar a um melhor rastreamento pelos mecanismos de pesquisa (GOOGLE, 2008). A figura abaixo mostra como a URL também é exibida nos resultados de pesquisa. 22 Fonte: bsi.uniriotec.br Arquivos com informações para buscadores Há dois arquivos utilizados na estrutura do site que ajudam o Google a descobrir e indexar as páginas do site: robots.txt e sitemap. O robots.txt é um arquivo localizado na raiz do site com a função de indicar as páginas do site que não devem ser acessadas por indexadores de mecanismos de pesquisa. O arquivo utiliza o Protocolo de Exclusão de robôs padrão, que são um pequeno conjunto de comandos que são usados para indicar o acesso ao site por seção e tipos específicos de rastreadores web (GOOGLE, 2016g). Um sitemap é um arquivo que lista as páginas do site para informar ao Google e outros mecanismos de pesquisa sobre a organização do conteúdo do site. O Googlebot lê esse arquivo para rastrear o site de maneira mais inteligente. O sitemap também pode fornecer metadados associados às páginas da web, como quando ela foi atualizada, com qual frequência é alterada e a importância dela em relação aos outros URLs do site. O Google oferece suporte a vários formatos de sitemap, como XML, RSS e TXT (GOOGLE, 2016h).8 8 Texto extraído do link: http://bsi.uniriotec.br/tcc/textos/201606Ferreira.pdf 23 Conteúdo duplicado O Google não gosta de conteúdo duplicado, portanto, muito cuidado com páginas parecidas dentro do mesmo site. Copiar textos de outros sites também pode ser um erro. Tecnologia em Flash Para o SEO, a tecnologia Flash é abominável. Para quem não sabe, flash é a tecnologia utilizada para aqueles efeitos de objetos em movimento, animações, etc. Áreas desenvolvidas em flash não possuem conteúdo, apenas um arquivo que não será lido pelos robôs. Existem, inclusive, sites totalmente desenvolvidos em flash. Trata-se de um grande erro para o SEO e usabilidade em geral. Utilizar Palavras-chave erradas Aquela velha impressão de que a keyword (palavra-chave) usada em excesso em meu site é exatamente aquilo que as pessoas buscam no Google pode ser um engano. Este tipo de engano costuma ocorrer em sites que fazem o SEO dos achismos, focando em termos sem procura. Utilizar bem as palavras será fundamental para o sucesso de um site. Black Hat Este é o termo usado para as técnicas fraudulentas de SEO. Muitos sites acabam utilizando meios errados para atrair mais visitas em seus sites, e com isso ganham punições do Google. Existem profissionais que acabam vendendo este tipo de serviço, prometendo aos seus clientes um crescimento bastante rápido nos resultados. A dica é: cuidado com milagres. O trabalho de SEO se desenvolve a médio e longo prazo, e ao usar blackhat o Google pode até punir seu site retirando-o dos resultados de busca.9 9 Texto extraído do link: http://www.rafaelfelipesantos.com.br/wp-content/uploads/2015/07/ebook-8-introducao- a-seo.pdf 24 4.4 As vantagens de SEARCH ENGINE OPTIMIZATION Segundo Marcel (2008), a maioria das navegações web iniciam a partir de um mecanismo de pesquisa. Se um site, jornal ou blog não estiver bem posicionado na pesquisa, dificilmente será encontrado. Pesquisas de Eye-Tracking demonstram que os usuários tendem a focar a sua atenção apenas nos primeiros resultados da Search Engine Results Page. Com base nestes estudos, é possível afirmar que a quantidade de olhares para as três primeiras posições da busca orgânica é muito maior do que as outras posições e os primeiros resultados possuem elevada taxa de cliques. Ledford (2009) explica que a maioria dos internautas, ao realizar uma busca, inicia a leitura através dos títulos e descrições dos resultados principais. Segundo o autor, as páginas listadas na primeira relação de resultados do buscador detêm a maioria do tráfego de visitantes, e esse tráfego se traduz em receita. O autor explica que, além da vantagem de posicionamento nos resultados, também devemos estar atentos à questão da credibilidade. Os primeiros resultados na busca orgânica desfrutam de maior credibilidade para o usuário, por terem sido trazidos naturalmente pelo mecanismo de busca, e não através de campanhas pagas. Os jornais e portaisonline devem estar atentos a essa vantagem, visto que para notícias, a credibilidade é um dos fatores mais importantes. Se ao realizarmos uma busca simples e um jornal que não é de nosso conhecimento até o momento estiver entre os primeiros resultados, iremos ler o seu nome como ação mínima. Na segunda vez que ele aparecer, vamos ler mais uma vez o seu nome. Na terceira vez, já vamos achar que essa fonte é relevante, pois o buscador nos traz com frequência o seu resultado. Deve-se ter em conta que existe certo preconceito quanto à SEO, vista como algo difícil e inaplicável. Lembremos que SEO não envolve apenas técnicas de programação e grande parte do sucesso de um resultado num mecanismo de pesquisa está atrelado a um bom conteúdo, boas descrições e 25 títulos relevantes. Por este motivo os jornalistas devem estar atentos a estas técnicas e utilizá-las em seu dia-a-dia nas redações online.10 4.5 Boas práticas em SEO As práticas em SEO podem ser divididas em duas partes, os fatores internos relacionados ao próprio Website, com a utilização de títulos na URL, construção de Websites padronizados, correta utilização das tags nas linguagens de marcação e a indexação de palavras-chave que representarão o conteúdo nos mecanismos de busca. Já no fator externo, é analisado como os outros Websites se relacionam com o Website, a quantidade de links apontando para o mesmo, a quantidade de acessos ocorridos, entre outros. Porém, faz-se necessário ao profissional que trabalha com SEO, analisar as reais necessidades do Website de seu cliente, pensando não só nas técnicas, mas em todo o contexto que envolve o negócio abordado, conversando com o cliente no intuito de conhecer o público alvo e entender bem os objetivos do seu negócio, para então definir a estratégia de otimização. A aplicação do conjunto destas técnicas e procedimentos podem ser utilizadas tanto no início de desenvolvimento de um projeto, quanto a um Website que já se encontra disponível na Internet, e que não está obtendo o resultado esperado pelo cliente. A análise detalhada de problemas estruturais e potenciais melhorias de conteúdo podem ser entregues em forma de relatório que irá documentar as soluções de otimização, segundo Formaggio (2010). Cabe, também, o monitoramento dos Websites nos mecanismos de busca, visando manter a performance da otimização aplicada, devido ao constante rastreamento que os motores de busca desempenham para fins de indexação dos Websites em seus bancos de dados, podendo neste procedimento ocorrer algumas variações quanto ao seu posicionamento. Deve-se ressaltar que os resultados de SEO podem demorar algum tempo para se obter retorno, devido aos diversos procedimentos que envolvem o processo de otimização. No Brasil, os estudos referentes a SEO estão em processo de evolução e no cenário atual algumas empresas do ramo de publicidade e propaganda estão 10 Texto extraído do link: http://seonojornalismo.com.br/libraries/down/Cartilha_SEO_no_Jornalismo.pdf 26 se destacando na aplicação e difusão deste conceito. Na figura abaixo, são apresentadas as fases de estruturação do SEO.11 Fonte: dialnet.unirioja.es/descarga/articulo/3754156.pdf 11 Texto extraído do link: https://dialnet.unirioja.es/descarga/articulo/5025783.pdf 27 5 SISTEMAS DE BUSCA ORGÂNICA Fonte: pt.depositphotos.com Google foi iniciado por dois estudantes PhD da Universidade de Stanford, Sergey Brin e Larry Page, e trouxe um novo conceito para avaliar páginas da web. Este conceito, chamado PageRank™, foi importante para o início da criação dos algoritmos do Google. O PageRank™ trabalha principalmente com o fator link e usa a lógica deste sistema de ligação entre páginas como se tivesse o valor de um voto para a página em questão. O fato de uma página ser referenciada através de um link funciona de forma a validar a existência do site e dar um valor mais "digno" ao voto. O valor de cada link de referência varia diretamente baseado no PageRank da página que faz referência ao link e funciona de forma inversa no número de links de saídas de uma página. Com ajuda de PageRank™, o Google provou ser muito eficiente em oferecer resultados relevantes nas páginas de resultados e tornou-se o sistema de busca mais bem-sucedido e popular. Pelo motivo do sistema PageRank™ fazer a avaliação de websites através de fatores externos ou fora do controle de pessoas em particular, o Google sentiu que desta maneira poderia ser mais difícil de manipular a relevância de uma página. 28 No entanto, webmasters já tinham desenvolvido ferramentas para manipulação de links e esquemas para influenciar o sistema de busca Inktomi. Estes métodos provaram ser igualmente aplicáveis aos algoritmos do Google. Muitos sites focalizaram suas ações em trocar, comprar, e vender links numa escala imensa. A confiança do PageRank no sistema de link como um voto de confiança para um valor da página foi subvertido como muitos webmasters procuraram vender links simplesmente para influenciar o Google em enviar mais tráfego, independentemente dos links serem realmente útil as visitantes humanos do site. Para complicar a situação, o suporte-de-busca omitia o mapeamento de uma página web inteira para procurar as chamadas palavras-relacionadas nas páginas web, e uma página web contendo uma listagem do tipo dicionário ainda combinaria quase todas as buscas (exceto nomes especiais) alcançando um link-rank mais alto. Páginas de dicionários e links para esquemas podem distorcer severamente os resultados de uma página de resultados. Já era tempo para o Google -- e outros motores de procura -- olharem para algo mais distante sobre os fatores fora de controle humano. Havia outras razões para desenvolver algoritmos mais inteligentes. A Internet estava alcançando uma grande parcela de usuários não-técnicos, que geralmente não conheciam técnicas avançadas de pesquisa que os ajudassem a encontrar a informação que eles estavam buscando e além disso o volume e complexidade dos dados indexados tiveram um enorme crescimento em relação aos primórdios da Internet. Para classificar os sites, os mecanismos de busca levam em consideração os seguintes aspectos: Idade do sítio (site) Há quanto tempo o domínio está registrado Idade do conteúdo Freqüência do conteúdo: regularidade com a qual novo conteúdo é adicionado Tamanho do texto: número de palavras acima de 200-250 (não afetava o Google em 2005) Idade do link e reputação do sítio que o aponta 29 Características padrão da página Pontuação negativa sobre as características da página (por exemplo, redução para sítios web com utilização extensiva de meta-tags de palavra chave, indicativos de terem sido artificialmente otimizadas) Originalidade do conteúdo Termos relevantes utilizados no conteúdo (os termos que os buscadores associam como sendo relacionados ao tema principal da página) Google Pagerank (usado apenas no algoritmo do Google) Links externos, o texto contido neste links externos e nos sítios (sites)/páginas contendo tais links Citações e fontes de pesquisa (indica que o conteúdo é de qualidade para pesquisa) Termos relacionados na base de dados do mecanismo de busca (financiar/financiamento) Links apontando para o site e texto-âncora destes links Pontuação negativa para links de chegada (provavelmente advindos de páginas de baixo valor, links de chegada recíprocos, etc.) Ritmo de aquisição dos links de chegada: muitos ou incremento muito rápido pode indicar atividade de comercial de compra de links Texto envolto aos links que apontam para fora e os links de chegada. Um link acompanhado das palavras "links patrocinados" podeser ignorado Uso da tag "rel=nofollow" sugerindo aos buscadores para ignorar um link Profundidade do documento no site Métricas coletadas de outras fontes, tais como monitoramento da frequência com a qual usuários retornam clicando em voltar quando a SERPs as enviam para uma página em particular Métricas coletadas de fontes como Google Toolbar, Google AdWords/Adsense, etc. 30 Métricas coletadas de compartilhamento de dados com terceiros (como provedores de dados estatísticos de programas utilizados para monitorar tráfego de sítios (sites)) Ritmo de remoção dos links que apontam para o sítio (site) Uso de sub-domínios, uso de palavras-chave em sub-domínios e volume de conteúdo nos sub-domínios, com pontuação negativa para esta atividade Conexões semânticas dos documentos servidos Frequência com que os documentos são adicionados ou alterados IP do serviço de hospedagem e o número/qualidade dos demais sites hospedados lá Outras afiliações de sites com o site referenciado (eles compartilham um IP? Têm um endereço postal comum na página "Fale conosco"?) Assuntos técnicos como uso de 301 para redirecionar páginas movidas, mostrar um cabeçalho de erro 404 em vez 200 para páginas que não existem, uso adequado do arquivo robots.txt Frequência de tempo em que servidor se encontra ativo Se o site mostra conteúdo diferente a categorias diferentes de usuários (cloaking) Links "quebrados" não corrigidos prontamente Conteúdo inseguro ou ilegal Qualidade da codificação HTML, presença de erros no código Taxa real de cliques observados pelo mecanismo de busca para as listas exibidas na SERPs Classificação de importância feita por humanos nas páginas com acessos mais frequentes – ODP12 12 Texto extraído do link: http://www.otimizacaodesitesbh.com.br/blog/wp- content/uploads/2018/04/apostila-seo-basica.pdf 31 5.1 Ferramentas para apoiar a otimização de mecanismos de pesquisa Google Search Console O Google Search Console é um serviço gratuito oferecido pelo Google que ajuda a monitorar e manter a presença do site nos resultados de pesquisa Google e a entender como o Google vê o site e otimizando o desempenho dele nos resultados de pesquisa (GSC, 2016). Com esse serviço, é possível realizar as seguintes ações: verificar se o Google tem acesso ao conteúdo do site, enviar novos conteúdos para rastreamento, remover conteúdo para que não seja exibido nos resultados de pesquisa, criar e monitorar o conteúdo que exibe resultados de pesquisa visualmente atrativos, manter o site com o mínimo de interrupção possível para pesquisar o desempenho e monitorar e resolver problemas de spam e malware para que o site esteja sempre limpo (GSC, 2016). WooRank O WooRank é uma ferramenta online de otimização de sites, que gera relatórios detalhados que exibem status de SEO, mídias sociais, presença local, usabilidade e muito mais. O relatório gera critérios analisados nos seguintes grupos: SEO On-Page, dispositivo móvel, utilização, tecnologias, erros de rastreamento, backlinks, mídias sociais, promoção local, ranking Google e visitantes. Os critérios de promoção local, ranking Google e visitantes não são gratuitos (WOORANK, 2016). O relatório se inicia com uma pontuação dinâmica numa escala de 100 pontos que representa a eficácia de otimização de busca e marketing. Oferece um gráfico que mostra os níveis de acertos, erros e alertas, com proporções representadas pelas cores verde, laranja e vermelho, que também estão sinalizadas ao longo do relatório completo que a ferramenta oferece. Os critérios representados de laranja e vermelho são os que representam as barreiras que atingem a pontuação do site, enquanto que o verde representa os critérios bem avaliados. Há também critérios representados de cinza, que representam critérios importantes, mas que não alteram a pontuação (WOORANK, 2016). 32 5.2 Usabilidade e Acessibilidade Usabilidade consiste em descrever a qualidade da interação de uma interface com os usuários. A usabilidade possui as seguintes características: facilidade de manuseio e capacidade de aprendizado rápido, dificuldade de esquecimento, ausência de erros operacionais, satisfação do usuário e eficiência na execução das tarefas a que se propões (FERREIRA e NUNES, 2008). De acordo com as normas da ISO 9241, usabilidade também é a capacidade de um produto ser usado por usuários específicos para atingir objetivos específicos com eficácia, eficiência e satisfação em um contexto específico (ISO, 2007). De acordo com a Lei Federal nº 13.146/2015, acessibilidade é a possibilidade e condição de alcance para utilização, com segurança e autonomia, de espaços, mobiliários, equipamentos urbanos, edificações, transportes, informação e comunicação, inclusive seus sistemas e tecnologias, bem como de outros serviços e instalações abertos ao público, de uso público ou privados de uso coletivo, tanto na zona urbana como na rural, por pessoa com deficiência ou mobilidade reduzida (BRASIL, 2015). A acessibilidade na web é a possibilidade de qualquer pessoa que apresente alguma deficiência ou necessidade especial ter acesso aos seus recursos. Não se trata apenas de acesso por deficientes; é preciso levar em conta, no desenvolvimento de páginas Web, as diversas situações e características que o usuário pode apresentar (FERREIRA e NUNES, 2008). Em 2008, a W3C criou um guia de recomendações Web Content Acessibility Guidelines (WCAG), que está atualmente na versão 2.0. As diretrizes do WCAG abrangem diversas recomendações com a finalidade de tornar o conteúdo da Web mais acessível para um maior número de pessoas com deficiência (W3C, 2014). Já no Brasil, foi criado em 2005 o Modelo de Acessibilidade em Governo Eletrônico (eMAG), que foi formulado para orientar profissionais que tenham contato com a publicação de informações ou serviços na Internet a desenvolver, alterar e/ou adequar páginas, sítios e portais, tornando-os acessíveis ao maior número de pessoas possível. Atualmente está na versão 3.1, lançada em abril de 2014 (BRASIL, 2014). 33 5.3 Velocidade de carregamento da página Fonte: erichsenwebdesign.com.br O tempo de carregamento da página pode afetar o envolvimento dos visitantes, retenção e taxas de conversão. O carregamento lento de páginas é uma das maiores reclamações dos usuários na Web (WOORANK, 2016). Em 2010, o Google inseriu um novo critério no seu algoritmo de classificação: a velocidade do site. A velocidade consiste no quão rápido o site responde a requisições da Web. A aceleração de sites é importante não só para os administradores, como também para os usuários. Sites rápidos fazem os usuários felizes e facilitam uma boa experiência do usuário. Quando um site responde de forma lenta, os visitantes passam menos tempo nele, diminuindo sua retenção (GOOGLE, 2010). Embora seja importante, a velocidade do site não carrega tanto peso na determinação de relevância do site. Menos de 1% das queries de busca são afetadas nesta implementação. A ideia é incentivar a olhar esse critério não só para melhorar o site na classificação de resultados de busca, mas também para melhorar a experiência do usuário na Web (GOOGLE, 2010). O tempo de espera é um fator crítico de usabilidade na Web (FERREIRA e NUNES, 2008). A maioria das questões de usabilidade está relacionada com o nível comportamental. Os tempos de resposta são um exemplo clássico de 34 uma questão que afeta emoções comportamentais: simplesmente não é confortável sentar e esperar, esperar, esperar (NORMAN, 2008).13 5.4 Atributos importantes para o SEO de um site Um site otimizado, ao longo do tempo, poderá acarretar em tráfego de qualidade, podendo assim gerar melhores negóciosatravés da internet. Dentro do SEO ainda existem alguns atributos importantes neste processo, e a maior parte está diretamente ligado com os conteúdos do site. Antes de nos aprofundarmos melhor neste tema, é importante dar ênfase a dois comandos importantes dentro de uma página: a meta title e meta description. Já abordamos o tema, mas vale reforçar. Nunca deixe de utilizá-las em cada página de seu site, pois elas serão parte fundamental da estratégia. Meta tags são comandos aplicados nos códigos do site, que servem para passar determinadas informações ao Google. Estas áreas não são visíveis aos usuários, apenas o robô do Google consegue identificar tais informações. Existem várias “meta tags”, mas as mais importantes são as title e description. A title informará ao Google o título do conteúdo, utilizado para o SEO, sempre, mencionando a palavra-chave. A description terá a função de informar ao Google o resumo daquela página em questão. Funcionará como uma espécie de sumário. É importante utilizar esses comandos em todas as páginas do site.14 6 FERRAMENTAS PARA ANÁLISE DE SEO Existem diversas ferramentas que ajudam a poupar tempo na realização da otimização do site para ranqueamento nos mecanismos de busca que ajudam o profissional de SEO no dia a dia. 13 Texto extraído do link: http://bsi.uniriotec.br/tcc/textos/201606Ferreira.pdf 14 Texto extraído do link: http://www.rafaelfelipesantos.com.br/wp- content/uploads/2015/07/ebook-8-introducao-a-seo.pdf 35 6.1 Análise da página O mais conhecido Google Webmastes Tools, talvez a mais utilizada pelos profissionais de SEO (https://www.google.com/webmasters/tools). Esta ferramenta oficial do Google lhe fornece excelentes dicas sobre problemas em títulos, meta descriptions, entre outros. Em junho de 2005 o Google apresentou uma nova ferramenta chamada de Google Sitemaps, onde os objetivos da ferramenta eram apenas dois, manter o Google informado de novas páginas na web e atualizações, e aumentar a cobertura de indexação de páginas pelo Google. Já em 2006, o Google Sitemaps foi rebatizado para Google Search Console, onde novas funcionalidades passaram a integrar a ferramenta, como diagnóstico automático de problemas. (ROCK CONTENT, 2016). A instalação e configuração requer algum conhecimento técnico, no entanto é muito simples e fácil. Primeiramente você deve possuir uma conta no Google, e após logado deve adicionar uma propriedade, ou seja, a URL do seu site. Logo após você é direcionado para a próxima página onde o Google lhe fornece diversas formas de confirmar a propriedade do seu site onde podemos ver na figura abaixo. Fonte: riuni.unisul.br 36 Na figura acima podemos ver que o método de configuração apresentado é o recomendado pelo Google, onde você copia e cola o código fornecido pelo Google no painel de controle no site do seu domínio contratado. O Google também fornece métodos alternativos onde é necessário um maior conhecimento técnico, onde fornece tags HTML para serem adicionadas a página inicial do seu site, vincular com o Google Analytics e o gerenciador de tags do Google como podemos visualizar na figura a seguir. Fonte: riuni.unisul.br O Google pode levar cerca de 24 horas para verificar a propriedade do seu site. Feito isso é apresentada a tela inicial com a sua propriedade, e clicando nela você é encaminhado até o painel do Search Console, já com algumas informações do seu site ao centro, e no lado esquerdo as funcionalidades da ferramenta apresentadas na figura a seguir. 37 Fonte: riuni.unisul.br Uma das funcionalidades interessante do Search Console é a Search Analytics, onde é possível saber quais as palavras que as pessoas estão pesquisando no Google para chegar ao seu site, clicando em tráfego de pesquisa e Search Analytics, apresentado na figura a seguir. Fonte: riuni.unisul.br Outra funcionalidade muito interessante e altamente útil do Google Search Console é o Sitemaps. Caso seu site tenha muitas páginas e por algum acaso o Google não indexou todas elas, o Sitemaps irá ajudar neste caso. O Sitemaps é um arquivo XML que você cria do seu site e informa ao Google todas as páginas do seu site para que ele possa indexá-las de forma mais prática, com isso, não 38 há necessidade de você ficar esperando o Google descobrir todas as suas páginas. Este arquivo pode ser criado através de ferramentas grátis disponíveis na internet, como por exemplo, o Sitemap Generator, através do endereço https://www.xmlsitemaps.com/. Na página inicial desta ferramenta basta inserir o endereço do seu site, selecionar a frequência em que você atualiza o conteúdo do site, a última modificação feita no site e a prioridade da URL mencionada relativo a outras páginas do mesmo site, como mostra a figura a seguir. Fonte: riuni.unisul.br Feito isso, basta aguardar o arquivo sitemaps.xml gerado, adicionar o arquivo na pasta raiz do seu site na sua hospedagem e no Google Search Console, no menu rastreamento, Sitemaps, adicionar o caminho do arquivo para enviar, como mostra a figura abaixo. 39 Fonte: riuni.unisul.br Assim, o Google vai descobrir todas as páginas que existem no seu site e irá facilitar a indexação de todas as páginas do seu site. Para melhorias em seu site, outra funcionalidade do Search Console localizado no menu aspecto de pesquisa, melhorias de HTML, o Google informa o que ele identificou no site que poderia melhorar com relação a meta descrição, a tag tittle e algum conteúdo que não foi indexado, como mostra a figura abaixo. Fonte: riuni.unisul.br O Google Search Console é uma ferramenta relativamente fácil, mesmo para usuários iniciantes, possui também ferramentas avançadas, e seu maior mérito é detectar automaticamente melhorias para o seu site figurar entre os primeiros nas pesquisas orgânicas do Google. O mecanismo de pesquisa Bing da Microsoft, lançado em 2009, também possui a sua plataforma para ajudar os webmasters o Bing Webmasters Tools, 40 também fornece várias dicas para otimização, e para alguns profissionais é uma ferramenta mais completa que a do Google. A criação da conta no Big Webmasters Tools requer uma conta na Microsoft, e assim como o Search Console do Google, deve-se adicionar a propriedade e a verificação da propriedade, onde três opções são oferecidas. A primeira, um arquivo BingSiteAuth.xml que deve ser adicionada na pasta raiz do seu servidor Web, a segunda copiando e colando um meta name na tag head da sua página web padrão e a terceira adicionando um registro CNAME ao DNS na sua hospedagem, o requer um conhecimento técnico maior, como mostra a figura a seguir. Fonte: riuni.unisul.br Assim como o Google Search Console, o Bing pode demorar dias, ou poderá ter a verificação de propriedade instantânea, dependendo do método de verificação utilizado, e já começará a fornecer relatórios do site. 41 Feito a configuração é apresentado a página inicial com todas as funcionalidades no menu à esquerda, como mostra a figura abaixo. Fonte: riuni.unisul.br Assim como o Google Search Console, o Bing Webmaster Tools também oferece relatórios, métricas e dados para melhorar o seu site, dicas são exibidas de forma precisa. Sitemaps também são possíveis de serem enviados ao Bing para que agilizem a varredura das páginas do seu site, o bing também oferece pesquisas de palavras – chave, dentre outras diversas funcionalidades também existentes no Google Search Console. Mas o diferencial do Bing Webmaster Tools não presente no Google que é muito útil para usuários iniciantes é o Analisador de SEO, onde basta digitar a URL do site que dentro de alguns segundos o Bing realiza uma varredura no seu site, indicando onde encontrouerros e prontamente orientando como corrigi-los, como mostra a figura a seguir. 42 Fonte: riuni.unisul.b Sem dúvida as duas ferramentas para análise de SEO são sensacionais e muito completas. A ferramenta Google Serach Console leva vantagem por justamente ser a ferramenta do Google, integrada com todas as outras ferramentas de marketing digital do Google, tendo o seu mecanismo de busca o mais utilizado pelos usuários da internet do mundo inteiro, no entanto a ferramenta da Microsoft Bing Webmaster Tools apresentou um diferencial que tornou a ferramenta um pouco mais completa e interessante que a do Google. O analisador de SEO apresentado anteriormente surpreende pelos resultados apresentados de forma instantânea e é muito útil para usuários iniciantes. O quadro a seguir traz um comparativo dos quesitos avaliados, mostrando os melhores aspectos de cada ferramenta. Fonte: riuni.unisul.br Outra ferramenta bastante interessante é a Screaming Frog, ela varre o site para ler todas as informações contidas nele, podendo encontrar problemas 43 de redirecionamento, falta de alt text em imagens, documentos duplicados, entre outros. Já a ferramenta Pagespeed Insights, é utilizada para avaliar o tempo de carregamento e otimizações em HTML/CSS/JS de uma página.15 15 Texto extraído do link: https://www.riuni.unisul.br/bitstream/handle/12345/2006/Vers%C3%A3o%20Final%20Ki ev%20Maia%20TCC%202016.pdf?sequence=1 44 BIBLIOGRAFIA BATISTA, T. O que são palavras-chave e por que se fala tanto sobre elas no marketing de conteúdo. 2015. BRASIL. e-MAG – Modelo de Acessibilidade em Governo Eletrônico. 2014. BRASIL. Lei nº 13146, de 6 de Julho de 2015. Institui a Lei Brasileira de Inclusão da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência). CAVALLINI, Ricardo. O Marketing depois de amanhã. São Paulo: Ed. do Autor, 2008. COUTINHO, Clara Pereira; BOTTENTUIT JUNIOR, João Batista. Blog e Wiki: Os Futuros Professores e as Ferramentas da Web 2.0. 2007. FERREIRA, S. , NUNES, R. e-Usabilidade. 1ª ed. Rio de Janeiro, LTC Editora, 2008. GOOGLE. Saiba mais sobre sitemaAs. Disponível em: <https://support.google.com/webmasters/answer/156184?hl=pt-BR>. GRAPPONE, J.; COUZIN, G. Search Engine Optimization: An Hour a Day. Indianapolis: Wiley Publishing, 2006. GSC. Google Search Console. O que é o Search Console. Disponível em: <https://support.google.com/webmasters/answer/4559176?hl=ptBR&ref_topic= 3309469> JERKOVIC, J. I. SEO Warrior. 1ª ed. California, O'Reilly Media, 2010. ISO 9241-11. Ergonomic requirements for office work with visual display terminals (VDTs) – Part. 11: Guidance on usability. 1998. KOTLER, Philip. Administração de marketing: a edição do novo milênio. Trad. Bazán Tecnologia e Linguística; Rev. Arão Sapiro. São Paulo: Prentice Hall, 2000. LEDFORD, Gerri. SEARCH ENGINE OPTIMIZATION BIBLE, 2nd edition. Wiley Publishing, 2009. 45 MARCEL, Frank. SEO: Navegação para visitantes e buscadores. [7 de julho de 2008] Disponível em: < http://www.mestreseo.com.br/usabilidade/seo- navegacao-visitantesbuscadores>. NORMAN, D. A. Design Emocional: por que adoramos (ou detestamos) os objetos do dia-a-dia. 1ª ed. Editora Rocco, São Paulo. 2008 OGDEN, J. R.; CRESCITELLI, E. Comunicação integrada de marketing: conceitos, técnicas e práticas. James R. Ogden, Edson Crescitelli; tradução Cristina Bacellar. 2ª Ed. São Paulo: Pearson Prentice Hall, 2007. PRINGLE, G., ALLISON, L., & DOWE, D. L. 1998. What is a tall poppy among web pages? Elsevier Science Publishers B. V.,Proceedings of the seventh international conference on World Wide Web 1998., 7, 369–377. ROCK CONTENT. O guia completo do Google Search Console. 2016. SCHULTZE, B. Title Tag – Importância para SEO. 2013. Disponível em: < http://www.seomarketing.com.br/title-SEO.php>. THUROW, S. Search Engine Visibility. 1st ed. New Riders Publishing, 2003. TORRES, Cláudio. A Bíblia do Marketing Digital. São Paulo: Novatec Editora, 2009. TORRES, G.; COZER, A. Alavancando Negócios da Internet. Rio de Janeiro: Axcel Books, 2000. W3C. Web Content Acessibility Guidelines (WCAG) 2.0. 2014. WOORANK. Disponível em: <www.woorank.com/pt>
Compartilhar