Buscar

ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO FREITAS E JANISSEK 2000

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 178 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 178 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 178 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Freitas & Janissek – Análise léxica e Análise de conteúdo – p.1 
 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.2 
 
 
 
 
ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO: 
 
Técnicas complementares, sequenciais e recorrentes 
para exploração de dados qualitativos 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.3 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Sphinx ® – sistemas para pesquisas e análises de dados 
 
Sphinx Consultoria - Distribuidor EXCLUSIVO do Sphinx 
Único certificado e autorizado SPHINX na América Latina 
 
tel/fax: 0xx51-4773610 
e-mail: sphinx@portoweb.com.br 
http://www.sphinxbr.com.br 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.4 
 
 
 
 
 
ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO: 
 
Técnicas complementares, sequenciais e recorrentes 
para exploração de dados qualitativos 
 
 
 
Henrique Freitas & Raquel Janissek 
 
 
 
2000 
 
 
 
 
 
 
 
 
Distribuição: Sphinx ® 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.5 
 
 
Supervisão gráfica: terceirizada 
Capa: Fernando K. Andriotti, Maurício G. Testa e André Panisson 
Edição: Fernando K. Andriotti 
Impressão: Gráfica La Salle. 
 
 
Dados internacionais de Catalogação na Publicação (CIP) 
(Câmara Brasileira do Livro, SP, Brasil) 
 
 
FREITAS, Henrique Mello Rodrigues de. 
 Análise léxica e análise de conteúdo: técnicas complementares, 
sequenciais e recorrentes para exploração de dados qualitativos / 
Henrique Mello Rodrigues de Freitas e Raquel Janissek. Porto 
Alegre: Sphinx: Editora Sagra Luzzatto, 2000. 
 176 p.: il. 
 
 
Bibliografia: 85-241-0637-9 
 
1. Metodologia da Pesquisa. 2. Técnicas de pesquisa. 3. Análise 
de Dados: pesquisa. I. Janissek, Raquel . II. Título 
 
 
 
 
Índice para catálogo sistemático: 
1. Pesquisa e métodos – 001.4 
2. Ciências sociais – 306.3 
3. Análise de dados – 001.642 
 
© Henrique Freitas & Raquel Janissek 
Todos os direitos estão reservados à Sphinx ® 
 
Impresso em Junho 2000. 
Também disponível via Internet (http://www.sphinxbr.com.br e 
http://www.adm.ufrgs.br/professores/hfreitas). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.6 
 
 
Agradecimentos 
 
Esta iniciativa teve origem na discussão entre professores da 
Escola de Administração sobre o que deveria ou não ser feito como 
análise de dados em um determinado estudo. O resultado, 
demonstrado neste documento, expressa nossa convicção na resposta 
que deveria ser aportada. A eles, pela provocação, nosso 
agradecimento especial! 
Esta realização só foi possível com o apoio da Sphinx 
Consultoria-Canoas RS, bem como da Escola de Administração da 
UFRGS e do Gesid-PPGA/EA/UFRGS. Em especial, nossa equipe de 
suporte (Fernando Kuhn Andriotti e outros bolsistas). 
Ao doutorando Jorge Audy (PPGA/EA/UFRGS), agradecemos 
a leitura e crítica da versão preliminar, bem como o prefácio do ponto 
de vista de quem necessita recorrer a este tipo de conhecimento aqui 
elaborado. 
Agradecemos em especial aos parceiros franceses de 
concepção e desenvolvimento de sistemas para análises de dados 
quanti-qualitativos, professores Jean Moscarola (Annecy) e Yves 
Baulac (Grenoble), pelas discussões intelectuais e pela motivação, 
sobretudo pela parceria promissora e sua amizade. 
Nossas famílias certamente são nossas fontes de energia, e 
merecem nosso agradecimento especial. 
 
Henrique Freitas & Raquel Janissek 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.7 
 
 
 
Sumário 
 
 
 
Apresentação .............................................................................................................. 8 
Prefácio dos Autores ................................................................................................... 9 
Dados dos Autores .................................................................................................... 11 
Prefácio ..................................................................................................................... 12 
1. Explorando dados textuais para identificar oportunidades e antecipar problemas 13 
2. Dados qualitativos: problemas e questões inerentes à sua coleta e análise .......... 16 
3. Análise quali ou quantitativa de dados textuais? .................................................. 22 
3.1. A Análise Léxica .......................................................................................... 32 
3.2. A Análise de Conteúdo ................................................................................. 38 
4. Aplicações de análise qualitativa em gestão e em sistemas de informação .......... 64 
5. Ferramentas para Análises Léxica e de Conteúdo ................................................ 70 
6. Aplicação de análise de dados qualitativos: pesquisa sobre internet e negócios . 78 
6.1. As questões abertas da pesquisa.................................................................... 80 
6.2. Como analisar os dados qualitativos? ........................................................... 84 
6.3. Análise léxica dos dados abertos da pesquisa: palavras e expressões .......... 88 
6.4. Análise de Conteúdo das questões abertas .................................................. 109 
6.5. Aprofundando a análise de dados através da Análise de Correspondência . 134 
7. Considerações Finais .......................................................................................... 140 
8. Referências bibliográficas .................................................................................. 144 
Índice Remissivo .................................................................................................... 149 
Índice de Autores .................................................................................................... 155 
Apêndice - Sistema Sphinx® para pesquisas e análises de dados ........................... 157 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.8 
 
 
Apresentação 
 
O diferencial proporcionado pelos métodos, bem como a 
isenção conferida pelo pesquisador que respeita estes métodos, 
retratam as diferenças das competências e das intenções em uma 
pesquisa. Todo profissional deve desenvolver habilidades e dominar 
sistemas, técnicas e métodos inerentes à necessidade por construção 
de conhecimento a partir de dados disponíveis de uma ou outra forma 
dentro do seu contexto de atuação. Mostra-se que é viável, com o 
auxílio de instrumental adequado, explorar dados quanti-qualitativos e 
produzir informações consistentes que possam trazer respostas ágeis a 
muitos questionamentos que surgem no dia-a-dia de uma organização 
e mesmo no trabalho do profissional de pesquisa. 
Com o uso de dados qualitativos, seja de que natureza for, 
pode-se ter a chance de identificar oportunidades ou antecipar 
problemas de forma bem mais pontual, precisa e com um custo 
operacional bem menor. Existem várias técnicas de coleta e de análise 
de dados que permitem capturar automática e quase gratuitamente 
dados qualitativos. 
Além disso, esse tipo de dado pode ser explorado mais de uma 
vez, constituindo-se numa fonte diferenciada para a geração denovos, 
diferentes e curiosos dados, os quais podem ser produzidos 
diretamente pelo pesquisador. 
Este livro demonstra algumas técnicas para realizar análise de 
dados textuais, em especial as análises léxica e de conteúdo, buscando 
repassar ao leitor condições para uma investigação prática e eficaz. 
Estas técnicas são apresentadas enfatizando o seu uso em conjunto. O 
pesquisador ou analista tem, nelas, diferentes recursos que permitem a 
exploração adequada dos dados, através de procedimentos 
sistematizados. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.9 
 
 
Prefácio dos Autores 
Este livro propõe uma abordagem para a condução de análises 
de dados qualitativos. Nosso propósito é descrever caminhos para o 
uso conjunto de diferentes técnicas de análises de dados. Em 
particular, são apresentadas as idéias de complementaridade, 
recorrência e sequencialidade do uso das análises léxica e de 
conteúdo, abordando diferentes aspectos metodológicos para a 
exploração mais criteriosa da análise de dados qualitativos. 
Esta iniciativa nasceu de nossa compreensão de que diversos 
pesquisadores pensam, de forma equivocada, que a escolha deve 
recair sobre uma ou outra técnica. Ora, a riqueza de análise só pode 
ser atingida com a variação e a aplicação conjunta de diferentes 
técnicas! 
Mostra-se em detalhe a utilização de métodos e técnicas para o 
desenvolvimento de análises de dados qualitativos, bem como são 
desenvolvidos exemplos - passo a passo - de como realizar tais 
análises. Para tal, utiliza-se uma pesquisa essencialmente qualitativa 
(com entrevistas em profundidade) para demonstrar a forma de 
implementar as idéias aqui propostas. 
Ao mesmo tempo, uma revisão da literatura pertinente, 
nacional e internacional, é apresentada, assim como são evocados 
exemplos de aplicações deste tipo de análise na área de gestão e 
sistemas de informação. Além disso, algumas ferramentas que podem 
ser utilizadas para este tipo de análise são ilustradas, em especial o 
sistema Sphinx Léxica ®. 
Nosso intuito é, sobretudo, fornecer aos gerentes, 
pesquisadores, professores e alunos de diversos níveis de formação, 
recursos que permitam a exploração adequada de dados qualitativos, 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.10 
 
 
através de procedimentos sistematizados que assegurem a qualidade e 
mesmo originalidade das descobertas. 
Enfim, quando as pessoas e as organizações começam a prestar 
atenção nos telefonemas que recebem, nas sugestões e reclamações da 
clientela ou de fornecedores, e quando a academia começa a valorizar 
bem mais as questões subjetivas em harmonia com aquelas em 
demasia objetivas, temos firme convicção da potencial contribuição 
deste trabalho. 
 
 
 
A todos, bom proveito! 
 
Henrique Freitas & Raquel Janissek 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.11 
 
 
Dados dos Autores 
 Henrique Freitas é Professor Adjunto da Escola de 
Administração da UFRGS (desde 1994), onde integra a equipe do Gesid-
PPGA/EA/UFRGS (Grupo de Estudos em Sistemas de Informação e apoio à 
Decisão do Programa de Pós-Graduação em Administração). É, desde 1993, 
Pesquisador 2A CNPq, onde já coordenou e realizou diversos projetos. 
Cursou Economia na UFRGS (1982), Especialização em Análise de sistemas 
na PUCRS (1983), Mestrado em Administração na UFRGS (1989), 
Doutorado em gestão na Université de Grenoble 2 – França (1993) e Pós-
doutoramento em sistemas de informação na University of Baltimore (MD, 
EUA, 1997-98). Já orientou 4 teses de doutorado e 17 dissertações de 
mestrado e orienta, atualmente, 2 doutorandos e 12 mestrandos. Publicou 3 
livros e dezenas de artigos nacionais e internacionais, é coordenador 
nacional da área de Administração da informação da ANPAD e integra o 
comitê editorial do Journal of AIS. Desde 1989, em parceria com Jean 
Moscarola e Yves Baulac, coopera na melhoria dos Sistemas Sphinx. 
e-mail: hfreitas@portoweb.com.br 
http://www.adm.ufrgs.br/professores/hfreitas 
 
 Raquel Janissek é Analista de Sistemas. Cursou Informática na 
UNIJUI (1995) e Mestrado em Administração: Sistemas de Informação – 
Gesid-PPGA/EA/UFRGS (2000). A partir de setembro de 2000, dando 
continuidade ao trabalho de cooperação do Prof. Henrique Freitas com a 
equipe do Prof. Humbert Lesca, inicia seu Doutorado em Sistemas de 
Informação na Université Pierre Mendes France - Grenoble 2 (França). De 
1996 a 1999, foi professora de Análise de Sistemas e Informática na 
Universidade Regional Integrada (URI), onde coordenou o Estágio 
Supervisionado do Curso Técnico em Informática e orientou trabalhos de 
conclusão de cursos. A partir de 2000, integra a equipe de suporte eletrônico 
dos usuários Sphinx, bem como coopera no desenvolvimento dos produtos e 
sistemas. 
e-mail: raquelj@portoweb.com.br 
http://www.missoes.com.br/raquel 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.12 
 
 
Prefácio 
O uso de métodos qualitativos em pesquisa na área de SI tem 
crescido nos últimos anos. Esta abordagem aprofunda-se no mundo 
dos significados das ações e relações humanas, um dado pouco 
perceptível ou captável pelos métodos quantitativos. 
O grande desafio para os pesquisadores da área está pois 
relacionado com a análise de dados em uma pesquisa cada vez com 
base mais qualitativa. 
Este livro, oferecido pelos professores Henrique e Raquel, é 
uma significativa contribuição na busca de uma resposta para este 
desafio, avaliando algumas das principais abordagens de análise de 
dados e propondo uma sistematização clara e operacional para a 
exploração de dados qualitativos, em especial na área de SI. Contudo, 
pela escassez de literatura em língua portuguesa, e mesmo pela 
qualidade e clareza do material produzido, este é um documento 
certamente útil para todos pesquisadores das diferentes áreas de 
Administração, e mesmo das Ciências Sociais. 
Particularmente, como pesquisador envolvido na realização de 
uma tese de doutorado, na qual devia explorar dados coletados em 
diversas entrevistas em profundidade, a literatura e os exemplos aqui 
resgatados e relatados em detalhe me foram de grande valia. 
 
Jorge Audy 
Doutorando Gesid/PPGA/EA/UFRGS 
Professor Informática/PUCRS 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.13 
 
 
 
1. Explorando dados textuais para identificar oportunidades e 
antecipar problemas 
A realização de pesquisas acadêmicas ou profissionais tem 
cada vez mais desafiado os analistas e pesquisadores visto que a 
objetividade dos dados coletados em uma pesquisa não é mais 
condição suficiente para a compreensão de um fenômeno (como por 
exemplo a opinião de um certo público, satisfação do cliente, 
resistência dos usuários finais de uma tecnologia recentemente 
adotada). De fato, a subjetividade é que vai permitir explicar ou 
compreender as verdadeiras razões do comportamento ou preferência 
de um certo grupo por algum produto, sistema, serviço, etc. A questão 
inerente é a de como o pesquisador, o analista, ou mesmo o gerente ou 
executivo poderia realizar tal tipo de análise ou exploração de dados. 
Ora, qual seria o gerente que não gostaria de – rapidamente – 
percorrer todos os dados captados através de uma linha 0800, como a 
do serviço de suporte, a de help desk ou outro, e se dar conta das 
principais reclamações ou sugestões atuais dos seus clientes? Não 
seriaeste tipo de dado, que fica esquecido, engavetado ou nem mesmo 
pensado como um recurso, uma fonte nobre de dados gerados sem 
nenhum custo adicional para a organização? 
Da mesma forma, como poderia este mesmo gerente ousar 
pensar nisso se ele nem imagina que existam métodos e técnicas para 
tal? Ele pode muito bem imaginar uma pesquisa onde os clientes 
dizem se estão ou não satisfeitos com os serviços prestados numa 
escala de totalmente satisfeitos a totalmente insatisfeitos, mas não se 
dá conta talvez que poderia saber disso sem mesmo ter que indagar 
aos clientes. De fato, a técnica quantitativa e supostamente bem 
dominada aporta um tipo de resposta que é em diversos casos 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.14 
 
 
superficial no sentido que não permite uma qualificação ou um 
refinamento da opinião. No final, isto pode mesmo ser mais oneroso, 
pois quando os procedimentos de pesquisa são estabelecidos de 
maneira formal, há um viés natural na resposta oferecida pelas pessoas 
ou clientes, e o que se tem de volta são quantidades. Ao passo que, 
usando dados qualitativos, opiniões mais abertas, espontâneas ou 
mesmo – e porque não principalmente – aquelas coletadas de forma 
indireta (como a do setor de pós-venda ou de atendimento ao cliente), 
pode-se ter a chance de identificar oportunidades ou antecipar 
problemas de forma bem mais pontual, precisa e com um custo 
operacional bem menor, ainda por cima a partir da exploração de um 
dado completamente espontâneo, não induzido de forma alguma. 
Não são só as técnicas de coleta e de análise quantitativa de 
dados que foram aperfeiçoadas com o tempo. Hoje em dia, são 
factíveis e diversas as formas e tecnologias de se capturar automática 
e praticamente gratuitamente dados qualitativos (subjetivos, textos 
enfim) que nos denotem as preferências e comportamentos de um 
certo grupo de pessoas. Os procedimentos, métodos e ferramentas que 
possibilitam isso são cada vez mais presentes na literatura e no 
mercado. Há todo um leque de possibilidades que pode ser utilizado 
(WEITZMAN e MILES, 1995; FREITAS, MOSCAROLA e CUNHA, 
1997 e MOSCAROLA, 1990). 
O que existe, contudo, é uma confusão conceitual ou mesmo 
prática sobre em que consistem e mesmo de como essas técnicas e 
ferramentas poderiam ser utilizadas. Em que implica cada uma delas? 
Como se poderia aplicar e explorar em benefício próprio cada uma 
delas? Enfim, há mesmo uma ignorância sobre a existência da análise 
léxica e da análise de conteúdo1, sobre as distintas finalidades de uma 
e outra. Há ainda uma idéia equivocada de que se deve escolher uma 
 
1 WEBER (1990, p.9) define Análise de Conteúdo como um método de pesquisa que utiliza um 
conjunto de procedimentos para tornar válidas inferências a partir de um texto. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.15 
 
 
OU outra para uma dada análise ou exploração de dados, quando na 
verdade os autores procuram neste livro demonstrar que pesquisadores 
acadêmicos ou analistas em geral DEVEM ter uma clara visão das 
vantagens em explorar estes recursos de análise de forma sequencial, 
recorrente e sobretudo complementar. 
Na sequência, faz-se uma discussão sobre o valor e 
importância da coleta e análise de dados qualitativos (seção 2). Logo 
após, na seção 3, apresentam-se definições conceituais de análise 
léxica e de análise de conteúdo. A seção 4 evoca exemplos da 
literatura e de pesquisas realizadas recorrendo a estas técnicas, e a 
seção 5 levanta e indica ferramentas disponíveis para tal. Em função 
do foco deste livro, a seção 6 detalha uma pesquisa essencialmente 
qualitativa, explorando as duas técnicas em questão na análise de 
dados coletados em entrevistas estruturadas (com guia de entrevista), 
buscando-se ser didático e ilustrar passo a passo a sua aplicação. 
Finalmente, na seção 7, faz-se uma reflexão final sobre o uso 
potencial destas análises no dia-a-dia das organizações, bem como no 
contexto de pesquisa acadêmica. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.16 
 
 
2. Dados qualitativos: 
problemas e questões inerentes à sua coleta e análise 
Não obstante as colocações recém realizadas, tentando olhar de 
forma mais precisa um processo de pesquisa qualquer, vai-se notar 
que dificilmente ele deixa de recorrer a mais de uma técnica de coleta 
de dados, bem como mais de uma fonte, fazendo inclusive recurso a 
diferentes técnicas de análise de dados. É pois tempo de método 
múltiplo de pesquisa, onde o pesquisador ou o analista comercial, 
financeiro, etc, tem cada vez mais e mais clara a necessidade de estar 
em contato com diferentes visões das situações reais. E isto 
utilizando-se de fontes de dados e de técnicas diversas, levando em 
consideração o rigor das pesquisas. Isto só reforça o valor, utilidade e 
oportunidade de se abordar de forma mais organizada e mesmo 
didática as técnicas e ferramentas no que se refere a dados 
qualitativos. 
Cada vez mais forte é a tendência de que uma pesquisa 
quantitativa, mais objetiva, deve ser precedida de uma atividade mais 
subjetiva, qualitativa, que permita melhor definir o escopo e a forma 
de focar o estudo. Também tem sido consenso que, mesmo sendo 
objetiva em sua essência, sempre se pode recorrer a algum tipo de 
opinião mais espontânea ou aberta, de forma a captar ‘um algo mais’ 
da parte do respondente. Tudo isto valoriza a questão de como se 
tratar questões ditas qualitativas. Tais debates foram objetos de 
recente congresso internacional (LEE, LIEBENAU e DEGROSS, 
1997). A estratégia de uso de questões abertas ou fechadas num 
instrumento é debatida por LEBART e SALEM (1994, p.25-28). 
Além disso, nas pesquisas, de forma geral, uma etapa pouco 
valorizada ou um tanto negligenciada é a de preparação de dados: há 
todo um esforço para que os dados sejam coletados, de forma que não 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.17 
 
 
se dispõe de muito tempo quando os dados poderiam e deveriam ser 
analisados a fundo, em termos de significado e implicações. Ocorre 
que, antes de analisar os dados e cruzá-los das mais diferentes formas 
na busca por relações causais ou possíveis explicações para hipóteses 
previamente formuladas, é necessário que sejam preparados certos 
tipos de dados. Exemplos disso podem ser dados objetivos e 
numéricos como a idade e o salário, na busca por faixas etárias e 
salariais adequadas para os cruzamentos posteriores a serem 
realizados (pode-se gerar novos dados escalares a partir dos 
numéricos). 
Da mesma forma, é necessário um investimento (mais de 
tempo de análise do que outro recurso) para que sejam criadas 
categorias pertinentes e claras a partir de dados tipo texto, ou seja, 
efetivamente qualitativos. Um exemplo pode ser a criação de um dado 
novo a partir de uma questão texto que poderia ser “quais as sugestões 
que você apresentaria para a melhoria dos nossos serviços?” ou então 
mesmo “quais as principais reclamações que você poderia 
apresentar?”. Normalmente, pesquisadores e analistas desavisados ou 
talvez despreparados ou inadvertidos sobrecarregam suas pesquisas 
com questões abertas, criando uma expectativa em quem responde, a 
qual se torna ‘falsa expectativa’, visto que tais respostas nunca serão 
tabuladas e avaliadas como se deveria. Logo, o aprendizado que tal 
conteúdo permitiria não será jamais produzido. Cuidado especial é 
necessário no sentidode não se abusar de questões abertas num 
instrumento de pesquisa, pois seu excesso exige que o respondente se 
concentre bem mais que o normal: ele poderá pois ficar 
gradativamente desatento nas suas respostas e mesmo se desinteressar 
pelas questões posteriores. 
Cria-se pois uma falsa de idéia de que um dado espontâneo 
como esse dos exemplos recém evocados deve ser analisado uma só 
vez, quando ele poderia ser uma fonte bastante grande e diferenciada 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.18 
 
 
para a geração de novos, diferentes e curiosos dados. Esta geração de 
novos dados a partir de um dado texto pode emergir do próprio texto 
de cada respondente, como uma lista mais objetiva de sugestões ou de 
reclamações (no caso dos dois exemplos citados). Mas tal fonte de 
dados também pode ser objeto de um julgamento a partir de critérios a 
priori adotados pelo gerente, analista ou pesquisador, como por 
exemplo gerar um indicador de satisfação a partir da simples leitura 
das sugestões ou das reclamações emitidas pelo respondente. Ou seja, 
ao invés de perguntar se o cliente está muito ou pouco satisfeito, o 
avaliador poderia ler cada uma das respostas emitidas e registradas e 
iria ele próprio julgar se o respondente está ou não satisfeito. Isto é 
claro de forma subjetiva, contudo, muitas vezes este dado poderá ser 
melhor considerado para fins de análise. Ou seja, a um dado aberto e 
espontâneo, devem corresponder n dados objetivos, gerados seja pela 
análise e identificação gradativa de um protocolo (como a lista de 
sugestões que se faz emergir do texto), seja pela avaliação da opinião 
de cada pessoa em relação a um protocolo ou mesmo escala de medida 
preparada pelo analista (como por exemplo ‘satisfeito’ ou 
‘insatisfeito’). 
Além disso, um ponto importante diz respeito à definição de 
quem deveria realizar as análises (e quem finalmente as realiza!): 
normalmente, solicita-se a um terceiro (aluno, auxiliar, etc) para 
realizar esta única codificação, quando ela poderia ser rica em 
aprendizado caso feita pessoalmente pelo analista ou pesquisador. 
Esta atividade exige a leitura de cada uma das respostas, gerando, 
neste processo, novas idéias de análise e uma riqueza de compreensão 
e percepção sem iguais para o analista responsável. Este seria um 
motivo forte para que se repense cada decisão ou solicitação de 
codificação a terceiros: a pessoa está implicada no processo? Conhece 
o métier ou contexto pesquisado? Tem engajamento ou 
responsabilidade em relação ao objeto pesquisado? Sobretudo, tem 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.19 
 
 
como associar a sua tarefa isolada de codificação a todo resto do 
processo e atividades desse projeto? Terá a iniciativa de sugerir novas 
dimensões de análise identificadas no decorrer da própria atividade de 
codificação? Talvez seja melhor arrumar uma resposta adequada a 
estas questões ou então de fato decidir que o pesquisador se 
responsabilizará pela realização da tarefa ou pela supervisão estreita 
desse processo. 
Normalmente, uma codificação derivada de uma análise vai 
gerar um novo dado de múltipla escolha (das diversas categorias 
criadas, algumas serão marcadas para cada resposta emitida por cada 
respondente). Este novo dado retratará de forma bem mais objetiva o 
conteúdo de cada opinião ou resposta. A construção das opções ou 
categorias desse novo dado gerado deve ser realizada segundo certas 
regras, de forma a se poder ter confiança na sua coerência, 
consistência, força enfim. Entretanto, muito da prática empresarial que 
se tem podido observar (em contato com institutos de pesquisa por 
ocasião de assessorias de tecnologia ou método) mostra que pessoas 
não tão bem preparadas realizam tal função. Ocorre que tal novo dado 
vai ser certamente a base para decisões estratégicas ou operacionais 
importantes para a organização envolvida. Logo, é de extrema 
importância a adequada e mesmo rigorosa formulação destas 
categorias. De fato, cada categoria pode implicar em n ações 
empresariais, que exigirão alocação de recursos, etc., ou seja, as 
implicações das corretas definições de categorias podem ser enormes 
para a organização. Caso as categorias não sejam pertinentes, todas 
análises, decisões e ações estarão igualmente comprometidas. Não é 
esta uma atividade para ser realizada com adivinhações ou 
amadorismos de qualquer sorte. Conceitos, técnicas, métodos e 
ferramentas são em muito necessários. É então fundamental que se 
desenvolva um conjunto de diretrizes ou procedimentos que possam 
ser seguidos: tal é o objetivo deste livro, com o exemplo desenvolvido 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.20 
 
 
na seção 6 e com os conceitos e ferramentas abordados na seção 3 e 5, 
respectivamente. 
A preparação e análise de dados provenientes de pesquisas ou 
captura de dados, sejam eles qualitativos ou quantitativos, passa então 
pela identificação e categorização adequada dos seus conteúdos, na 
busca pela produção de conhecimentos e identificação de relações que 
nos permitam avançar na compreensão dos fenômenos investigados. 
Esta busca por informações consistentes, relevantes e fidedignas 
requer tempo e dedicação por parte do analista ou pesquisador, no 
intuito de gerar resultados que traduzam a realidade ou contexto 
estudado. Entretanto, não raro estas análises levantam dúvidas quanto 
à efetividade dos termos e resultados obtidos, especificamente pela 
não sistematização da sequência de análise dos dados ou por outros 
motivos, como a inadequação do próprio perfil ou preparação de quem 
analisa, como recém evocado. Ainda, há toda uma polêmica sobre a 
legitimidade de se ter somente uma pessoa responsável por uma dada 
codificação: seria válida tal categorização? Por quê? Seria necessário 
se ter mais de uma pessoa a codificar? Será que realmente esta 
segunda pessoa aportaria um ganho de qualidade na codificação 
realizada? Será que ela estaria engajada o suficiente no mesmo 
processo de forma a contribuir? Será ainda que este engajamento seria 
condição importante? Será que tal esforço e mesmo gasto de tempo 
seria necessário e mesmo compensador? Tendo-se uma segunda 
pessoa, seria então esperado que se pudesse confrontar as categorias 
criadas por cada um, consolidá-las num só conjunto (após discussão 
de cada discordância), e, além disso, comparar uma a uma cada uma 
das marcações (para cada resposta, cada dos 2 avaliadores ou analistas 
marcaria as categorias que julga que ali se manifestaram implícita ou 
explicitamente), dando-se conta do que fecha e do que não fecha em 
termos de classificação das categorias para cada uma das respostas de 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.21 
 
 
cada respondente. É também nosso objetivo apresentar – na sequência 
- algumas posições sobre essas colocações. 
O uso de técnicas de análise de dados qualitativos é pois um 
tema de crescente interesse e importância no campo da gestão e da 
informação. Este documento contribui colocando a questão da 
complementaridade das técnicas de análise léxica e de análise de 
conteúdo, evocando exemplos da literatura e sobretudo apresentando 
didaticamente um exemplo no qual aplica estes conceitos e técnicas. 
Nossa proposta – reforce-se - é de que as duas técnicas sejam 
utilizadas de forma sequencial (uma após a outra), recorrente (pode-
se ir e vir, deve-se mesmo ir e vir de uma a outra) e complementar 
(elas não são excludentes,ou seja, não se deve escolher uma ou outra, 
deve-se adquirir finalmente a visão, a consciência de que os recursos 
de ambas são excelentes ferramentas na mão do analista e que ele 
deve fazer bom uso e não isolar uma em detrimento de outra). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.22 
 
 
3. Análise quali ou quantitativa de dados textuais? 
A busca por informações consistentes e válidas não deve se 
deter somente nos dados estruturados, puramente quantitativos, tal 
qual os imagina-se - na forma de clássicas planilhas, relatórios 
volumosos, números, percentuais e gráficos: cada vez mais precisa-se 
recorrer aos dados de natureza qualitativa, como textos, discursos, 
entrevistas, trechos de livros, reportagens, etc. Dados estes que 
envolvem elementos que muitas vezes desafiam a astúcia do 
pesquisador ou do homem de negócios, pois escondem em suas 
entrelinhas posicionamentos, opiniões, perfis, que exigem uma leitura 
atenta e ferramentas que possibilitem chegar com maior rapidez 
(condição de sobrevivência) às informações realmente pertinentes 
(POZZEBON e FREITAS, 1996; LESCA, FREITAS e CUNHA, 
1996; LESCA, FREITAS, POZZEBON, PETRINI e BECKER, 1998). 
Deve-se poder ir do dado bruto ou puro ao dado elaborado, via 
interpretação, análise e síntese, e, a partir disso, por uma constatação 
ou curiosidade, poder rapidamente aprofundar a investigação, 
eventualmente voltando à fonte e ao dado bruto como recurso mesmo 
de sustentação de argumento ou simplesmente de ilustração. 
É importante explorar e sobretudo cruzar de todas as formas 
possíveis dados quantitativos e qualitativos (Figura 1 - FREITAS, 
2000) para a geração de idéias, a verificação de hipóteses, a 
elaboração de conclusões ou indicação de planos de ação, etc. O uso 
de técnicas qualitativas x quantitativas, tanto para coleta quanto 
análise de dados, permitem, quando combinadas, estabelecer 
conclusões mais significativas a partir dos dados coletados, 
conclusões estas que balizariam condutas e formas de atuação em 
diferentes contextos. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.23 
 
 
A abordagem literária, dita qualitativa, mais associada às 
técnicas de análise léxica e de conteúdo (abordadas nas seções 3.1 e 
3.2), pressupõe a análise de poucas fontes ou dados, num 
procedimento exploratório ou de elaboração de hipóteses. A 
abordagem mais científica, dita quantitativa, pressupõe grande 
quantidade de dados num procedimento de confirmação de hipóteses. 
Há necessidade de se tratar do quantitativo, enriquecendo-o com 
informações qualitativas em grande número, de forma a ganhar força 
de argumento e qualidade nas conclusões e relatórios: o desafio é a 
busca da associação entre o quantitativo e o qualitativo, onde, por 
exemplo, o procedimento exploratório ganha força, visto que se 
poderá multiplicar os dados tratados, reforçando sobremaneira (e 
mesmo garantindo o ‘bom caminho’) o procedimento confirmatório. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.24 
 
 
 
 
 
 
 
Figura 1 - O desafio de associar qualitativo e quantitativo (FREITAS, 2000) 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.25 
 
 
Segundo KELLE (1995, p.15), "espera-se que as forças de 
ambas abordagens possam se reforçar mutuamente: a 
intersubjetividade e a fidedignidade ou confiabilidade providas pela 
informação padronizada derivada de amplas amostras, por um lado, e 
o conhecimento íntimo de um simples caso ou passagem de um texto 
adquirido pela análise interpretativa, por outro lado. A questão 
essencial nesse tipo de análise seria como transformar o significado da 
análise textual numa matriz de dados quantitativa, isto de maneira 
didática e sistemática". 
A utilidade da combinação destes métodos tem sido assunto 
discutido fortemente na comunidade acadêmica internacional 
(MASON, 1997; LEE, LIEBENAU e DEGROSS, 1997), 
apresentando-nos grande variedade de aspectos a serem levados em 
conta quando da formulação de questões com vistas à obtenção e 
análise de dados, sejam eles qualitativos x quantitativos, sejam eles 
diretos x indiretos, abertos ou fechados. É tempo de seguir em frente 
com mais estudos qualitativos (MILES e HUBERMAN, 1997), e 
educar nossos gerentes, começando pelas nossas crianças, que o 
mundo não é somente quantitativo, e sim qualitativo. Pelo menos, que 
bom estudo quantitativo não deveria ser precedido por um qualitativo? 
CRESWELL (1998), e também KIRK e MILLER (1986) oferecem-
nos alguns conceitos e discussões a respeito de pesquisa qualitativa e 
principalmente sobre confiabilidade (ou fidedignidade) e validade 
desse tipo de estudo. Da mesma maneira, a revista MIS Quarterly 
(v.21, no.3, September 1997) publicou 3 papers baseados em pesquisa 
qualitativa deste mesmo assunto. 
MASON (1997, p.9-34) oferece-nos alguns insights sobre essa 
discussão: o que deveria ser uma pesquisa qualitativa? De que forma 
relacionar aspectos quali e quanti em uma pesquisa ? Estas pesquisas, 
seja na obtenção dos dados seja no tratamento destes, deveriam ser 
sistemática, rigorosa e estrategicamente conduzidas, ainda flexíveis e 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.26 
 
 
contextuais, deveriam envolver críticas auto-construtivas pelo 
pesquisador, ou provocar reflexões. Também deveriam produzir 
explicações sociais para charadas ou quebra-cabeças intelectuais 
permitindo a generalização de alguma forma ou então, permitindo 
ampla aplicação. Não ser vistas como um corpo unificado de filosofia 
e prática, cujos métodos podem simplesmente ser combinados sem 
problemas, nem ser vistas como necessariamente opostas e não 
complementares. Ainda, deveriam ser conduzidas como uma prática 
ética levando em consideração o contexto político. 
De fato, sejam quais forem os fenômenos, entidades ou 
realidade objetos de investigação, o uso conjunto destes métodos 
qualitativos e quantitativos permitiriam um maior aprofundamento no 
conhecimento dos dados, evidenciando-se aspectos do que se deseja 
investigar e, da mesma forma, possibilitando focar o pensamento 
sobre o assunto, decidir e executar. O uso conjunto destes dois tipos 
de análise permite estabelecer conclusões: é importante, pois, 
diferenciar ambos enfoques, identificando as possibilidades de cada 
um. Existem ainda outras oposições qualitativo-quantitativo: 
impressionismo versus sistematização, hipóteses versus verificação, 
flexibilidade e liberdade versus rigidez (FREITAS, CUNHA e 
MOSCAROLA, 1997). 
Enquanto a análise qualitativa se baseia na presença ou 
ausência de uma dada característica, a análise quantitativa busca 
identificar a frequência dos temas, palavras, expressões ou símbolos 
considerados. A noção de importância deve ser clara em cada uma 
destas análises: o que aparece seguido é o que importa na análise 
quantitativa, enquanto a qualitativa valoriza a novidade, o interesse, os 
aspectos que permanecem na esfera do subjetivo. Tem-se assim um 
dilema de análise: adotar categorias específicas, retratando fielmente a 
realidade, mas com uma lista de temas cuja frequência será fraca, ou 
então reagrupar deliberadamente os dados num pequeno número de 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.27 
 
 
categorias, não sem sacrificar informação talvez essencial, a qual 
ficará perdida no resultado final (FREITAS, CUNHA e 
MOSCAROLA,1997). 
São diversas as fontes e motivações que podem viabilizar a 
coleta de dados textuais (todo dado cujo conteúdo é texto ou 
alfanumérico): questões abertas de pesquisas de opinião de mercado e 
outras; o conteúdo de respostas de entrevistas; mensagens recebidas e 
enviadas; livros, artigos e textos quaisquer; campos tipo texto nas 
bases de dados corporativas ou outras; o registro automatizado de 
telefonemas profissionais ou mesmo pessoais (como os de serviço de 
atendimento ao cliente); o registro automatizado das operações de 
consulta de sistemas corporativos como o registro de logs Internet, 
Intranets e outros sistemas, como por exemplo transações bancárias, 
suporte técnico, todas operações das caixas de supermercado, etc. 
Todas estas fontes de dados devem ser exploradas via quantificação e 
resumo, de forma a permitir a melhor compreensão e interpretação do 
seu conteúdo, visando daí depreender idéias, ações, enfim, produzir 
uma informação mais rica para embasar as decisões. Algumas outras 
aplicações de análise de dados qualitativos são: análise de entrevistas 
não diretivas, focus group; análise de mídia (TV, imprensa, ...); 
controle de redação; pesquisas de mercado e de opinião; marketing 
direto a partir de arquivos internos ou externos; análise de 
documentos; auditoria na comunicação interna; inteligência 
Competitiva (patentes, pesq. bibliográfica); gestão de RH (sondagem 
opinião interna,...), etc. 
A análise de documentos, sejam eles originários de pesquisas 
quali ou quantitativas, inclui análise léxica e análise de conteúdo. Ela 
apresenta um conjunto de características racionais, sendo mais ou 
menos intuitiva, pessoal e subjetiva. Como outros métodos, apresenta 
problemas de validade, como autenticidade do texto, validade de 
interpretação e veracidade dos fatos. Tem ainda, em muitos casos, o 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.28 
 
 
defeito do trabalho não sistematizado, dependendo fortemente do 
valor e competência do pesquisador. 
Com o uso conjunto destas técnicas de análise de textos é 
possível produzir novos dados que podem, por sua vez, ser 
confrontados especialmente com dados sócio-demográficos, como por 
exemplo um elenco de reclamações ou sugestões agora vistas por 
sexo, por faixa etária, por renda, por departamento ou qualquer outro 
dado mais objetivo ou quantitativo. Antecipar a análise léxica à de 
conteúdo faria com que a análise de dados se desse de uma maneira 
plena, ou seja, o uso destas duas técnicas encobrem diversas das 
possibilidades que dali poderiam surgir ou fazer emergir. Ao final de 
um esforço de análise de dados, poderia-se dispor de resultados 
significativos aplicáveis à uma dada realidade. Como isso deve ser 
feito? De que maneira combinar o uso destas duas formas de análise? 
Os dois tipos de análise de questões abertas são representados na 
Figura 2 (FREITAS e MOSCAROLA, 2000). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.29 
 
 
 
 
 
 
 
 
Figura 2 - A análise de conteúdo e a análise léxica (FREITAS e MOSCAROLA, 2000) 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.30 
 
 
A Análise Léxica (FREITAS e MOSCAROLA, 2000) consiste 
em se passar da análise do texto para a análise do léxico (o conjunto 
de todas as palavras encontradas nos depoimentos ou respostas). Já a 
Análise de Conteúdo (FRANKFORT-NACHMIAS e NACHMIAS, 
1996, p.324-330), que consiste em uma leitura aprofundada de cada 
uma das respostas, onde, codificando-se cada uma, obtém-se uma 
idéia sobre o todo (FREITAS, 2000). WEBER (1990, p.10) apresenta 
algumas vantagens da análise de conteúdo, destacando sua 
aplicabilidade na análise de textos de comunicação de toda natureza, 
bem como o fato de permitir combinar métodos quanti e qualitativos, 
e mesmo explorar séries longitudinais de documentos ou fontes 
múltiplas, e enfim o fato de poder tratar com dados ditos mais 
espontâneos (e não induzidos ou expressamente perguntados). 
Com base em textos europeus (GRAWITZ, 1993; GAVARD-
PERRET e MOSCAROLA, 1995), FREITAS, CUNHA e 
MOSCAROLA (1997) apresentam noções gerais sobre a análise de 
dados textuais, com sete diferentes níveis de aplicação e 
desenvolvimento da análise léxica, ilustrando a aplicação e uso dessas 
técnicas. Este tipo de análise contribui para a interpretação das 
questões abertas ou textos, a partir da descrição objetiva, sistemática e 
quantitativa do seu conteúdo. 
Diversas referências podem ser consultadas para um maior 
aprofundamento nas questões da análise de dados qualitativos. 
WEBER (1990) publicou o livro “Basic Content Analysis”, 
SILVERMAN (1993) descreve métodos para analisar discursos, textos 
e interações, no livro “Interpreting Qualitative Data”, MILES e 
HUBERMAN (1994) publicaram o livro “Qualitative Data Analysis”, 
o Journal of Applied Management Studies, inglês, publicou dois 
papers com aplicação de análise de conteúdo e análise léxica: 
CROUCH e BASCH, “The Structure Of Managerial Thinking”, e 
OSWICK, KEENOY e GRANT, “Managerial Discourses...”. A MIS 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.31 
 
 
Quarterly também publicou pesquisa qualitativa durante 1997, 
mostrando disposição da comunidade (e dos editores!) rumo a estudos 
qualitativos. A literatura francesa também está recebendo novos 
textos, da parte de BARDIN (1996), e de LEBART e SALEM (1994). 
Na sequência são apresentadas tais técnicas de análise, 
buscando enfatizar sua complementaridade. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.32 
 
 
3.1. A Análise Léxica 
Toda a análise de textos começa pela organização completa do 
vocabulário utilizado. Mais do que palavras, fala-se de formas gráficas 
ou simplesmente de formas breves em razão de uma certa 
ambigüidade da palavra. A organização consiste em isolar cada forma 
gráfica supostamente delimitada por dois caracteres separadores que 
na maioria das vezes são os próprios espaços, mas também podem ser 
sinais de pontuação. Cada aparição de uma forma de dado é chamada 
ocorrência, as quais são evidentemente contabilizadas para formar o 
léxico. O léxico é então, por definição, a lista de todas as formas 
gráficas utilizadas, cada qual estando munida de um número de ordem 
ou frequência (LAGARDE, 1995, p.144-145), ou ainda o conjunto das 
palavras diferentes usadas nesse texto, com a sua frequência de 
aparição (FREITAS, 2000). 
Já a Análise Léxica consiste em averiguar ou medir a 
dimensão das respostas: as pessoas responderam de forma extensa ou 
concisa? Cria-se uma hipótese de que aqueles que deram respostas 
extensas têm um interesse maior do que os demais. Uma hipótese 
discutível que dará, porém, uma indicação (FREITAS, 2000). Nesse 
tipo de técnica são feitas análises de palavras, e não de respondentes. 
Por exemplo, caso uma dada palavra apareça n vezes após realizada 
uma contagem, isso não significa que aquela palavra, ou aquela idéia, 
possa ser generalizada para grande parte dos respondentes ou 
representar uma idéia que tenha aparecido em várias opiniões: pode 
muito bem ocorrer que determinado respondente, ou um pequeno 
grupo destes, tenham enfaticamente apontado para aquela idéia, 
repetidamente (por que não?), diferentemente de uma Análise de 
Conteúdo, onde são identificadas idéias por respondentes, 
independentemente deste ter citado a palavra 1, 2 ou mais vezes. 
Freitas & Janissek –Análise léxica e Análise de conteúdo – p.33 
 
 
Então pode-se dizer que a análise léxica é o estudo científico 
do vocabulário, com aplicações de métodos estatísticos para a 
descrição do vocabulário: ela permite identificar com maior detalhe as 
citações dos participantes, utilizando indicadores que relacionam 
aspectos relativos às citações e às palavras (BARDIN, 1996). A 
evolução se dá da visão geral do texto para os dados na sua essência, 
sejam eles palavras ou expressões (LEBART e SALEM, 1994, p.58-
69), onde posteriormente serão novamente analisados com vistas ao 
universo total de informações. 
Pode-se ainda colocar que, através de processos automáticos 
que associam a matemática e a estatística, o uso da Análise Léxica 
permite rapidamente interpretar e fazer uma leitura adequada e 
dinâmica das questões abertas das enquêtes. Esse procedimento não é 
mais rigoroso do que a Análise de Conteúdo clássica. Seu tratamento 
dos dados é objetivo, mas a leitura subjetiva também é realizada: tem-
se, assim, acesso a um processo de leitura mais rápido, automatizado e 
que, por outro lado, encontra um certo número de justificativas 
(FREITAS, 2000). 
A partir do corpo do texto, ou seja, o conteúdo das respostas 
abertas, evolui-se para analisar palavras e expressões, o léxico. Ao 
fazer isso, parte-se de um nível que se pode chamar de 
macroestatístico, iniciando com as entrevistas que foram realizadas e 
elencando as palavras produzidas nas respostas (GRAWITZ, 1993). 
Um esquema geral (Figura 3) para Análise Léxica é proposto por 
FREITAS, MOSCAROLA e JENKINS (1998). 
Uma Análise Léxica inicia sempre pela contagem das palavras, 
avançando sistematicamente na direção de identificação da dimensão 
das respostas. Nos casos de respostas abertas, normalmente são feitas 
aproximações ou agrupamentos que permitam apresentar critérios 
mais frequentemente citados, agrupando palavras afins, deletando 
palavras que não interessam, até resultar num conjunto tal de palavras 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.34 
 
 
que representem na essência as principais descrições citadas nos 
textos. 
Tudo depende do quão sutil é feita a análise pelo pesquisador e 
da qualidade dos dados (amostra). Uma análise rápida em uma 
pequena amostra normalmente apresentará problemas de dispersão de 
um mesmo tema, de uma mesma idéia, até mesmo problemas de 
sinônimos. O tratamento para tal seria o correto agrupamento de 
palavras em critérios semelhantes. Nestes casos, as frequências 
permitem consolidar a aplicação de um tema ou locução, 
possibilitando uma análise de contexto onde as categorias 
identificadas representem a essência das idéias apresentadas 
(LEBART e SALEM, 1994, p.135-142). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.35 
 
 
 
 
 
 
 
 Corpo do Texto 
Navegação 
Léxica 
Reduzindo e 
Estruturando o 
Léxico 
 Lematizador 
Corpo do texto 
lematizado 
Dicionário 
 Estrutura 
Estatística 
Variáveis 
De 
Contexto 
 
Verbatim 
Medidas 
Lexicais: 
Intensidade 
banalidade 
Variáveis 
fechadas 
do léxico 
 
 
Figura 3 - Esquema para Análise Léxica 
Fonte: FREITAS, MOSCAROLA e JENKINS (1998) 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.36 
 
 
Como ilustra a Figura 3, a realização de uma análise léxica se 
dá da seguinte forma: faz-se inicialmente o tratamento deste do 
conteúdo de um texto ou respostas abertas, através da identificação de 
número total de ocorrências de cada palavra, número total de palavras, 
número total de palavras diferentes ou vocábulos e a riqueza de 
vocabulário para produzir uma resposta (LEBART e SALEM, 1994, 
p.247). Além disso, classificam-se tais unidades de vocabulário em 
palavras ricas com algum significado, como verbos, substantivos e 
adjetivos, além de palavras instrumentais como artigos, preposições, 
etc. É também possível identificar o tempo aplicado a cada resposta, 
se isso, é claro, for aplicável naquela situação. A organização da frase, 
e certos aspectos sintáticos, são suscetíveis de revelar certas 
características de um discurso ou apontar confirmações de certas 
hipóteses formuladas, além das comparações entre estas. Para isso, 
deve-se ir além da Análise Léxica, iniciando a Análise de Conteúdo 
(BARDIN, 1996, p.82-92). 
Há recursos e técnicas que podem ser aplicados para ter um 
corpo do texto lematizado, ou seja, transformar as palavras que ainda 
constituirão o léxico na sua forma infinitiva ou na sua forma original 
(fala-se aqui no que diz respeito a verbos, substantivos e adjetivos). 
Pode-se assim reduzir significativamente o léxico, e, a partir daí, criar 
novos dados, objetivos (fechados sobre palavras do léxico), bem como 
gerar novos dados com medidas lexicais (intensidade lexical, 
banalidade ou trivialidade e ainda originalidade) (SPHINX, 1997). 
Tal análise, representada na Figura 3, inicia pela aproximação 
lexical sumária, que consiste em reduzir o texto apresentando as 
palavras mais frequentes que permitem uma idéia do seu conteúdo. 
Em seguida é realizada a aproximação lexical controlada, que reduz o 
texto ao seu léxico e controla, via navegação lexical, a validade e o 
fundamento das interpretações elaboradas a partir do léxico. Após 
isso, é realizada a aproximação lexical seletiva, eliminando palavras-
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.37 
 
 
ferramentas e concentrando a atenção no exame de substantivos, 
verbos e adjetivos via utilização de dicionários e de um lematizador. 
Em seguida, é realizada a pesquisa das especificidades lexicais, que 
estabelece uma estatística das palavras do texto, segundo uma variável 
externa não textual (por exemplo país, região, departamento). A 
descrição do texto através de variáveis nominais e o cálculo das 
intensidades lexicais permitem que cada resposta seja descrita pela 
intensidade segundo a qual se manifestam os diferentes campos 
estudados. O aprofundamento da análise pode se dar com a análise bi 
ou multivariada dos dados textuais em função de outros dados, 
integrando-a desta forma com a análise de dados clássica (FREITAS, 
CUNHA e MOSCAROLA, 1997). 
Com a Análise Léxica, é possível apresentar opções (palavras, 
agrupamentos, expressões) para desvendar caminhos e descobrir 
opiniões, identificar necessidades, obsessões, seja qual for a intenção 
da pesquisa ali aplicada. Descobrir as razões de tal objeto de estudo 
significa passar da indecisão para a riqueza da leitura, e isso pode ser 
feito com o uso combinado das técnicas apresentadas neste livro. 
Desta forma, não somente pode-se contar com uma leitura das 
respostas, o que por si só já nos diz muita coisa, mas também com a 
identificação das opiniões expressas nas entrelinhas destes mesmos 
textos. Se em uma leitura espontânea já se pode identificar idéias, o 
que se poderia dizer de uma leitura e categorização mais atenta no 
sentido de observar e descobrir conteúdos ali ditos de forma indireta 
ou até mesmo obscura, permitindo descobrir significados e elementos 
suscetíveis não identificados a priori. De fato, a aplicação sequencial 
e recorrente destas técnicas permite assim avançar. 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.38 
 
 
3.2. A Análise de Conteúdo 
Quando os dados a analisar se apresentam sob a forma de um 
texto ou de um conjunto de textosao invés de uma tabela com valores, 
a análise correspondente assume o nome de Análise de Conteúdo – 
neste texto AC (LAGARDE, 1995, p.143). A AC é uma técnica de 
pesquisa para tornar replicáveis e validar inferências de dados de um 
contexto que envolve procedimentos especializados para 
processamentos de dados de forma científica. Seu propósito é prover 
conhecimento, novos insights obtidos a partir destes dados 
(KRIPPENDORFF, 1980). 
Uma parte importante do comportamento, opinião ou idéias de 
pessoas se exprime sob a forma verbal ou escrita. A Análise de 
Conteúdo destas informações deve normalmente permitir a obtenção 
destas informações resumidas, organizadas. A AC pode ser usada para 
analisar em profundidade cada expressão específica de uma pessoa ou 
grupo envolvido num debate. WEBER (1990, p.9) apresenta alguns 
propósitos para uso de AC. Permite também observar motivos de 
satisfação, insatisfação ou opiniões subentendidas, natureza de 
problemas, etc, estudando as várias formas de comunicação. É um 
método de observação indireto, já que é a expressão verbal ou escrita 
do respondente que será observada. Não existiria dentro desse método 
uma riqueza e uma diversidade de modos de expressão? A AC torna 
possível analisar as entrelinhas das opiniões das pessoas, não se 
restringindo unicamente às palavras expressas diretamente, mas 
também àquelas que estão subentendidas no discurso, fala ou resposta 
de um respondente (PERRIEN, CHÉRON e ZINS, 1984, p.27). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.39 
 
 
O objetivo da AC é a inferência2 de conhecimentos relativos às 
condições de produção com a ajuda de indicadores. A AC é como um 
trabalho de um arqueólogo: ele trabalha sobre os traços dos 
documentos que ele pode encontrar ou suscitar, traços estes que são a 
manifestação de estados, dados, características ou fenômenos. Existe 
alguma coisa a descobrir sobre eles, e o analista pode manipular esses 
dados por inferência de conhecimentos sobre o emissor da mensagem 
ou pelo conhecimento do assunto estudado de forma a obter resultados 
significativos a partir dos dados (Figura 4). Ele trabalha explorando os 
dados, como um detetive (BARDIN, 1996, p.43-44). Nesse sentido, a 
descrição do conteúdo é a primeira etapa a ser cumprida, a qual passa 
pela já citada Análise Léxica pela possibilidade de leitura rápida do 
conteúdo das respostas através de resultados tabulados das frequências 
das mesmas. Parte-se de dados qualitativos - fazendo um agrupamento 
quantitativo - para análise qualitativa novamente. 
 
2 Inferência: operação lógica, pela qual se aprova uma proposição em verdade de sua ligação 
com outras proposições já tênues por verdades (BARDIN, 1996, p.43). Este tema é desenvolvido por 
BARDIN (1996, p.169-177). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.40 
 
 
 
 
 
 
 
 
 
 Leitura Normal 
 
 
 
 Variáveis Inferidas / Análise de Conteúdo 
 
 
Figura 4 – Análise de Conteúdo 
BARDIN (1996, p.46) 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.41 
 
 
Fazer o processo dedutivo ou inferencial a partir de índices 
(palavras) ou indicadores não é raro dentro da prática científica. O 
médico faz suas deduções sobre a saúde de seu paciente graças aos 
seus sintomas, o meteorologista faz a previsão do tempo inferindo 
sobre estados ou posições da natureza. Ocorre o mesmo dentro da 
Análise de Conteúdo, pela dedução através da leitura e compreensão 
das mensagens. Os fatos, deduzidos logicamente a partir de 
indicadores, permitem tirar conclusões, obter novas informações ou 
completar conhecimentos através do exame detalhado dos dados. Ser 
objetivo, visto que a análise deve proceder segundo as regras pré-
estabelecidas, obedecendo a diretrizes suficientemente claras e 
precisas de forma a propiciar que diferentes analistas, trabalhando 
sobre o mesmo conteúdo, obtenham os mesmos resultados. Ser 
também sistemático, pois todo o conteúdo deve ser ordenado e 
integrado nas categorias escolhidas, em função do objetivo 
perseguido, e elementos de informação associados ou relativos ao 
objetivo não devem ser deixados de lado. Ser ainda quantitativo, pela 
possibilidade de evidenciar os elementos significativos, calcular a sua 
frequência, etc., esta condição não sendo indispensável visto que 
certas análises de cunho qualitativo buscam mais os temas do que a 
sua exata medida ou importância. Segundo GRAWITZ (1993, p.534), 
tais características formam os atributos da Análise de Conteúdo, o que 
é reforçado por PERRIEN, CHÉRON e ZINS (1984) e FREITAS, 
MOSCAROLA e JENKINS (1998). 
Pode-se, ainda, classificar a AC de acordo com o propósito de 
investigação, que pode ser a descrição de características de 
comunicação - perguntando o quê, como e de quem alguém disse tal 
coisa, a inferência dos antecedentes da comunicação - que envolve 
perguntar porque alguém disse alguma coisa - ou ainda fazer 
inferências sobre os efeitos da comunicação - perguntando com que 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.42 
 
 
intenção alguém disse tal coisa (HOLSTI, 1969 e JANIS, 1965 apud 
KRIPPENDORFF, 1980, p.34). 
De fato, a Análise de Conteúdo é “uma técnica de pesquisa 
utilizada para tornar replicáveis e validar inferências de dados para seu 
contexto, segundo seus componentes, relações ou transformações 
entre estes” (KRIPPENDORFF, 1980, p.35). Para BARDIN (1996, 
p.47), AC é “um conjunto de técnicas de análise das comunicações 
que, através de procedimentos sistemáticos e objetivos de descrição do 
conteúdo das mensagens, visa obter indicadores (quantitativos ou não) 
que permitam a inferência de conhecimentos relativos às condições de 
produção e de recepção (variáveis inferidas) destas mensagens”. A 
seguir, abordam-se alguns tópicos inerentes, como: os tipos de Análise 
de Conteúdo, as suas etapas, o seu valor como instrumento ou técnica 
de pesquisa, bem como seu uso e aplicação. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.43 
 
 
3.2.1. Tipos de Análise de Conteúdo 
Uma vez que diferentes fontes de dados estão normalmente 
disponíveis, pode-se usar vários modelos para explorar, processar e 
analisar dados. GRAWITZ (1993) desenvolve 3 diferentes enfoques 
(valorizados por FREITAS, MOSCAROLA e JENKINS, 1998): 
 
 Verificação ou Exploração? Deve-se fazer distinção entre a 
análise de documentos tendo como objetivo a hipótese de 
verificação (sabendo-se o que se busca e podendo-se quantificar 
os resultados - neste caso o objeto é preciso), e aquela análise 
cujo objetivo seja exploração ou definição de hipóteses, onde a 
análise é menos rigorosa e sistemática, seguindo papéis e 
técnicas que não podem ser padronizadas, visto que faz apelo à 
intuição e à experiência. 
 
 Análise quantitativa ou análise qualitativa? A análise 
quantitativa tenta acumular a frequência de temas, palavras ou 
símbolos, enquanto análise qualitativa é baseada na presença ou 
ausência de dadas características. Outra dicotomia quali-quanti é 
impressões versus sistematizações, hipóteses ao invés de 
verificações, e flexibilidade como oposto à rigidez. O que é 
importante deve estar claro em cada um dos tipos de análise. O 
número de vezes que um dado elemento ocorre é o que conta 
para a análise quantitativa, enquanto a novidade, interesse,tema 
ou atributo subjetivo é o objeto da análise quali. Sempre se tem 
um dilema: adotar categorias representativas, ou reagrupar 
deliberadamente os dados em um pequeno número de 
categorias, sacrificando informações. BERELSON (1971, apud 
FRANKFORT-NACHMIAS e NACHMIAS, 1996, p.328) 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.44 
 
 
define que “a Análise de Conteúdo se sustenta ou se destrói 
pelas suas categorias”. FRANKFORT-NACHMIAS e 
NACHMIAS apontam, baseados na literatura, uma série de 
categorias mais frequentemente empregadas, do tipo “o que é 
dito” (tema, sentido, padrão, valores, métodos, características, 
origem, tempo, conflito, etc) e “como é dito” (forma ou tipo de 
comunicação, método ou técnica utilizada, forma de definição). 
 
 Análise direta ou indireta? A análise quantitativa direta, 
medida mais comumente utilizada, consiste em contabilizar as 
respostas tal qual elas aparecem; já a análise quantitativa 
indireta pode, por vezes, além do que se tem como resultado 
claro e manifesto, obter por inferência, até mesmo aquilo que o 
autor deixou subentendido. Este tipo de informação (escolha das 
palavras, ritmo do discurso, etc) pode ser muito reveladora. 
Pode-se, então, a partir de uma análise quantitativa, buscar uma 
interpretação mais sutil, ou o que é latente sob a linguagem 
explícita utilizada no texto. A interpretação indireta, que vai 
além do que é dito, não é algo amparado apenas no qualitativo, 
ela pode perfeitamente se apoiar num conteúdo quantificado (e 
que possa ser destacado como exemplo). 
 
 
 
 
 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.45 
 
 
3.2.2. Etapas da Análise de Conteúdo 
Toda a análise de conteúdo deve seguir uma série de etapas 
precisas, que se iniciam pela definição do universo estudado, 
delimitando e definindo claramente, desta forma, o que estará e o que 
não estará envolvido. 
Uma vez estando o universo corretamente definido, inicia-se 
sua categorização, que significa determinar as dimensões que serão 
analisadas, dimensões estas que definem a teia da grade de análise. 
Estas categorias serão determinadas em função da necessidade de 
informação a testar: elas constituirão o coração da Análise de 
Conteúdo. A categorização é uma etapa delicada, não sendo evidente 
determinar a priori suas principais categorias: na verdade, a 
categorização (processo de redução do texto no qual as muitas 
palavras e expressões do texto são transformadas em poucas 
categorias) é o problema central da AC (WEBER, 1990, p.15). Em 
certos casos, sua origem será empírica: a partir de um estudo de um 
certo número de casos, as categorias serão formadas a posteriori. Na 
definição das categorias, é importante utilizar-se dos critérios ou 
palavras identificadas na Análise Léxica. Tais critérios muito 
provavelmente serão agrupados ou reagrupados, formando então as 
categorias. É o que ilustra a Figura 5 (PERRIEN, CHÉRON e ZINS, 
(1984, p.275-277). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.46 
 
 
 
 
 
 
 
Figura 5 – Análise de Conteúdo em etapas 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.47 
 
 
As categorias são as rubricas significativas em função das 
quais o conteúdo será classificado e eventualmente quantificado. 
WEBER (1990, p.56-57) aborda a questão da contagem de categorias. 
No caso de uma enquête, pode-se prever categorias já em forma de 
código. A Análise de Conteúdo deve normalmente permitir o 
aparecimento de variáveis e fatores de influência que se ignorava no 
início dos trabalhos. As categorias, quando não se tem uma idéia 
precisa, devem surgir com base no próprio conteúdo. 
Na enquête de exploração, as categorias constituem elas 
próprias o quadro, objeto ou contexto de análise, enquanto que, na 
busca de verificação de uma hipótese, pode-se ter categorias pré-
definidas. De fato, um mesmo dado aberto pode servir de base aos 
dois exercícios ou lógicas ou estratégias de análise recém evocados. 
Pode-se explorar um dado para saber o que dele pode emergir como 
categorias (a lista de reclamações dos clientes, por exemplo), assim 
como se pode utilizar esse mesmo dado para julgar se a clientela está 
ou não satisfeita (classificação já pronta para se categorizar cada 
respondente em ‘satisfeito’ ou ‘insatisfeito’). 
As categorias devem se originar seja do documento objeto da 
análise, seja de um certo conhecimento geral da área ou atividade na 
qual ele se insere. Das respostas, caso se trate de uma entrevista; dos 
objetivos, intenções, crenças do emissor, no caso de um texto; não 
sem considerar elementos ausentes que podem ser significativos. A 
escolha das categorias é o procedimento essencial da Análise de 
Conteúdo; visto que elas fazem a ligação entre os objetivos de 
pesquisa e seus resultados. O valor da análise fica sujeito ao valor ou 
legitimidade das categorias de análise. É o objetivo perseguido que 
deve pautar a escolha ou definição do que deve ser quantificado. 
Segundo WEBER (1990) e BARDIN (1996), as categorias devem ser 
exaustivas (percorrer todo o conjunto do texto), exclusivas (os 
mesmos elementos não podem pertencem a diversas categorias), 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.48 
 
 
objetivas (características claras de modo a permitir seu uso por 
diferentes analistas em um mesmo texto) e pertinentes (em relação 
com os objetivos perseguidos e com o conteúdo tratado). 
A escolha das unidades de análise é a etapa seguinte: o 
conteúdo de um texto pode ser analisado de diferentes maneiras, 
conforme as unidades de análise que serão definidas. Vários autores 
tratam das unidades de análises, apresentando-as com alguns enfoques 
ou rótulos diferentes. Além de LEBART e SALEM (1994, p.46-50) e 
de WEBER (1990, p.21-24), destacam-se: 
 
 Para PERRIEN, CHÉRON e ZINS (1984), as unidades 
classificam-se em (1) palavras, que são as unidades de análise 
mais desagregadas, pois muitas vezes expressam situações 
momentâneas, medidas por estímulos situacionais; (2) em tema, 
que pode ser definido como a unidade mais manipulável, uma 
vez que compreende proposições ou afirmações de um sujeito - 
a presença ou ausência de um tema pode ser rica em 
informações; (3) em personagens, que representam um outro 
sujeito de interesse, sobre os quais pode-se manipular 
determinadas características e tomá-las como foco de análise e 
ainda (4) as características espaciais ou temporais, que implicam 
em relacionar e medir um certo número de especificidades dos 
textos, evidenciando o conjunto total das idéias apresentadas. 
 
 
 Segundo KRIPPENDORFF (1980, p.57), as unidades de 
análise classificam-se em (1) unidades amostrais, que são 
aquelas partes da observação real, registradas 
independentemente das outras que a acompanham; (2) unidades 
de registro, que são segmentos específicos do conteúdo, 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.49 
 
 
caracterizados por situarem-se dentro de uma dada categoria e 
descritas separadamente, podendo então serem registradas como 
partes analisáveis separadamente das unidades amostrais, e (3) 
unidades de contexto, que fixam limites de informações 
contextuais que podem apresentar a descrição de uma unidade 
de registro. Elas delineiam aquela parte do material necessário 
para ser examinado paraque uma unidade de registro seja 
caracterizada. 
 
A quantificação é a última etapa da Análise de Conteúdo, cujo 
objetivo é permitir o relacionamento das características dos textos 
combinadas ao universo estudado. A presença ou ausência de uma 
unidade igual ao nome das unidades, representa uma quantificação ao 
nível nominal (PERRIEN, CHÉRON e ZINS, 1984, p.274-277). 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.50 
 
 
3.2.3. O valor da Análise de Conteúdo 
A Análise de Conteúdo é uma técnica refinada, delicada, e 
requer muita dedicação, paciência e tempo para satisfazer a 
curiosidade do investigador. Além disso, são necessárias intuição, 
imaginação e observação do que é importante, além de criatividade 
para escolha das categorias já citadas. Ao mesmo tempo, o analista 
deve ter disciplina, perseverança, e ainda rigidez na decomposição do 
conteúdo ou na contagem dos resultados das análises. Existem alguns 
aspectos que GRAWITZ (1993, p.553-558) resgata com relação à AC, 
os quais são abordados e reforçados por FREITAS, MOSCAROLA e 
JENKINS (1998): 
 
 Confiabilidade: A Análise de Conteúdo deve ser objetiva, e 
os resultados devem ser independentes do instrumento utilizado 
para medição, sendo conveniente minimizar as diferenças dos 
pontos de vista entre os analistas. Mas isso é um velho problema 
das ciências sociais, a confiabilidade não deve ser encarada da 
mesma forma quando se trata de análises quantitativas de um 
conteúdo claro e óbvio, como quando se trata de uma análise 
mais qualitativa, onde se procura identificar intenções ocultas, 
onde é preciso identificar presença ou ausência de um elemento 
e não a sua frequência. Segundo KRIPPENDORFF (1980, 
p.146), a verificação da confiabilidade visa prover uma base 
para inferências, recomendações, suporte à decisão ou mesmo a 
aceitação de um fato. 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.51 
 
 
 
 Validade lógica: o instrumento realmente mede o que ele se 
propõe a medir? Uma análise é válida quando a descrição 
quantificada que ela oferece a respeito de conteúdo é 
significativa para o problema original e reproduz fielmente a 
realidade dos fatos que ele representa. É claro, isso é condição 
essencial da representatividade da amostra e supõe que certas 
condições técnicas inerentes a cada estágio sejam observadas 
satisfatoriamente. 
 
 A inferência: este ponto merece especial atenção porque 
algumas das expressões têm mais de uma interpretação, até 
mesmo interpretações positivas ou negativas, dependendo do 
contexto. 
 
 Validade empírica: a predição inerente é justa ou precisa? 
Uma difícil questão para responder. Em lugar de convicções, 
prudência e humildade são recomendadas ao traçar as 
conclusões. Contudo, GRAWITZ (1993) acredita que a 
experiência e o treinamento do analista assinam a validade de 
sua análise. 
 
O valor da Análise de Conteúdo depende da qualidade da 
elaboração conceitual feita a priori pelo pesquisador, e da exatidão 
com a qual ele irá traduzi-la em variáveis, esboço de pesquisa ou 
categorias. Segundo WEBER (1990, p.15), uma variável baseada na 
classificação de um conteúdo é válida na medida em que de fato mede 
o construto que o pesquisador tenciona medir. Os assuntos guiados 
pelas categorias podem suscitar hipóteses interessantes (FREITAS, 
MOSCAROLA e JENKINS, 1998). Qualquer esforço nessa direção 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.52 
 
 
deve passar pela confiabilidade e validade dos resultados gerados 
(KIRK e MILLER, 1986, p.21-24 e p.41-42). Para os resultados de 
pesquisa serem válidos, os dados nos quais eles serão baseados, bem 
como os indivíduos envolvidos na sua análise e ainda o processo que 
vai gerar os resultados devem ser, todos eles, confiáveis. A 
confiabilidade é necessária, ainda que não seja uma condição 
suficiente por si só para a validade. A importância da confiabilidade 
está baseada na sua garantia de que os dados são obtidos 
independentemente do evento de medição, instrumento ou pessoa 
(KRIPPENDORFF, 1980). Dados confiáveis, por definição, são dados 
que permanecem constantes através das variações do processo de 
medida (KAPLAN e GOLDSEN, apud KRIPPENDORFF, 1980, 
p.129). 
A confiabilidade é vista como um problema no contexto de 
pesquisa qualitativa, em relação à sua estrutura de codificação, que 
poderia ser vista por ela mesma como confiável se, em qualquer 
recodificação subsequente, os mesmos códigos fossem repetidos por 
um diferente codificador com uma margem aceitável de erro. 
KRIPPENDORFF (1980, p.130-154) aborda em detalhe esta questão 
da concordância, observando (p.146-147) que adotou em sua equipe a 
diretriz de reter variáveis cuja concordância nesse sentido fosse de 
pelo menos 80% entre os dois codificadores (necessariamente 
independentes, somente discutindo, como último recurso, sobre 
efetivas dúvidas, e não buscando influenciar um no protocolo do 
outro), mas que seriam igualmente retidas ou consideradas variáveis 
cuja concordância fosse entre 67 e 80% (muito embora se deva ser 
sempre cauteloso ao concluir sobre estes resultados)3. Ele observa 
ainda que o custo de não ser zeloso nesse sentido é o de se chegar a 
 
3 OLIVEIRA (1999, p.176-178) evoca referencial sobre o grau aceitável de concordância, 
inclusive identificando na literatura que as chances de concordância entre os classificadores é maior à 
medida que o número de opções ou categorias é menor. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.53 
 
 
conclusões equivocadas nas pesquisas. O autor observa (p.147) que se 
as implicações de uma AC forem consideradas drásticas, deve-se ser 
rigoroso na consideração de níveis de concordância; porém, em se 
tratando de estudos exploratórios sem sérias consequências, o nível da 
concordância "pode ser consideravelmente relaxado, contudo, não tão 
baixo que não permita levar a sério as descobertas". 
Para alcançar um bom nível de concordância, deve-se ter 
cuidado e construir categorias codificadas que sejam mutuamente 
exclusivas e não ambíguas. Não se deve confundir os requisitos que 
surgem na pesquisa hipotético-dedutiva com as demandas da pesquisa 
qualitativa exploratória. Numa abordagem hipotético-dedutiva para 
análise de textos, categorias (pré-definidas) serviriam para condensar 
informações relevantes contidas nos dados, as quais seriam 
representadas através de frequências. Já durante um estudo 
exploratório, a codificação deve ser construída através do próprio 
processo de análise de dados. Deve-se entender que cada abordagem 
requer um enfoque diferente de confiabilidade: um estágio dito 
exploratório, onde o ambiente (categorias e propriedades) é 
desenvolvido e hipóteses são geradas, e um estágio de construção de 
teoria baseada em dados, onde as hipóteses são refinadas com maior 
detalhe (KELLE, 1995, p.25). 
SILVERMAN (1993, p.149) discute validade como sendo 
‘verdade’, ou seja, ele recorre a HAMMERSLEY, para quem validade 
é “interpretada como a extensão ou medida pela qual uma apuração, 
contagem ou codificação representa efetivamente o fenômeno social 
ao qual se refere”. SILVERMAN (1993, p.156-157) descreve duas 
formas de validação na pesquisa qualitativa: a “triangulação” 
(comparar diferentes tipos de dados, quanti e qualitativos, obtidos pelo 
uso de diferentes métodos, como observação e entrevistas, de forma

Outros materiais