Logo Passei Direto
Buscar

ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO FREITAS E JANISSEK 2000

User badge image
Denise Neiva

em

Ferramentas de estudo

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

Prévia do material em texto

Freitas & Janissek – Análise léxica e Análise de conteúdo – p.1 
 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.2 
 
 
 
 
ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO: 
 
Técnicas complementares, sequenciais e recorrentes 
para exploração de dados qualitativos 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.3 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Sphinx ® – sistemas para pesquisas e análises de dados 
 
Sphinx Consultoria - Distribuidor EXCLUSIVO do Sphinx 
Único certificado e autorizado SPHINX na América Latina 
 
tel/fax: 0xx51-4773610 
e-mail: sphinx@portoweb.com.br 
http://www.sphinxbr.com.br 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.4 
 
 
 
 
 
ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO: 
 
Técnicas complementares, sequenciais e recorrentes 
para exploração de dados qualitativos 
 
 
 
Henrique Freitas & Raquel Janissek 
 
 
 
2000 
 
 
 
 
 
 
 
 
Distribuição: Sphinx ® 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.5 
 
 
Supervisão gráfica: terceirizada 
Capa: Fernando K. Andriotti, Maurício G. Testa e André Panisson 
Edição: Fernando K. Andriotti 
Impressão: Gráfica La Salle. 
 
 
Dados internacionais de Catalogação na Publicação (CIP) 
(Câmara Brasileira do Livro, SP, Brasil) 
 
 
FREITAS, Henrique Mello Rodrigues de. 
 Análise léxica e análise de conteúdo: técnicas complementares, 
sequenciais e recorrentes para exploração de dados qualitativos / 
Henrique Mello Rodrigues de Freitas e Raquel Janissek. Porto 
Alegre: Sphinx: Editora Sagra Luzzatto, 2000. 
 176 p.: il. 
 
 
Bibliografia: 85-241-0637-9 
 
1. Metodologia da Pesquisa. 2. Técnicas de pesquisa. 3. Análise 
de Dados: pesquisa. I. Janissek, Raquel . II. Título 
 
 
 
 
Índice para catálogo sistemático: 
1. Pesquisa e métodos – 001.4 
2. Ciências sociais – 306.3 
3. Análise de dados – 001.642 
 
© Henrique Freitas & Raquel Janissek 
Todos os direitos estão reservados à Sphinx ® 
 
Impresso em Junho 2000. 
Também disponível via Internet (http://www.sphinxbr.com.br e 
http://www.adm.ufrgs.br/professores/hfreitas). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.6 
 
 
Agradecimentos 
 
Esta iniciativa teve origem na discussão entre professores da 
Escola de Administração sobre o que deveria ou não ser feito como 
análise de dados em um determinado estudo. O resultado, 
demonstrado neste documento, expressa nossa convicção na resposta 
que deveria ser aportada. A eles, pela provocação, nosso 
agradecimento especial! 
Esta realização só foi possível com o apoio da Sphinx 
Consultoria-Canoas RS, bem como da Escola de Administração da 
UFRGS e do Gesid-PPGA/EA/UFRGS. Em especial, nossa equipe de 
suporte (Fernando Kuhn Andriotti e outros bolsistas). 
Ao doutorando Jorge Audy (PPGA/EA/UFRGS), agradecemos 
a leitura e crítica da versão preliminar, bem como o prefácio do ponto 
de vista de quem necessita recorrer a este tipo de conhecimento aqui 
elaborado. 
Agradecemos em especial aos parceiros franceses de 
concepção e desenvolvimento de sistemas para análises de dados 
quanti-qualitativos, professores Jean Moscarola (Annecy) e Yves 
Baulac (Grenoble), pelas discussões intelectuais e pela motivação, 
sobretudo pela parceria promissora e sua amizade. 
Nossas famílias certamente são nossas fontes de energia, e 
merecem nosso agradecimento especial. 
 
Henrique Freitas & Raquel Janissek 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.7 
 
 
 
Sumário 
 
 
 
Apresentação .............................................................................................................. 8 
Prefácio dos Autores ................................................................................................... 9 
Dados dos Autores .................................................................................................... 11 
Prefácio ..................................................................................................................... 12 
1. Explorando dados textuais para identificar oportunidades e antecipar problemas 13 
2. Dados qualitativos: problemas e questões inerentes à sua coleta e análise .......... 16 
3. Análise quali ou quantitativa de dados textuais? .................................................. 22 
3.1. A Análise Léxica .......................................................................................... 32 
3.2. A Análise de Conteúdo ................................................................................. 38 
4. Aplicações de análise qualitativa em gestão e em sistemas de informação .......... 64 
5. Ferramentas para Análises Léxica e de Conteúdo ................................................ 70 
6. Aplicação de análise de dados qualitativos: pesquisa sobre internet e negócios . 78 
6.1. As questões abertas da pesquisa.................................................................... 80 
6.2. Como analisar os dados qualitativos? ........................................................... 84 
6.3. Análise léxica dos dados abertos da pesquisa: palavras e expressões .......... 88 
6.4. Análise de Conteúdo das questões abertas .................................................. 109 
6.5. Aprofundando a análise de dados através da Análise de Correspondência . 134 
7. Considerações Finais .......................................................................................... 140 
8. Referências bibliográficas .................................................................................. 144 
Índice Remissivo .................................................................................................... 149 
Índice de Autores .................................................................................................... 155 
Apêndice - Sistema Sphinx® para pesquisas e análises de dados ........................... 157 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.8 
 
 
Apresentação 
 
O diferencial proporcionado pelos métodos, bem como a 
isenção conferida pelo pesquisador que respeita estes métodos, 
retratam as diferenças das competências e das intenções em uma 
pesquisa. Todo profissional deve desenvolver habilidades e dominar 
sistemas, técnicas e métodos inerentes à necessidade por construção 
de conhecimento a partir de dados disponíveis de uma ou outra forma 
dentro do seu contexto de atuação. Mostra-se que é viável, com o 
auxílio de instrumental adequado, explorar dados quanti-qualitativos e 
produzir informações consistentes que possam trazer respostas ágeis a 
muitos questionamentos que surgem no dia-a-dia de uma organização 
e mesmo no trabalho do profissional de pesquisa. 
Com o uso de dados qualitativos, seja de que natureza for, 
pode-se ter a chance de identificar oportunidades ou antecipar 
problemas de forma bem mais pontual, precisa e com um custo 
operacional bem menor. Existem várias técnicas de coleta e de análise 
de dados que permitem capturar automática e quase gratuitamente 
dados qualitativos. 
Além disso, esse tipo de dado pode ser explorado mais de uma 
vez, constituindo-se numa fonte diferenciada para a geração denovos, 
diferentes e curiosos dados, os quais podem ser produzidos 
diretamente pelo pesquisador. 
Este livro demonstra algumas técnicas para realizar análise de 
dados textuais, em especial as análises léxica e de conteúdo, buscando 
repassar ao leitor condições para uma investigação prática e eficaz. 
Estas técnicas são apresentadas enfatizando o seu uso em conjunto. O 
pesquisador ou analista tem, nelas, diferentes recursos que permitem a 
exploração adequada dos dados, através de procedimentos 
sistematizados. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.9 
 
 
Prefácio dos Autores 
Este livro propõe uma abordagem para a condução de análises 
de dados qualitativos. Nosso propósito é descrever caminhos para o 
uso conjunto de diferentes técnicas de análises de dados. Em 
particular, são apresentadas as idéias de complementaridade, 
recorrência e sequencialidade do uso das análises léxica e de 
conteúdo, abordando diferentes aspectos metodológicos para a 
exploração mais criteriosa da análise de dados qualitativos. 
Esta iniciativa nasceu de nossa compreensão de que diversos 
pesquisadores pensam, de forma equivocada, que a escolha deve 
recair sobre uma ou outra técnica. Ora, a riqueza de análise só pode 
ser atingida com a variação e a aplicação conjunta de diferentes 
técnicas! 
Mostra-se em detalhe a utilização de métodos e técnicas para o 
desenvolvimento de análises de dados qualitativos, bem como são 
desenvolvidos exemplos - passo a passo - de como realizar tais 
análises. Para tal, utiliza-se uma pesquisa essencialmente qualitativa 
(com entrevistas em profundidade) para demonstrar a forma de 
implementar as idéias aqui propostas. 
Ao mesmo tempo, uma revisão da literatura pertinente, 
nacional e internacional, é apresentada, assim como são evocados 
exemplos de aplicações deste tipo de análise na área de gestão e 
sistemas de informação. Além disso, algumas ferramentas que podem 
ser utilizadas para este tipo de análise são ilustradas, em especial o 
sistema Sphinx Léxica ®. 
Nosso intuito é, sobretudo, fornecer aos gerentes, 
pesquisadores, professores e alunos de diversos níveis de formação, 
recursos que permitam a exploração adequada de dados qualitativos, 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.10 
 
 
através de procedimentos sistematizados que assegurem a qualidade e 
mesmo originalidade das descobertas. 
Enfim, quando as pessoas e as organizações começam a prestar 
atenção nos telefonemas que recebem, nas sugestões e reclamações da 
clientela ou de fornecedores, e quando a academia começa a valorizar 
bem mais as questões subjetivas em harmonia com aquelas em 
demasia objetivas, temos firme convicção da potencial contribuição 
deste trabalho. 
 
 
 
A todos, bom proveito! 
 
Henrique Freitas & Raquel Janissek 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.11 
 
 
Dados dos Autores 
 Henrique Freitas é Professor Adjunto da Escola de 
Administração da UFRGS (desde 1994), onde integra a equipe do Gesid-
PPGA/EA/UFRGS (Grupo de Estudos em Sistemas de Informação e apoio à 
Decisão do Programa de Pós-Graduação em Administração). É, desde 1993, 
Pesquisador 2A CNPq, onde já coordenou e realizou diversos projetos. 
Cursou Economia na UFRGS (1982), Especialização em Análise de sistemas 
na PUCRS (1983), Mestrado em Administração na UFRGS (1989), 
Doutorado em gestão na Université de Grenoble 2 – França (1993) e Pós-
doutoramento em sistemas de informação na University of Baltimore (MD, 
EUA, 1997-98). Já orientou 4 teses de doutorado e 17 dissertações de 
mestrado e orienta, atualmente, 2 doutorandos e 12 mestrandos. Publicou 3 
livros e dezenas de artigos nacionais e internacionais, é coordenador 
nacional da área de Administração da informação da ANPAD e integra o 
comitê editorial do Journal of AIS. Desde 1989, em parceria com Jean 
Moscarola e Yves Baulac, coopera na melhoria dos Sistemas Sphinx. 
e-mail: hfreitas@portoweb.com.br 
http://www.adm.ufrgs.br/professores/hfreitas 
 
 Raquel Janissek é Analista de Sistemas. Cursou Informática na 
UNIJUI (1995) e Mestrado em Administração: Sistemas de Informação – 
Gesid-PPGA/EA/UFRGS (2000). A partir de setembro de 2000, dando 
continuidade ao trabalho de cooperação do Prof. Henrique Freitas com a 
equipe do Prof. Humbert Lesca, inicia seu Doutorado em Sistemas de 
Informação na Université Pierre Mendes France - Grenoble 2 (França). De 
1996 a 1999, foi professora de Análise de Sistemas e Informática na 
Universidade Regional Integrada (URI), onde coordenou o Estágio 
Supervisionado do Curso Técnico em Informática e orientou trabalhos de 
conclusão de cursos. A partir de 2000, integra a equipe de suporte eletrônico 
dos usuários Sphinx, bem como coopera no desenvolvimento dos produtos e 
sistemas. 
e-mail: raquelj@portoweb.com.br 
http://www.missoes.com.br/raquel 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.12 
 
 
Prefácio 
O uso de métodos qualitativos em pesquisa na área de SI tem 
crescido nos últimos anos. Esta abordagem aprofunda-se no mundo 
dos significados das ações e relações humanas, um dado pouco 
perceptível ou captável pelos métodos quantitativos. 
O grande desafio para os pesquisadores da área está pois 
relacionado com a análise de dados em uma pesquisa cada vez com 
base mais qualitativa. 
Este livro, oferecido pelos professores Henrique e Raquel, é 
uma significativa contribuição na busca de uma resposta para este 
desafio, avaliando algumas das principais abordagens de análise de 
dados e propondo uma sistematização clara e operacional para a 
exploração de dados qualitativos, em especial na área de SI. Contudo, 
pela escassez de literatura em língua portuguesa, e mesmo pela 
qualidade e clareza do material produzido, este é um documento 
certamente útil para todos pesquisadores das diferentes áreas de 
Administração, e mesmo das Ciências Sociais. 
Particularmente, como pesquisador envolvido na realização de 
uma tese de doutorado, na qual devia explorar dados coletados em 
diversas entrevistas em profundidade, a literatura e os exemplos aqui 
resgatados e relatados em detalhe me foram de grande valia. 
 
Jorge Audy 
Doutorando Gesid/PPGA/EA/UFRGS 
Professor Informática/PUCRS 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.13 
 
 
 
1. Explorando dados textuais para identificar oportunidades e 
antecipar problemas 
A realização de pesquisas acadêmicas ou profissionais tem 
cada vez mais desafiado os analistas e pesquisadores visto que a 
objetividade dos dados coletados em uma pesquisa não é mais 
condição suficiente para a compreensão de um fenômeno (como por 
exemplo a opinião de um certo público, satisfação do cliente, 
resistência dos usuários finais de uma tecnologia recentemente 
adotada). De fato, a subjetividade é que vai permitir explicar ou 
compreender as verdadeiras razões do comportamento ou preferência 
de um certo grupo por algum produto, sistema, serviço, etc. A questão 
inerente é a de como o pesquisador, o analista, ou mesmo o gerente ou 
executivo poderia realizar tal tipo de análise ou exploração de dados. 
Ora, qual seria o gerente que não gostaria de – rapidamente – 
percorrer todos os dados captados através de uma linha 0800, como a 
do serviço de suporte, a de help desk ou outro, e se dar conta das 
principais reclamações ou sugestões atuais dos seus clientes? Não 
seriaeste tipo de dado, que fica esquecido, engavetado ou nem mesmo 
pensado como um recurso, uma fonte nobre de dados gerados sem 
nenhum custo adicional para a organização? 
Da mesma forma, como poderia este mesmo gerente ousar 
pensar nisso se ele nem imagina que existam métodos e técnicas para 
tal? Ele pode muito bem imaginar uma pesquisa onde os clientes 
dizem se estão ou não satisfeitos com os serviços prestados numa 
escala de totalmente satisfeitos a totalmente insatisfeitos, mas não se 
dá conta talvez que poderia saber disso sem mesmo ter que indagar 
aos clientes. De fato, a técnica quantitativa e supostamente bem 
dominada aporta um tipo de resposta que é em diversos casos 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.14 
 
 
superficial no sentido que não permite uma qualificação ou um 
refinamento da opinião. No final, isto pode mesmo ser mais oneroso, 
pois quando os procedimentos de pesquisa são estabelecidos de 
maneira formal, há um viés natural na resposta oferecida pelas pessoas 
ou clientes, e o que se tem de volta são quantidades. Ao passo que, 
usando dados qualitativos, opiniões mais abertas, espontâneas ou 
mesmo – e porque não principalmente – aquelas coletadas de forma 
indireta (como a do setor de pós-venda ou de atendimento ao cliente), 
pode-se ter a chance de identificar oportunidades ou antecipar 
problemas de forma bem mais pontual, precisa e com um custo 
operacional bem menor, ainda por cima a partir da exploração de um 
dado completamente espontâneo, não induzido de forma alguma. 
Não são só as técnicas de coleta e de análise quantitativa de 
dados que foram aperfeiçoadas com o tempo. Hoje em dia, são 
factíveis e diversas as formas e tecnologias de se capturar automática 
e praticamente gratuitamente dados qualitativos (subjetivos, textos 
enfim) que nos denotem as preferências e comportamentos de um 
certo grupo de pessoas. Os procedimentos, métodos e ferramentas que 
possibilitam isso são cada vez mais presentes na literatura e no 
mercado. Há todo um leque de possibilidades que pode ser utilizado 
(WEITZMAN e MILES, 1995; FREITAS, MOSCAROLA e CUNHA, 
1997 e MOSCAROLA, 1990). 
O que existe, contudo, é uma confusão conceitual ou mesmo 
prática sobre em que consistem e mesmo de como essas técnicas e 
ferramentas poderiam ser utilizadas. Em que implica cada uma delas? 
Como se poderia aplicar e explorar em benefício próprio cada uma 
delas? Enfim, há mesmo uma ignorância sobre a existência da análise 
léxica e da análise de conteúdo1, sobre as distintas finalidades de uma 
e outra. Há ainda uma idéia equivocada de que se deve escolher uma 
 
1 WEBER (1990, p.9) define Análise de Conteúdo como um método de pesquisa que utiliza um 
conjunto de procedimentos para tornar válidas inferências a partir de um texto. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.15 
 
 
OU outra para uma dada análise ou exploração de dados, quando na 
verdade os autores procuram neste livro demonstrar que pesquisadores 
acadêmicos ou analistas em geral DEVEM ter uma clara visão das 
vantagens em explorar estes recursos de análise de forma sequencial, 
recorrente e sobretudo complementar. 
Na sequência, faz-se uma discussão sobre o valor e 
importância da coleta e análise de dados qualitativos (seção 2). Logo 
após, na seção 3, apresentam-se definições conceituais de análise 
léxica e de análise de conteúdo. A seção 4 evoca exemplos da 
literatura e de pesquisas realizadas recorrendo a estas técnicas, e a 
seção 5 levanta e indica ferramentas disponíveis para tal. Em função 
do foco deste livro, a seção 6 detalha uma pesquisa essencialmente 
qualitativa, explorando as duas técnicas em questão na análise de 
dados coletados em entrevistas estruturadas (com guia de entrevista), 
buscando-se ser didático e ilustrar passo a passo a sua aplicação. 
Finalmente, na seção 7, faz-se uma reflexão final sobre o uso 
potencial destas análises no dia-a-dia das organizações, bem como no 
contexto de pesquisa acadêmica. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.16 
 
 
2. Dados qualitativos: 
problemas e questões inerentes à sua coleta e análise 
Não obstante as colocações recém realizadas, tentando olhar de 
forma mais precisa um processo de pesquisa qualquer, vai-se notar 
que dificilmente ele deixa de recorrer a mais de uma técnica de coleta 
de dados, bem como mais de uma fonte, fazendo inclusive recurso a 
diferentes técnicas de análise de dados. É pois tempo de método 
múltiplo de pesquisa, onde o pesquisador ou o analista comercial, 
financeiro, etc, tem cada vez mais e mais clara a necessidade de estar 
em contato com diferentes visões das situações reais. E isto 
utilizando-se de fontes de dados e de técnicas diversas, levando em 
consideração o rigor das pesquisas. Isto só reforça o valor, utilidade e 
oportunidade de se abordar de forma mais organizada e mesmo 
didática as técnicas e ferramentas no que se refere a dados 
qualitativos. 
Cada vez mais forte é a tendência de que uma pesquisa 
quantitativa, mais objetiva, deve ser precedida de uma atividade mais 
subjetiva, qualitativa, que permita melhor definir o escopo e a forma 
de focar o estudo. Também tem sido consenso que, mesmo sendo 
objetiva em sua essência, sempre se pode recorrer a algum tipo de 
opinião mais espontânea ou aberta, de forma a captar ‘um algo mais’ 
da parte do respondente. Tudo isto valoriza a questão de como se 
tratar questões ditas qualitativas. Tais debates foram objetos de 
recente congresso internacional (LEE, LIEBENAU e DEGROSS, 
1997). A estratégia de uso de questões abertas ou fechadas num 
instrumento é debatida por LEBART e SALEM (1994, p.25-28). 
Além disso, nas pesquisas, de forma geral, uma etapa pouco 
valorizada ou um tanto negligenciada é a de preparação de dados: há 
todo um esforço para que os dados sejam coletados, de forma que não 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.17 
 
 
se dispõe de muito tempo quando os dados poderiam e deveriam ser 
analisados a fundo, em termos de significado e implicações. Ocorre 
que, antes de analisar os dados e cruzá-los das mais diferentes formas 
na busca por relações causais ou possíveis explicações para hipóteses 
previamente formuladas, é necessário que sejam preparados certos 
tipos de dados. Exemplos disso podem ser dados objetivos e 
numéricos como a idade e o salário, na busca por faixas etárias e 
salariais adequadas para os cruzamentos posteriores a serem 
realizados (pode-se gerar novos dados escalares a partir dos 
numéricos). 
Da mesma forma, é necessário um investimento (mais de 
tempo de análise do que outro recurso) para que sejam criadas 
categorias pertinentes e claras a partir de dados tipo texto, ou seja, 
efetivamente qualitativos. Um exemplo pode ser a criação de um dado 
novo a partir de uma questão texto que poderia ser “quais as sugestões 
que você apresentaria para a melhoria dos nossos serviços?” ou então 
mesmo “quais as principais reclamações que você poderia 
apresentar?”. Normalmente, pesquisadores e analistas desavisados ou 
talvez despreparados ou inadvertidos sobrecarregam suas pesquisas 
com questões abertas, criando uma expectativa em quem responde, a 
qual se torna ‘falsa expectativa’, visto que tais respostas nunca serão 
tabuladas e avaliadas como se deveria. Logo, o aprendizado que tal 
conteúdo permitiria não será jamais produzido. Cuidado especial é 
necessário no sentidode não se abusar de questões abertas num 
instrumento de pesquisa, pois seu excesso exige que o respondente se 
concentre bem mais que o normal: ele poderá pois ficar 
gradativamente desatento nas suas respostas e mesmo se desinteressar 
pelas questões posteriores. 
Cria-se pois uma falsa de idéia de que um dado espontâneo 
como esse dos exemplos recém evocados deve ser analisado uma só 
vez, quando ele poderia ser uma fonte bastante grande e diferenciada 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.18 
 
 
para a geração de novos, diferentes e curiosos dados. Esta geração de 
novos dados a partir de um dado texto pode emergir do próprio texto 
de cada respondente, como uma lista mais objetiva de sugestões ou de 
reclamações (no caso dos dois exemplos citados). Mas tal fonte de 
dados também pode ser objeto de um julgamento a partir de critérios a 
priori adotados pelo gerente, analista ou pesquisador, como por 
exemplo gerar um indicador de satisfação a partir da simples leitura 
das sugestões ou das reclamações emitidas pelo respondente. Ou seja, 
ao invés de perguntar se o cliente está muito ou pouco satisfeito, o 
avaliador poderia ler cada uma das respostas emitidas e registradas e 
iria ele próprio julgar se o respondente está ou não satisfeito. Isto é 
claro de forma subjetiva, contudo, muitas vezes este dado poderá ser 
melhor considerado para fins de análise. Ou seja, a um dado aberto e 
espontâneo, devem corresponder n dados objetivos, gerados seja pela 
análise e identificação gradativa de um protocolo (como a lista de 
sugestões que se faz emergir do texto), seja pela avaliação da opinião 
de cada pessoa em relação a um protocolo ou mesmo escala de medida 
preparada pelo analista (como por exemplo ‘satisfeito’ ou 
‘insatisfeito’). 
Além disso, um ponto importante diz respeito à definição de 
quem deveria realizar as análises (e quem finalmente as realiza!): 
normalmente, solicita-se a um terceiro (aluno, auxiliar, etc) para 
realizar esta única codificação, quando ela poderia ser rica em 
aprendizado caso feita pessoalmente pelo analista ou pesquisador. 
Esta atividade exige a leitura de cada uma das respostas, gerando, 
neste processo, novas idéias de análise e uma riqueza de compreensão 
e percepção sem iguais para o analista responsável. Este seria um 
motivo forte para que se repense cada decisão ou solicitação de 
codificação a terceiros: a pessoa está implicada no processo? Conhece 
o métier ou contexto pesquisado? Tem engajamento ou 
responsabilidade em relação ao objeto pesquisado? Sobretudo, tem 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.19 
 
 
como associar a sua tarefa isolada de codificação a todo resto do 
processo e atividades desse projeto? Terá a iniciativa de sugerir novas 
dimensões de análise identificadas no decorrer da própria atividade de 
codificação? Talvez seja melhor arrumar uma resposta adequada a 
estas questões ou então de fato decidir que o pesquisador se 
responsabilizará pela realização da tarefa ou pela supervisão estreita 
desse processo. 
Normalmente, uma codificação derivada de uma análise vai 
gerar um novo dado de múltipla escolha (das diversas categorias 
criadas, algumas serão marcadas para cada resposta emitida por cada 
respondente). Este novo dado retratará de forma bem mais objetiva o 
conteúdo de cada opinião ou resposta. A construção das opções ou 
categorias desse novo dado gerado deve ser realizada segundo certas 
regras, de forma a se poder ter confiança na sua coerência, 
consistência, força enfim. Entretanto, muito da prática empresarial que 
se tem podido observar (em contato com institutos de pesquisa por 
ocasião de assessorias de tecnologia ou método) mostra que pessoas 
não tão bem preparadas realizam tal função. Ocorre que tal novo dado 
vai ser certamente a base para decisões estratégicas ou operacionais 
importantes para a organização envolvida. Logo, é de extrema 
importância a adequada e mesmo rigorosa formulação destas 
categorias. De fato, cada categoria pode implicar em n ações 
empresariais, que exigirão alocação de recursos, etc., ou seja, as 
implicações das corretas definições de categorias podem ser enormes 
para a organização. Caso as categorias não sejam pertinentes, todas 
análises, decisões e ações estarão igualmente comprometidas. Não é 
esta uma atividade para ser realizada com adivinhações ou 
amadorismos de qualquer sorte. Conceitos, técnicas, métodos e 
ferramentas são em muito necessários. É então fundamental que se 
desenvolva um conjunto de diretrizes ou procedimentos que possam 
ser seguidos: tal é o objetivo deste livro, com o exemplo desenvolvido 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.20 
 
 
na seção 6 e com os conceitos e ferramentas abordados na seção 3 e 5, 
respectivamente. 
A preparação e análise de dados provenientes de pesquisas ou 
captura de dados, sejam eles qualitativos ou quantitativos, passa então 
pela identificação e categorização adequada dos seus conteúdos, na 
busca pela produção de conhecimentos e identificação de relações que 
nos permitam avançar na compreensão dos fenômenos investigados. 
Esta busca por informações consistentes, relevantes e fidedignas 
requer tempo e dedicação por parte do analista ou pesquisador, no 
intuito de gerar resultados que traduzam a realidade ou contexto 
estudado. Entretanto, não raro estas análises levantam dúvidas quanto 
à efetividade dos termos e resultados obtidos, especificamente pela 
não sistematização da sequência de análise dos dados ou por outros 
motivos, como a inadequação do próprio perfil ou preparação de quem 
analisa, como recém evocado. Ainda, há toda uma polêmica sobre a 
legitimidade de se ter somente uma pessoa responsável por uma dada 
codificação: seria válida tal categorização? Por quê? Seria necessário 
se ter mais de uma pessoa a codificar? Será que realmente esta 
segunda pessoa aportaria um ganho de qualidade na codificação 
realizada? Será que ela estaria engajada o suficiente no mesmo 
processo de forma a contribuir? Será ainda que este engajamento seria 
condição importante? Será que tal esforço e mesmo gasto de tempo 
seria necessário e mesmo compensador? Tendo-se uma segunda 
pessoa, seria então esperado que se pudesse confrontar as categorias 
criadas por cada um, consolidá-las num só conjunto (após discussão 
de cada discordância), e, além disso, comparar uma a uma cada uma 
das marcações (para cada resposta, cada dos 2 avaliadores ou analistas 
marcaria as categorias que julga que ali se manifestaram implícita ou 
explicitamente), dando-se conta do que fecha e do que não fecha em 
termos de classificação das categorias para cada uma das respostas de 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.21 
 
 
cada respondente. É também nosso objetivo apresentar – na sequência 
- algumas posições sobre essas colocações. 
O uso de técnicas de análise de dados qualitativos é pois um 
tema de crescente interesse e importância no campo da gestão e da 
informação. Este documento contribui colocando a questão da 
complementaridade das técnicas de análise léxica e de análise de 
conteúdo, evocando exemplos da literatura e sobretudo apresentando 
didaticamente um exemplo no qual aplica estes conceitos e técnicas. 
Nossa proposta – reforce-se - é de que as duas técnicas sejam 
utilizadas de forma sequencial (uma após a outra), recorrente (pode-
se ir e vir, deve-se mesmo ir e vir de uma a outra) e complementar 
(elas não são excludentes,ou seja, não se deve escolher uma ou outra, 
deve-se adquirir finalmente a visão, a consciência de que os recursos 
de ambas são excelentes ferramentas na mão do analista e que ele 
deve fazer bom uso e não isolar uma em detrimento de outra). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.22 
 
 
3. Análise quali ou quantitativa de dados textuais? 
A busca por informações consistentes e válidas não deve se 
deter somente nos dados estruturados, puramente quantitativos, tal 
qual os imagina-se - na forma de clássicas planilhas, relatórios 
volumosos, números, percentuais e gráficos: cada vez mais precisa-se 
recorrer aos dados de natureza qualitativa, como textos, discursos, 
entrevistas, trechos de livros, reportagens, etc. Dados estes que 
envolvem elementos que muitas vezes desafiam a astúcia do 
pesquisador ou do homem de negócios, pois escondem em suas 
entrelinhas posicionamentos, opiniões, perfis, que exigem uma leitura 
atenta e ferramentas que possibilitem chegar com maior rapidez 
(condição de sobrevivência) às informações realmente pertinentes 
(POZZEBON e FREITAS, 1996; LESCA, FREITAS e CUNHA, 
1996; LESCA, FREITAS, POZZEBON, PETRINI e BECKER, 1998). 
Deve-se poder ir do dado bruto ou puro ao dado elaborado, via 
interpretação, análise e síntese, e, a partir disso, por uma constatação 
ou curiosidade, poder rapidamente aprofundar a investigação, 
eventualmente voltando à fonte e ao dado bruto como recurso mesmo 
de sustentação de argumento ou simplesmente de ilustração. 
É importante explorar e sobretudo cruzar de todas as formas 
possíveis dados quantitativos e qualitativos (Figura 1 - FREITAS, 
2000) para a geração de idéias, a verificação de hipóteses, a 
elaboração de conclusões ou indicação de planos de ação, etc. O uso 
de técnicas qualitativas x quantitativas, tanto para coleta quanto 
análise de dados, permitem, quando combinadas, estabelecer 
conclusões mais significativas a partir dos dados coletados, 
conclusões estas que balizariam condutas e formas de atuação em 
diferentes contextos. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.23 
 
 
A abordagem literária, dita qualitativa, mais associada às 
técnicas de análise léxica e de conteúdo (abordadas nas seções 3.1 e 
3.2), pressupõe a análise de poucas fontes ou dados, num 
procedimento exploratório ou de elaboração de hipóteses. A 
abordagem mais científica, dita quantitativa, pressupõe grande 
quantidade de dados num procedimento de confirmação de hipóteses. 
Há necessidade de se tratar do quantitativo, enriquecendo-o com 
informações qualitativas em grande número, de forma a ganhar força 
de argumento e qualidade nas conclusões e relatórios: o desafio é a 
busca da associação entre o quantitativo e o qualitativo, onde, por 
exemplo, o procedimento exploratório ganha força, visto que se 
poderá multiplicar os dados tratados, reforçando sobremaneira (e 
mesmo garantindo o ‘bom caminho’) o procedimento confirmatório. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.24 
 
 
 
 
 
 
 
Figura 1 - O desafio de associar qualitativo e quantitativo (FREITAS, 2000) 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.25 
 
 
Segundo KELLE (1995, p.15), "espera-se que as forças de 
ambas abordagens possam se reforçar mutuamente: a 
intersubjetividade e a fidedignidade ou confiabilidade providas pela 
informação padronizada derivada de amplas amostras, por um lado, e 
o conhecimento íntimo de um simples caso ou passagem de um texto 
adquirido pela análise interpretativa, por outro lado. A questão 
essencial nesse tipo de análise seria como transformar o significado da 
análise textual numa matriz de dados quantitativa, isto de maneira 
didática e sistemática". 
A utilidade da combinação destes métodos tem sido assunto 
discutido fortemente na comunidade acadêmica internacional 
(MASON, 1997; LEE, LIEBENAU e DEGROSS, 1997), 
apresentando-nos grande variedade de aspectos a serem levados em 
conta quando da formulação de questões com vistas à obtenção e 
análise de dados, sejam eles qualitativos x quantitativos, sejam eles 
diretos x indiretos, abertos ou fechados. É tempo de seguir em frente 
com mais estudos qualitativos (MILES e HUBERMAN, 1997), e 
educar nossos gerentes, começando pelas nossas crianças, que o 
mundo não é somente quantitativo, e sim qualitativo. Pelo menos, que 
bom estudo quantitativo não deveria ser precedido por um qualitativo? 
CRESWELL (1998), e também KIRK e MILLER (1986) oferecem-
nos alguns conceitos e discussões a respeito de pesquisa qualitativa e 
principalmente sobre confiabilidade (ou fidedignidade) e validade 
desse tipo de estudo. Da mesma maneira, a revista MIS Quarterly 
(v.21, no.3, September 1997) publicou 3 papers baseados em pesquisa 
qualitativa deste mesmo assunto. 
MASON (1997, p.9-34) oferece-nos alguns insights sobre essa 
discussão: o que deveria ser uma pesquisa qualitativa? De que forma 
relacionar aspectos quali e quanti em uma pesquisa ? Estas pesquisas, 
seja na obtenção dos dados seja no tratamento destes, deveriam ser 
sistemática, rigorosa e estrategicamente conduzidas, ainda flexíveis e 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.26 
 
 
contextuais, deveriam envolver críticas auto-construtivas pelo 
pesquisador, ou provocar reflexões. Também deveriam produzir 
explicações sociais para charadas ou quebra-cabeças intelectuais 
permitindo a generalização de alguma forma ou então, permitindo 
ampla aplicação. Não ser vistas como um corpo unificado de filosofia 
e prática, cujos métodos podem simplesmente ser combinados sem 
problemas, nem ser vistas como necessariamente opostas e não 
complementares. Ainda, deveriam ser conduzidas como uma prática 
ética levando em consideração o contexto político. 
De fato, sejam quais forem os fenômenos, entidades ou 
realidade objetos de investigação, o uso conjunto destes métodos 
qualitativos e quantitativos permitiriam um maior aprofundamento no 
conhecimento dos dados, evidenciando-se aspectos do que se deseja 
investigar e, da mesma forma, possibilitando focar o pensamento 
sobre o assunto, decidir e executar. O uso conjunto destes dois tipos 
de análise permite estabelecer conclusões: é importante, pois, 
diferenciar ambos enfoques, identificando as possibilidades de cada 
um. Existem ainda outras oposições qualitativo-quantitativo: 
impressionismo versus sistematização, hipóteses versus verificação, 
flexibilidade e liberdade versus rigidez (FREITAS, CUNHA e 
MOSCAROLA, 1997). 
Enquanto a análise qualitativa se baseia na presença ou 
ausência de uma dada característica, a análise quantitativa busca 
identificar a frequência dos temas, palavras, expressões ou símbolos 
considerados. A noção de importância deve ser clara em cada uma 
destas análises: o que aparece seguido é o que importa na análise 
quantitativa, enquanto a qualitativa valoriza a novidade, o interesse, os 
aspectos que permanecem na esfera do subjetivo. Tem-se assim um 
dilema de análise: adotar categorias específicas, retratando fielmente a 
realidade, mas com uma lista de temas cuja frequência será fraca, ou 
então reagrupar deliberadamente os dados num pequeno número de 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.27 
 
 
categorias, não sem sacrificar informação talvez essencial, a qual 
ficará perdida no resultado final (FREITAS, CUNHA e 
MOSCAROLA,1997). 
São diversas as fontes e motivações que podem viabilizar a 
coleta de dados textuais (todo dado cujo conteúdo é texto ou 
alfanumérico): questões abertas de pesquisas de opinião de mercado e 
outras; o conteúdo de respostas de entrevistas; mensagens recebidas e 
enviadas; livros, artigos e textos quaisquer; campos tipo texto nas 
bases de dados corporativas ou outras; o registro automatizado de 
telefonemas profissionais ou mesmo pessoais (como os de serviço de 
atendimento ao cliente); o registro automatizado das operações de 
consulta de sistemas corporativos como o registro de logs Internet, 
Intranets e outros sistemas, como por exemplo transações bancárias, 
suporte técnico, todas operações das caixas de supermercado, etc. 
Todas estas fontes de dados devem ser exploradas via quantificação e 
resumo, de forma a permitir a melhor compreensão e interpretação do 
seu conteúdo, visando daí depreender idéias, ações, enfim, produzir 
uma informação mais rica para embasar as decisões. Algumas outras 
aplicações de análise de dados qualitativos são: análise de entrevistas 
não diretivas, focus group; análise de mídia (TV, imprensa, ...); 
controle de redação; pesquisas de mercado e de opinião; marketing 
direto a partir de arquivos internos ou externos; análise de 
documentos; auditoria na comunicação interna; inteligência 
Competitiva (patentes, pesq. bibliográfica); gestão de RH (sondagem 
opinião interna,...), etc. 
A análise de documentos, sejam eles originários de pesquisas 
quali ou quantitativas, inclui análise léxica e análise de conteúdo. Ela 
apresenta um conjunto de características racionais, sendo mais ou 
menos intuitiva, pessoal e subjetiva. Como outros métodos, apresenta 
problemas de validade, como autenticidade do texto, validade de 
interpretação e veracidade dos fatos. Tem ainda, em muitos casos, o 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.28 
 
 
defeito do trabalho não sistematizado, dependendo fortemente do 
valor e competência do pesquisador. 
Com o uso conjunto destas técnicas de análise de textos é 
possível produzir novos dados que podem, por sua vez, ser 
confrontados especialmente com dados sócio-demográficos, como por 
exemplo um elenco de reclamações ou sugestões agora vistas por 
sexo, por faixa etária, por renda, por departamento ou qualquer outro 
dado mais objetivo ou quantitativo. Antecipar a análise léxica à de 
conteúdo faria com que a análise de dados se desse de uma maneira 
plena, ou seja, o uso destas duas técnicas encobrem diversas das 
possibilidades que dali poderiam surgir ou fazer emergir. Ao final de 
um esforço de análise de dados, poderia-se dispor de resultados 
significativos aplicáveis à uma dada realidade. Como isso deve ser 
feito? De que maneira combinar o uso destas duas formas de análise? 
Os dois tipos de análise de questões abertas são representados na 
Figura 2 (FREITAS e MOSCAROLA, 2000). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.29 
 
 
 
 
 
 
 
 
Figura 2 - A análise de conteúdo e a análise léxica (FREITAS e MOSCAROLA, 2000) 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.30 
 
 
A Análise Léxica (FREITAS e MOSCAROLA, 2000) consiste 
em se passar da análise do texto para a análise do léxico (o conjunto 
de todas as palavras encontradas nos depoimentos ou respostas). Já a 
Análise de Conteúdo (FRANKFORT-NACHMIAS e NACHMIAS, 
1996, p.324-330), que consiste em uma leitura aprofundada de cada 
uma das respostas, onde, codificando-se cada uma, obtém-se uma 
idéia sobre o todo (FREITAS, 2000). WEBER (1990, p.10) apresenta 
algumas vantagens da análise de conteúdo, destacando sua 
aplicabilidade na análise de textos de comunicação de toda natureza, 
bem como o fato de permitir combinar métodos quanti e qualitativos, 
e mesmo explorar séries longitudinais de documentos ou fontes 
múltiplas, e enfim o fato de poder tratar com dados ditos mais 
espontâneos (e não induzidos ou expressamente perguntados). 
Com base em textos europeus (GRAWITZ, 1993; GAVARD-
PERRET e MOSCAROLA, 1995), FREITAS, CUNHA e 
MOSCAROLA (1997) apresentam noções gerais sobre a análise de 
dados textuais, com sete diferentes níveis de aplicação e 
desenvolvimento da análise léxica, ilustrando a aplicação e uso dessas 
técnicas. Este tipo de análise contribui para a interpretação das 
questões abertas ou textos, a partir da descrição objetiva, sistemática e 
quantitativa do seu conteúdo. 
Diversas referências podem ser consultadas para um maior 
aprofundamento nas questões da análise de dados qualitativos. 
WEBER (1990) publicou o livro “Basic Content Analysis”, 
SILVERMAN (1993) descreve métodos para analisar discursos, textos 
e interações, no livro “Interpreting Qualitative Data”, MILES e 
HUBERMAN (1994) publicaram o livro “Qualitative Data Analysis”, 
o Journal of Applied Management Studies, inglês, publicou dois 
papers com aplicação de análise de conteúdo e análise léxica: 
CROUCH e BASCH, “The Structure Of Managerial Thinking”, e 
OSWICK, KEENOY e GRANT, “Managerial Discourses...”. A MIS 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.31 
 
 
Quarterly também publicou pesquisa qualitativa durante 1997, 
mostrando disposição da comunidade (e dos editores!) rumo a estudos 
qualitativos. A literatura francesa também está recebendo novos 
textos, da parte de BARDIN (1996), e de LEBART e SALEM (1994). 
Na sequência são apresentadas tais técnicas de análise, 
buscando enfatizar sua complementaridade. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.32 
 
 
3.1. A Análise Léxica 
Toda a análise de textos começa pela organização completa do 
vocabulário utilizado. Mais do que palavras, fala-se de formas gráficas 
ou simplesmente de formas breves em razão de uma certa 
ambigüidade da palavra. A organização consiste em isolar cada forma 
gráfica supostamente delimitada por dois caracteres separadores que 
na maioria das vezes são os próprios espaços, mas também podem ser 
sinais de pontuação. Cada aparição de uma forma de dado é chamada 
ocorrência, as quais são evidentemente contabilizadas para formar o 
léxico. O léxico é então, por definição, a lista de todas as formas 
gráficas utilizadas, cada qual estando munida de um número de ordem 
ou frequência (LAGARDE, 1995, p.144-145), ou ainda o conjunto das 
palavras diferentes usadas nesse texto, com a sua frequência de 
aparição (FREITAS, 2000). 
Já a Análise Léxica consiste em averiguar ou medir a 
dimensão das respostas: as pessoas responderam de forma extensa ou 
concisa? Cria-se uma hipótese de que aqueles que deram respostas 
extensas têm um interesse maior do que os demais. Uma hipótese 
discutível que dará, porém, uma indicação (FREITAS, 2000). Nesse 
tipo de técnica são feitas análises de palavras, e não de respondentes. 
Por exemplo, caso uma dada palavra apareça n vezes após realizada 
uma contagem, isso não significa que aquela palavra, ou aquela idéia, 
possa ser generalizada para grande parte dos respondentes ou 
representar uma idéia que tenha aparecido em várias opiniões: pode 
muito bem ocorrer que determinado respondente, ou um pequeno 
grupo destes, tenham enfaticamente apontado para aquela idéia, 
repetidamente (por que não?), diferentemente de uma Análise de 
Conteúdo, onde são identificadas idéias por respondentes, 
independentemente deste ter citado a palavra 1, 2 ou mais vezes. 
Freitas & Janissek –Análise léxica e Análise de conteúdo – p.33 
 
 
Então pode-se dizer que a análise léxica é o estudo científico 
do vocabulário, com aplicações de métodos estatísticos para a 
descrição do vocabulário: ela permite identificar com maior detalhe as 
citações dos participantes, utilizando indicadores que relacionam 
aspectos relativos às citações e às palavras (BARDIN, 1996). A 
evolução se dá da visão geral do texto para os dados na sua essência, 
sejam eles palavras ou expressões (LEBART e SALEM, 1994, p.58-
69), onde posteriormente serão novamente analisados com vistas ao 
universo total de informações. 
Pode-se ainda colocar que, através de processos automáticos 
que associam a matemática e a estatística, o uso da Análise Léxica 
permite rapidamente interpretar e fazer uma leitura adequada e 
dinâmica das questões abertas das enquêtes. Esse procedimento não é 
mais rigoroso do que a Análise de Conteúdo clássica. Seu tratamento 
dos dados é objetivo, mas a leitura subjetiva também é realizada: tem-
se, assim, acesso a um processo de leitura mais rápido, automatizado e 
que, por outro lado, encontra um certo número de justificativas 
(FREITAS, 2000). 
A partir do corpo do texto, ou seja, o conteúdo das respostas 
abertas, evolui-se para analisar palavras e expressões, o léxico. Ao 
fazer isso, parte-se de um nível que se pode chamar de 
macroestatístico, iniciando com as entrevistas que foram realizadas e 
elencando as palavras produzidas nas respostas (GRAWITZ, 1993). 
Um esquema geral (Figura 3) para Análise Léxica é proposto por 
FREITAS, MOSCAROLA e JENKINS (1998). 
Uma Análise Léxica inicia sempre pela contagem das palavras, 
avançando sistematicamente na direção de identificação da dimensão 
das respostas. Nos casos de respostas abertas, normalmente são feitas 
aproximações ou agrupamentos que permitam apresentar critérios 
mais frequentemente citados, agrupando palavras afins, deletando 
palavras que não interessam, até resultar num conjunto tal de palavras 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.34 
 
 
que representem na essência as principais descrições citadas nos 
textos. 
Tudo depende do quão sutil é feita a análise pelo pesquisador e 
da qualidade dos dados (amostra). Uma análise rápida em uma 
pequena amostra normalmente apresentará problemas de dispersão de 
um mesmo tema, de uma mesma idéia, até mesmo problemas de 
sinônimos. O tratamento para tal seria o correto agrupamento de 
palavras em critérios semelhantes. Nestes casos, as frequências 
permitem consolidar a aplicação de um tema ou locução, 
possibilitando uma análise de contexto onde as categorias 
identificadas representem a essência das idéias apresentadas 
(LEBART e SALEM, 1994, p.135-142). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.35 
 
 
 
 
 
 
 
 Corpo do Texto 
Navegação 
Léxica 
Reduzindo e 
Estruturando o 
Léxico 
 Lematizador 
Corpo do texto 
lematizado 
Dicionário 
 Estrutura 
Estatística 
Variáveis 
De 
Contexto 
 
Verbatim 
Medidas 
Lexicais: 
Intensidade 
banalidade 
Variáveis 
fechadas 
do léxico 
 
 
Figura 3 - Esquema para Análise Léxica 
Fonte: FREITAS, MOSCAROLA e JENKINS (1998) 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.36 
 
 
Como ilustra a Figura 3, a realização de uma análise léxica se 
dá da seguinte forma: faz-se inicialmente o tratamento deste do 
conteúdo de um texto ou respostas abertas, através da identificação de 
número total de ocorrências de cada palavra, número total de palavras, 
número total de palavras diferentes ou vocábulos e a riqueza de 
vocabulário para produzir uma resposta (LEBART e SALEM, 1994, 
p.247). Além disso, classificam-se tais unidades de vocabulário em 
palavras ricas com algum significado, como verbos, substantivos e 
adjetivos, além de palavras instrumentais como artigos, preposições, 
etc. É também possível identificar o tempo aplicado a cada resposta, 
se isso, é claro, for aplicável naquela situação. A organização da frase, 
e certos aspectos sintáticos, são suscetíveis de revelar certas 
características de um discurso ou apontar confirmações de certas 
hipóteses formuladas, além das comparações entre estas. Para isso, 
deve-se ir além da Análise Léxica, iniciando a Análise de Conteúdo 
(BARDIN, 1996, p.82-92). 
Há recursos e técnicas que podem ser aplicados para ter um 
corpo do texto lematizado, ou seja, transformar as palavras que ainda 
constituirão o léxico na sua forma infinitiva ou na sua forma original 
(fala-se aqui no que diz respeito a verbos, substantivos e adjetivos). 
Pode-se assim reduzir significativamente o léxico, e, a partir daí, criar 
novos dados, objetivos (fechados sobre palavras do léxico), bem como 
gerar novos dados com medidas lexicais (intensidade lexical, 
banalidade ou trivialidade e ainda originalidade) (SPHINX, 1997). 
Tal análise, representada na Figura 3, inicia pela aproximação 
lexical sumária, que consiste em reduzir o texto apresentando as 
palavras mais frequentes que permitem uma idéia do seu conteúdo. 
Em seguida é realizada a aproximação lexical controlada, que reduz o 
texto ao seu léxico e controla, via navegação lexical, a validade e o 
fundamento das interpretações elaboradas a partir do léxico. Após 
isso, é realizada a aproximação lexical seletiva, eliminando palavras-
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.37 
 
 
ferramentas e concentrando a atenção no exame de substantivos, 
verbos e adjetivos via utilização de dicionários e de um lematizador. 
Em seguida, é realizada a pesquisa das especificidades lexicais, que 
estabelece uma estatística das palavras do texto, segundo uma variável 
externa não textual (por exemplo país, região, departamento). A 
descrição do texto através de variáveis nominais e o cálculo das 
intensidades lexicais permitem que cada resposta seja descrita pela 
intensidade segundo a qual se manifestam os diferentes campos 
estudados. O aprofundamento da análise pode se dar com a análise bi 
ou multivariada dos dados textuais em função de outros dados, 
integrando-a desta forma com a análise de dados clássica (FREITAS, 
CUNHA e MOSCAROLA, 1997). 
Com a Análise Léxica, é possível apresentar opções (palavras, 
agrupamentos, expressões) para desvendar caminhos e descobrir 
opiniões, identificar necessidades, obsessões, seja qual for a intenção 
da pesquisa ali aplicada. Descobrir as razões de tal objeto de estudo 
significa passar da indecisão para a riqueza da leitura, e isso pode ser 
feito com o uso combinado das técnicas apresentadas neste livro. 
Desta forma, não somente pode-se contar com uma leitura das 
respostas, o que por si só já nos diz muita coisa, mas também com a 
identificação das opiniões expressas nas entrelinhas destes mesmos 
textos. Se em uma leitura espontânea já se pode identificar idéias, o 
que se poderia dizer de uma leitura e categorização mais atenta no 
sentido de observar e descobrir conteúdos ali ditos de forma indireta 
ou até mesmo obscura, permitindo descobrir significados e elementos 
suscetíveis não identificados a priori. De fato, a aplicação sequencial 
e recorrente destas técnicas permite assim avançar. 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.38 
 
 
3.2. A Análise de Conteúdo 
Quando os dados a analisar se apresentam sob a forma de um 
texto ou de um conjunto de textosao invés de uma tabela com valores, 
a análise correspondente assume o nome de Análise de Conteúdo – 
neste texto AC (LAGARDE, 1995, p.143). A AC é uma técnica de 
pesquisa para tornar replicáveis e validar inferências de dados de um 
contexto que envolve procedimentos especializados para 
processamentos de dados de forma científica. Seu propósito é prover 
conhecimento, novos insights obtidos a partir destes dados 
(KRIPPENDORFF, 1980). 
Uma parte importante do comportamento, opinião ou idéias de 
pessoas se exprime sob a forma verbal ou escrita. A Análise de 
Conteúdo destas informações deve normalmente permitir a obtenção 
destas informações resumidas, organizadas. A AC pode ser usada para 
analisar em profundidade cada expressão específica de uma pessoa ou 
grupo envolvido num debate. WEBER (1990, p.9) apresenta alguns 
propósitos para uso de AC. Permite também observar motivos de 
satisfação, insatisfação ou opiniões subentendidas, natureza de 
problemas, etc, estudando as várias formas de comunicação. É um 
método de observação indireto, já que é a expressão verbal ou escrita 
do respondente que será observada. Não existiria dentro desse método 
uma riqueza e uma diversidade de modos de expressão? A AC torna 
possível analisar as entrelinhas das opiniões das pessoas, não se 
restringindo unicamente às palavras expressas diretamente, mas 
também àquelas que estão subentendidas no discurso, fala ou resposta 
de um respondente (PERRIEN, CHÉRON e ZINS, 1984, p.27). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.39 
 
 
O objetivo da AC é a inferência2 de conhecimentos relativos às 
condições de produção com a ajuda de indicadores. A AC é como um 
trabalho de um arqueólogo: ele trabalha sobre os traços dos 
documentos que ele pode encontrar ou suscitar, traços estes que são a 
manifestação de estados, dados, características ou fenômenos. Existe 
alguma coisa a descobrir sobre eles, e o analista pode manipular esses 
dados por inferência de conhecimentos sobre o emissor da mensagem 
ou pelo conhecimento do assunto estudado de forma a obter resultados 
significativos a partir dos dados (Figura 4). Ele trabalha explorando os 
dados, como um detetive (BARDIN, 1996, p.43-44). Nesse sentido, a 
descrição do conteúdo é a primeira etapa a ser cumprida, a qual passa 
pela já citada Análise Léxica pela possibilidade de leitura rápida do 
conteúdo das respostas através de resultados tabulados das frequências 
das mesmas. Parte-se de dados qualitativos - fazendo um agrupamento 
quantitativo - para análise qualitativa novamente. 
 
2 Inferência: operação lógica, pela qual se aprova uma proposição em verdade de sua ligação 
com outras proposições já tênues por verdades (BARDIN, 1996, p.43). Este tema é desenvolvido por 
BARDIN (1996, p.169-177). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.40 
 
 
 
 
 
 
 
 
 
 Leitura Normal 
 
 
 
 Variáveis Inferidas / Análise de Conteúdo 
 
 
Figura 4 – Análise de Conteúdo 
BARDIN (1996, p.46) 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.41 
 
 
Fazer o processo dedutivo ou inferencial a partir de índices 
(palavras) ou indicadores não é raro dentro da prática científica. O 
médico faz suas deduções sobre a saúde de seu paciente graças aos 
seus sintomas, o meteorologista faz a previsão do tempo inferindo 
sobre estados ou posições da natureza. Ocorre o mesmo dentro da 
Análise de Conteúdo, pela dedução através da leitura e compreensão 
das mensagens. Os fatos, deduzidos logicamente a partir de 
indicadores, permitem tirar conclusões, obter novas informações ou 
completar conhecimentos através do exame detalhado dos dados. Ser 
objetivo, visto que a análise deve proceder segundo as regras pré-
estabelecidas, obedecendo a diretrizes suficientemente claras e 
precisas de forma a propiciar que diferentes analistas, trabalhando 
sobre o mesmo conteúdo, obtenham os mesmos resultados. Ser 
também sistemático, pois todo o conteúdo deve ser ordenado e 
integrado nas categorias escolhidas, em função do objetivo 
perseguido, e elementos de informação associados ou relativos ao 
objetivo não devem ser deixados de lado. Ser ainda quantitativo, pela 
possibilidade de evidenciar os elementos significativos, calcular a sua 
frequência, etc., esta condição não sendo indispensável visto que 
certas análises de cunho qualitativo buscam mais os temas do que a 
sua exata medida ou importância. Segundo GRAWITZ (1993, p.534), 
tais características formam os atributos da Análise de Conteúdo, o que 
é reforçado por PERRIEN, CHÉRON e ZINS (1984) e FREITAS, 
MOSCAROLA e JENKINS (1998). 
Pode-se, ainda, classificar a AC de acordo com o propósito de 
investigação, que pode ser a descrição de características de 
comunicação - perguntando o quê, como e de quem alguém disse tal 
coisa, a inferência dos antecedentes da comunicação - que envolve 
perguntar porque alguém disse alguma coisa - ou ainda fazer 
inferências sobre os efeitos da comunicação - perguntando com que 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.42 
 
 
intenção alguém disse tal coisa (HOLSTI, 1969 e JANIS, 1965 apud 
KRIPPENDORFF, 1980, p.34). 
De fato, a Análise de Conteúdo é “uma técnica de pesquisa 
utilizada para tornar replicáveis e validar inferências de dados para seu 
contexto, segundo seus componentes, relações ou transformações 
entre estes” (KRIPPENDORFF, 1980, p.35). Para BARDIN (1996, 
p.47), AC é “um conjunto de técnicas de análise das comunicações 
que, através de procedimentos sistemáticos e objetivos de descrição do 
conteúdo das mensagens, visa obter indicadores (quantitativos ou não) 
que permitam a inferência de conhecimentos relativos às condições de 
produção e de recepção (variáveis inferidas) destas mensagens”. A 
seguir, abordam-se alguns tópicos inerentes, como: os tipos de Análise 
de Conteúdo, as suas etapas, o seu valor como instrumento ou técnica 
de pesquisa, bem como seu uso e aplicação. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.43 
 
 
3.2.1. Tipos de Análise de Conteúdo 
Uma vez que diferentes fontes de dados estão normalmente 
disponíveis, pode-se usar vários modelos para explorar, processar e 
analisar dados. GRAWITZ (1993) desenvolve 3 diferentes enfoques 
(valorizados por FREITAS, MOSCAROLA e JENKINS, 1998): 
 
 Verificação ou Exploração? Deve-se fazer distinção entre a 
análise de documentos tendo como objetivo a hipótese de 
verificação (sabendo-se o que se busca e podendo-se quantificar 
os resultados - neste caso o objeto é preciso), e aquela análise 
cujo objetivo seja exploração ou definição de hipóteses, onde a 
análise é menos rigorosa e sistemática, seguindo papéis e 
técnicas que não podem ser padronizadas, visto que faz apelo à 
intuição e à experiência. 
 
 Análise quantitativa ou análise qualitativa? A análise 
quantitativa tenta acumular a frequência de temas, palavras ou 
símbolos, enquanto análise qualitativa é baseada na presença ou 
ausência de dadas características. Outra dicotomia quali-quanti é 
impressões versus sistematizações, hipóteses ao invés de 
verificações, e flexibilidade como oposto à rigidez. O que é 
importante deve estar claro em cada um dos tipos de análise. O 
número de vezes que um dado elemento ocorre é o que conta 
para a análise quantitativa, enquanto a novidade, interesse,tema 
ou atributo subjetivo é o objeto da análise quali. Sempre se tem 
um dilema: adotar categorias representativas, ou reagrupar 
deliberadamente os dados em um pequeno número de 
categorias, sacrificando informações. BERELSON (1971, apud 
FRANKFORT-NACHMIAS e NACHMIAS, 1996, p.328) 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.44 
 
 
define que “a Análise de Conteúdo se sustenta ou se destrói 
pelas suas categorias”. FRANKFORT-NACHMIAS e 
NACHMIAS apontam, baseados na literatura, uma série de 
categorias mais frequentemente empregadas, do tipo “o que é 
dito” (tema, sentido, padrão, valores, métodos, características, 
origem, tempo, conflito, etc) e “como é dito” (forma ou tipo de 
comunicação, método ou técnica utilizada, forma de definição). 
 
 Análise direta ou indireta? A análise quantitativa direta, 
medida mais comumente utilizada, consiste em contabilizar as 
respostas tal qual elas aparecem; já a análise quantitativa 
indireta pode, por vezes, além do que se tem como resultado 
claro e manifesto, obter por inferência, até mesmo aquilo que o 
autor deixou subentendido. Este tipo de informação (escolha das 
palavras, ritmo do discurso, etc) pode ser muito reveladora. 
Pode-se, então, a partir de uma análise quantitativa, buscar uma 
interpretação mais sutil, ou o que é latente sob a linguagem 
explícita utilizada no texto. A interpretação indireta, que vai 
além do que é dito, não é algo amparado apenas no qualitativo, 
ela pode perfeitamente se apoiar num conteúdo quantificado (e 
que possa ser destacado como exemplo). 
 
 
 
 
 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.45 
 
 
3.2.2. Etapas da Análise de Conteúdo 
Toda a análise de conteúdo deve seguir uma série de etapas 
precisas, que se iniciam pela definição do universo estudado, 
delimitando e definindo claramente, desta forma, o que estará e o que 
não estará envolvido. 
Uma vez estando o universo corretamente definido, inicia-se 
sua categorização, que significa determinar as dimensões que serão 
analisadas, dimensões estas que definem a teia da grade de análise. 
Estas categorias serão determinadas em função da necessidade de 
informação a testar: elas constituirão o coração da Análise de 
Conteúdo. A categorização é uma etapa delicada, não sendo evidente 
determinar a priori suas principais categorias: na verdade, a 
categorização (processo de redução do texto no qual as muitas 
palavras e expressões do texto são transformadas em poucas 
categorias) é o problema central da AC (WEBER, 1990, p.15). Em 
certos casos, sua origem será empírica: a partir de um estudo de um 
certo número de casos, as categorias serão formadas a posteriori. Na 
definição das categorias, é importante utilizar-se dos critérios ou 
palavras identificadas na Análise Léxica. Tais critérios muito 
provavelmente serão agrupados ou reagrupados, formando então as 
categorias. É o que ilustra a Figura 5 (PERRIEN, CHÉRON e ZINS, 
(1984, p.275-277). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.46 
 
 
 
 
 
 
 
Figura 5 – Análise de Conteúdo em etapas 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.47 
 
 
As categorias são as rubricas significativas em função das 
quais o conteúdo será classificado e eventualmente quantificado. 
WEBER (1990, p.56-57) aborda a questão da contagem de categorias. 
No caso de uma enquête, pode-se prever categorias já em forma de 
código. A Análise de Conteúdo deve normalmente permitir o 
aparecimento de variáveis e fatores de influência que se ignorava no 
início dos trabalhos. As categorias, quando não se tem uma idéia 
precisa, devem surgir com base no próprio conteúdo. 
Na enquête de exploração, as categorias constituem elas 
próprias o quadro, objeto ou contexto de análise, enquanto que, na 
busca de verificação de uma hipótese, pode-se ter categorias pré-
definidas. De fato, um mesmo dado aberto pode servir de base aos 
dois exercícios ou lógicas ou estratégias de análise recém evocados. 
Pode-se explorar um dado para saber o que dele pode emergir como 
categorias (a lista de reclamações dos clientes, por exemplo), assim 
como se pode utilizar esse mesmo dado para julgar se a clientela está 
ou não satisfeita (classificação já pronta para se categorizar cada 
respondente em ‘satisfeito’ ou ‘insatisfeito’). 
As categorias devem se originar seja do documento objeto da 
análise, seja de um certo conhecimento geral da área ou atividade na 
qual ele se insere. Das respostas, caso se trate de uma entrevista; dos 
objetivos, intenções, crenças do emissor, no caso de um texto; não 
sem considerar elementos ausentes que podem ser significativos. A 
escolha das categorias é o procedimento essencial da Análise de 
Conteúdo; visto que elas fazem a ligação entre os objetivos de 
pesquisa e seus resultados. O valor da análise fica sujeito ao valor ou 
legitimidade das categorias de análise. É o objetivo perseguido que 
deve pautar a escolha ou definição do que deve ser quantificado. 
Segundo WEBER (1990) e BARDIN (1996), as categorias devem ser 
exaustivas (percorrer todo o conjunto do texto), exclusivas (os 
mesmos elementos não podem pertencem a diversas categorias), 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.48 
 
 
objetivas (características claras de modo a permitir seu uso por 
diferentes analistas em um mesmo texto) e pertinentes (em relação 
com os objetivos perseguidos e com o conteúdo tratado). 
A escolha das unidades de análise é a etapa seguinte: o 
conteúdo de um texto pode ser analisado de diferentes maneiras, 
conforme as unidades de análise que serão definidas. Vários autores 
tratam das unidades de análises, apresentando-as com alguns enfoques 
ou rótulos diferentes. Além de LEBART e SALEM (1994, p.46-50) e 
de WEBER (1990, p.21-24), destacam-se: 
 
 Para PERRIEN, CHÉRON e ZINS (1984), as unidades 
classificam-se em (1) palavras, que são as unidades de análise 
mais desagregadas, pois muitas vezes expressam situações 
momentâneas, medidas por estímulos situacionais; (2) em tema, 
que pode ser definido como a unidade mais manipulável, uma 
vez que compreende proposições ou afirmações de um sujeito - 
a presença ou ausência de um tema pode ser rica em 
informações; (3) em personagens, que representam um outro 
sujeito de interesse, sobre os quais pode-se manipular 
determinadas características e tomá-las como foco de análise e 
ainda (4) as características espaciais ou temporais, que implicam 
em relacionar e medir um certo número de especificidades dos 
textos, evidenciando o conjunto total das idéias apresentadas. 
 
 
 Segundo KRIPPENDORFF (1980, p.57), as unidades de 
análise classificam-se em (1) unidades amostrais, que são 
aquelas partes da observação real, registradas 
independentemente das outras que a acompanham; (2) unidades 
de registro, que são segmentos específicos do conteúdo, 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.49 
 
 
caracterizados por situarem-se dentro de uma dada categoria e 
descritas separadamente, podendo então serem registradas como 
partes analisáveis separadamente das unidades amostrais, e (3) 
unidades de contexto, que fixam limites de informações 
contextuais que podem apresentar a descrição de uma unidade 
de registro. Elas delineiam aquela parte do material necessário 
para ser examinado paraque uma unidade de registro seja 
caracterizada. 
 
A quantificação é a última etapa da Análise de Conteúdo, cujo 
objetivo é permitir o relacionamento das características dos textos 
combinadas ao universo estudado. A presença ou ausência de uma 
unidade igual ao nome das unidades, representa uma quantificação ao 
nível nominal (PERRIEN, CHÉRON e ZINS, 1984, p.274-277). 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.50 
 
 
3.2.3. O valor da Análise de Conteúdo 
A Análise de Conteúdo é uma técnica refinada, delicada, e 
requer muita dedicação, paciência e tempo para satisfazer a 
curiosidade do investigador. Além disso, são necessárias intuição, 
imaginação e observação do que é importante, além de criatividade 
para escolha das categorias já citadas. Ao mesmo tempo, o analista 
deve ter disciplina, perseverança, e ainda rigidez na decomposição do 
conteúdo ou na contagem dos resultados das análises. Existem alguns 
aspectos que GRAWITZ (1993, p.553-558) resgata com relação à AC, 
os quais são abordados e reforçados por FREITAS, MOSCAROLA e 
JENKINS (1998): 
 
 Confiabilidade: A Análise de Conteúdo deve ser objetiva, e 
os resultados devem ser independentes do instrumento utilizado 
para medição, sendo conveniente minimizar as diferenças dos 
pontos de vista entre os analistas. Mas isso é um velho problema 
das ciências sociais, a confiabilidade não deve ser encarada da 
mesma forma quando se trata de análises quantitativas de um 
conteúdo claro e óbvio, como quando se trata de uma análise 
mais qualitativa, onde se procura identificar intenções ocultas, 
onde é preciso identificar presença ou ausência de um elemento 
e não a sua frequência. Segundo KRIPPENDORFF (1980, 
p.146), a verificação da confiabilidade visa prover uma base 
para inferências, recomendações, suporte à decisão ou mesmo a 
aceitação de um fato. 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.51 
 
 
 
 Validade lógica: o instrumento realmente mede o que ele se 
propõe a medir? Uma análise é válida quando a descrição 
quantificada que ela oferece a respeito de conteúdo é 
significativa para o problema original e reproduz fielmente a 
realidade dos fatos que ele representa. É claro, isso é condição 
essencial da representatividade da amostra e supõe que certas 
condições técnicas inerentes a cada estágio sejam observadas 
satisfatoriamente. 
 
 A inferência: este ponto merece especial atenção porque 
algumas das expressões têm mais de uma interpretação, até 
mesmo interpretações positivas ou negativas, dependendo do 
contexto. 
 
 Validade empírica: a predição inerente é justa ou precisa? 
Uma difícil questão para responder. Em lugar de convicções, 
prudência e humildade são recomendadas ao traçar as 
conclusões. Contudo, GRAWITZ (1993) acredita que a 
experiência e o treinamento do analista assinam a validade de 
sua análise. 
 
O valor da Análise de Conteúdo depende da qualidade da 
elaboração conceitual feita a priori pelo pesquisador, e da exatidão 
com a qual ele irá traduzi-la em variáveis, esboço de pesquisa ou 
categorias. Segundo WEBER (1990, p.15), uma variável baseada na 
classificação de um conteúdo é válida na medida em que de fato mede 
o construto que o pesquisador tenciona medir. Os assuntos guiados 
pelas categorias podem suscitar hipóteses interessantes (FREITAS, 
MOSCAROLA e JENKINS, 1998). Qualquer esforço nessa direção 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.52 
 
 
deve passar pela confiabilidade e validade dos resultados gerados 
(KIRK e MILLER, 1986, p.21-24 e p.41-42). Para os resultados de 
pesquisa serem válidos, os dados nos quais eles serão baseados, bem 
como os indivíduos envolvidos na sua análise e ainda o processo que 
vai gerar os resultados devem ser, todos eles, confiáveis. A 
confiabilidade é necessária, ainda que não seja uma condição 
suficiente por si só para a validade. A importância da confiabilidade 
está baseada na sua garantia de que os dados são obtidos 
independentemente do evento de medição, instrumento ou pessoa 
(KRIPPENDORFF, 1980). Dados confiáveis, por definição, são dados 
que permanecem constantes através das variações do processo de 
medida (KAPLAN e GOLDSEN, apud KRIPPENDORFF, 1980, 
p.129). 
A confiabilidade é vista como um problema no contexto de 
pesquisa qualitativa, em relação à sua estrutura de codificação, que 
poderia ser vista por ela mesma como confiável se, em qualquer 
recodificação subsequente, os mesmos códigos fossem repetidos por 
um diferente codificador com uma margem aceitável de erro. 
KRIPPENDORFF (1980, p.130-154) aborda em detalhe esta questão 
da concordância, observando (p.146-147) que adotou em sua equipe a 
diretriz de reter variáveis cuja concordância nesse sentido fosse de 
pelo menos 80% entre os dois codificadores (necessariamente 
independentes, somente discutindo, como último recurso, sobre 
efetivas dúvidas, e não buscando influenciar um no protocolo do 
outro), mas que seriam igualmente retidas ou consideradas variáveis 
cuja concordância fosse entre 67 e 80% (muito embora se deva ser 
sempre cauteloso ao concluir sobre estes resultados)3. Ele observa 
ainda que o custo de não ser zeloso nesse sentido é o de se chegar a 
 
3 OLIVEIRA (1999, p.176-178) evoca referencial sobre o grau aceitável de concordância, 
inclusive identificando na literatura que as chances de concordância entre os classificadores é maior à 
medida que o número de opções ou categorias é menor. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.53 
 
 
conclusões equivocadas nas pesquisas. O autor observa (p.147) que se 
as implicações de uma AC forem consideradas drásticas, deve-se ser 
rigoroso na consideração de níveis de concordância; porém, em se 
tratando de estudos exploratórios sem sérias consequências, o nível da 
concordância "pode ser consideravelmente relaxado, contudo, não tão 
baixo que não permita levar a sério as descobertas". 
Para alcançar um bom nível de concordância, deve-se ter 
cuidado e construir categorias codificadas que sejam mutuamente 
exclusivas e não ambíguas. Não se deve confundir os requisitos que 
surgem na pesquisa hipotético-dedutiva com as demandas da pesquisa 
qualitativa exploratória. Numa abordagem hipotético-dedutiva para 
análise de textos, categorias (pré-definidas) serviriam para condensar 
informações relevantes contidas nos dados, as quais seriam 
representadas através de frequências. Já durante um estudo 
exploratório, a codificação deve ser construída através do próprio 
processo de análise de dados. Deve-se entender que cada abordagem 
requer um enfoque diferente de confiabilidade: um estágio dito 
exploratório, onde o ambiente (categorias e propriedades) é 
desenvolvido e hipóteses são geradas, e um estágio de construção de 
teoria baseada em dados, onde as hipóteses são refinadas com maior 
detalhe (KELLE, 1995, p.25). 
SILVERMAN (1993, p.149) discute validade como sendo 
‘verdade’, ou seja, ele recorre a HAMMERSLEY, para quem validade 
é “interpretada como a extensão ou medida pela qual uma apuração, 
contagem ou codificação representa efetivamente o fenômeno social 
ao qual se refere”. SILVERMAN (1993, p.156-157) descreve duas 
formas de validação na pesquisa qualitativa: a “triangulação” 
(comparar diferentes tipos de dados, quanti e qualitativos, obtidos pelo 
uso de diferentes métodos, como observação e entrevistas, de formaa 
ver se um corrobora o outro) e a “validação pelo respondente” 
(agregando as descobertas de um aos temas sendo estudados pelos 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.54 
 
 
outros, e mesmo avaliando sua reação). Contudo, ele prefere outras 
técnicas a estas. Ele sugere (p.160-166) que sejam utilizados métodos 
que permitam generalizar para uma população mais ampla (mas não 
numa lógica puramente estatística, e sim obtendo informações sobre 
aspectos relevantes da população de casos e comparando o caso em 
análise com esses dados, usando método survey numa amostra 
aleatória de casos, ou ainda realizando diversos estudos etnográficos), 
métodos de teste de hipóteses (indução analítica na busca de 
associações, com constante uso de métodos comparativos e a busca 
por casos de exceção), e mesmo que se use simples procedimentos de 
contagem (uso de alguma quantificação). 
Um procedimento confiável deve render os mesmos resultados 
a partir de um mesmo conjunto de fenômenos, indiferentemente das 
circunstâncias de aplicação (KRIPPENDORFF, 1980; KIRK e 
MILLER, 1986). Um codificador ou analista, por exemplo, pode 
duplicar o que ele tenha tido feito antes e, não encontrando maiores 
divergências entre as duas, concluir que tais dados são confiáveis. 
Agora, imagine o mesmo codificador confrontando sua codificação de 
categorias com codificações feitas por outra pessoa. Neste caso, a 
ausência de desvios é um indicativo de confiança dos dados, mas 
maior ainda porque está livre de erros ou inconsistências de um único 
codificador. Ou ainda, pode ser interessante o fato de estes dados 
serem testados por duas pessoas e ainda serem confrontados com 
normas sistematizadas de verificação. 
Portanto, para testar a confiabilidade dos dados, alguns 
esforços duplicados são essenciais, seja do codificador por si mesmo, 
seja a partir da exigência de codificação por mais de um envolvido, 
em ambas situações confrontando os resultados. Toda comunicação 
entre codificadores tenderá a melhorar o grau de concordância, 
contudo esse mesmo grau terá embutido um viés da própria 
comunicação. Esta confiabilidade da Análise de Conteúdo pode ser 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.55 
 
 
obtida, segundo KRIPPENDORFF (1980, p.130-131), através de 3 
maneiras, que são a estabilidade, a reprodutibilidade e a exatidão, as 
quais exprimem, nessa ordem, o menor e o maior grau de 
confiabilidade. A Figura 6 apresenta características destes 3 tipos de 
confiabilidade. Estes aspectos são reforçados e revisados por WEBER 
(1990, p.17). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.56 
 
 
 
 
 
 
 
 
TIPO ESFORÇOS DEFINIÇÃO RELAÇÕES 
Estabilidade Teste - reteste É o grau ou intensidade no 
qual o processo é invariável 
ou imutável com o passar do 
tempo 
1) Intra-observador / 
Inconsistências 
Reprodutibilidade Teste - teste É o grau ou intensidade no 
qual o processo pode ser 
recriado em variadas 
circunstancias, em 
diferentes locais, usando 
diferentes codificadores. 
1) Intra-observador / 
Inconsistências 
2) Inter-observador / 
Discordâncias 
Exatidão Teste - padrão É o grau ou intensidade no 
qual o processo funciona 
conforme um padrão 
conhecido. 
1) Intra-observador / 
Inconsistências 
2) Inter-observador / 
Discordâncias 
3) Divergências 
sistemáticas, de acordo 
com as regras ou normas 
Figura 6 – A confiabilidade na Análise de Conteúdo: tipos, características e técnicas 
(KRIPPENDORFF, 1980, p.131) 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.57 
 
 
A verificação da estabilidade, dependendo do tipo de análise, 
por exemplo sendo mais ‘exploratória’, já pode ser uma razoável 
argumentação para legitimar o valor dos dados ou categorias 
apresentados, bem como o perfil do analista. No caso de pesquisas de 
‘verificação de hipóteses’, é claro, seria fundamental a verificação 
quanto à reprodutibilidade e à exatidão (KELLE, 1995, p.18-28). 
SILVERMAN (1993, p.144-148) discute detalhadamente sobre 
a confiabilidade, contudo é fortemente baseado em KIRK e MILLER. 
Estes resgatam uma definição de HAMMERSLEY para a 
confiabilidade: “refere-se ao grau de consistência com o qual as 
categorias são definidas por diferentes observadores ou pelo mesmo 
observador em diferentes ocasiões”. A confiabilidade de dados requer, 
portanto, que no mínimo dois codificadores independentes descrevam 
um mesmo conjunto de unidades, ou então um mesmo em duas 
ocasiões com certa distância de tempo. 
A confiabilidade é expressa como uma função de concordância 
entre os codificadores (ou as duas codificações do mesmo analista no 
tempo 1 e no tempo 2) em razão de um mesmo conjunto de dados. 
Uma vez de posse dos resultados de cada codificador (ou do teste e 
reteste de um mesmo codificador), existem vários cálculos que podem 
ser aplicados para verificar o grau de concordância obtido entre os 
codificadores. Tais cálculos são apresentados por KRIPPENDORFF 
(1980, p.133-154). 
Segundo KRIPPENDORFF (1980, p.134), a forma mais 
convincente de expressar a confiabilidade dos dados pode ser obtida 
com base no máximo possível de concordância entre os dois 
avaliadores, isto combinado com uma contagem de desacordos 
observados em função de desacordos esperados, que ele define num 
cálculo chamado “chance de concordância”. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.58 
 
 
EVRARD (1997, p.118-119) revisa diferentes autores a este 
propósito, bem como KRIPPENDORFF (1980, p.138-154). 
Destacam-se duas proposições: um é o índice de convergência - o 
Kappa de Cohen, que compara o percentual de acordo entre os 
analistas em função do que seria obtido ao acaso, numa formulação 
matemática que envolve o número total de julgamentos feitos por cada 
analista, o número de julgamentos sobre os quais os analistas estão de 
acordo e o número de julgamentos em acordo obtidos ao acaso. Outro 
é a medida de percentual de acordo (ou a definição de matrizes de 
contingência entre analistas), onde as categorias de codificação dos 
analistas são relacionadas em uma tabela de duplas entradas, com as 
frequências das classificações que foram identificadas pelos dois 
analistas e a possibilidade de medir o percentual de acordo em relação 
ao percentual de desacordo. 
Numa posição contrária ao excesso de "formulismos", nossa 
idéia é de que - nas pesquisas em SI - estas verificações devem ser 
passíveis de serem realizadas de forma descomplicada e bastante 
honesta, isto qualquer que seja o conhecimento do analista. De fato, o 
que interessa é saber o real grau de concordância entre os dois 
codificadores em questão (normalmente o pesquisador em si e alguém 
que serve de referência). Não se deseja sobretudo induzir o 
pesquisador a realizar manipulações dos resultados observados (ele 
ficará tentado a tal para provar um – supostamente improvável - alto 
grau de concordância), nem desviar sua atenção do objeto investigado 
em si com procedimentos de verificação e cálculos complicados e que 
exigem tempo nobre e muita paciência, além do envolvimento e 
doação de um terceiro. O leitor é quem deve julgar o uso adequado e a 
efetiva cientificidade das verificações da confiabilidade; este texto 
mostra posição a respeito, mas também o referencial necessário e 
suficiente para adoção de outra solução. 
Freitas & Janissek –Análise léxica e Análise de conteúdo – p.59 
 
 
Assim sendo, note-se primeiro que os procedimentos 
matemáticos ou de confrontação com outro analista (indicados na 
literatura já referenciada) são mais pertinentes quando a variável 
envolvida é do tipo assumida ou definida a priori, ou seja, aquelas cuja 
classificação ou categorização foi realizada por ambos com base em 
protocolo comum e bem entendido, oriundo seja de literatura, seja de 
idéias que eles mutuamente compartilham. Neste caso, pode-se 
esperar um certo grau de concordância. 
Isto não é tão verdade para o caso das variáveis ditas inferidas, 
nas quais o pesquisador vai utilizar seu referencial e todo seu domínio 
por estar envolvido na pesquisa para criar categorias de forma 
gradativa à medida que avança de dado em dado. Esperar que o 
segundo analista, o qual realiza a categorização de confrontação, 
possa ter um alto grau de concordância, seria partir do pressuposto que 
ele tem um entendimento da questão e mesmo do seu conteúdo muito 
próximo do pesquisador principal. Ora, isto é muito difícil. Logo, 
deve-se esperar, nestes casos, um não tão alto grau de concordância 
nas confrontações cujo objeto seja este tipo de variável. 
WEBER (1990, p.18) chama a atenção sobre quão 
“potencialmente confusa” pode ser a questão de verificação da 
validade. Mesmo KRIPPENDORFF (1980, p.135) observa que a AC 
pode conter métricas e escalas complexas e distintas. Nossa proposta é 
que o pesquisador realize contagens de acordos e desacordos e, a 
partir disso, possa ter formas simplificadas que permitam dar uma 
noção do grau de concordância entre os dois avaliadores, entre as 
quais as seguintes, baseadas seja nas categorias, seja nas observações 
(pessoas, entrevistas ou fichas): 
 Concordância exata com base no total de itens avaliados 
– em relação ao total de categorias da questão sendo avaliada 
multiplicado pelo número de entrevistas ou pessoas ou fichas, quantas 
categorias foram comuns aos dois avaliadores, independentemente de 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.60 
 
 
terem sido marcadas ou não (marcaram as mesmas e deixaram em 
branco as mesmas) 4. 
 Concordância parcial com base no total de itens 
efetivamente marcados pelo pesquisador (ou pelos avaliadores) – 
em relação ao total de categorias marcadas pelo pesquisador, quantas 
destas foram também marcadas pelo segundo avaliador, 
desconsiderando as desigualdades. Ou ainda, também a quantidade de 
categorias que o pesquisador deixou em branco e também foram 
deixadas em branco pelo segundo avaliador. A sofisticação (ou 
ponderação ou mesmo relativização) deste indicador seria também 
verificada pela quantidade de categorias que o pesquisador marcou e 
não foram marcadas de forma correspondente pelo segundo avaliador 
(o que se obtém diretamente, descontando do número total de 
categorias marcadas pelo pesquisador o número de categorias 
coincidentes marcadas pelos dois, ou seja, o número de categorias que 
o segundo avaliador marcou e que coincidem com as categorizações 
de fato do pesquisador). Além disso, também poderia ser indicada a 
quantidade de categorias que o segundo avaliador marcou e que não 
foram marcadas de forma correspondente pelo pesquisador (o que se 
obtém diretamente, descontando do número total de categorias 
efetivamente marcadas pelo segundo avaliador o número de categorias 
coincidentes marcadas pelos dois, este último tendo sido gerado a 
partir da comparação caso a caso ou categorização entre o pesquisador 
e o segundo avaliador). Estes dois últimos valores serviriam para 
mostrar que o principal indicador (a quantidade de categorias de fato 
igualmente marcadas) tem sua força de argumento amenizada. Este é 
um indicador simples que mostra honestamente o grau efetivo de 
concordância. 
 
4 OLIVEIRA (1999, p.357) em sua pesquisa de doutorado, aplicou um cálculo de 
confiabilidade da codificação de uma questão aberta texto da seguinte forma: o coeficiente de 
concordância foi calculado dividindo o número total de citações com codificação igual pelo número total 
de citações e multiplicado por 100. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.61 
 
 
 Concordância exata com base no total de respondentes – 
forma mais rígida de avaliação da concordância – qual o número de 
entrevistas ou pessoas ou fichas nas quais a marcação ou 
categorização realizada pelos dois avaliadores é exatamente 
coincidente? 
 Concordância parcial com base no total de respondentes 
– flexibilização do critério de avaliação da concordância – com 
margem de mais ou menos um, mais ou menos dois, etc, ou seja, qual 
o número de entrevistas ou pessoas ou fichas nas quais a marcação ou 
categorização realizada pelos dois avaliadores é quase coincidente 
(quase todos coincidem, exceto um ou dois, ou mesmo uma 
quantidade razoável a ser definida pelo pesquisador, de acordo com o 
número de categorias envolvidas na questão)? 
 
No item 6.4 deste livro, são aplicadas estas idéias numa 
confrontação envolvendo uma variável cujas categorias foram 
inferidas a partir do conteúdo de cada entrevista, e também numa 
outra cujas categorias foram definidas a priori pelo pesquisador com 
base na literatura e na prática gerencial. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.62 
 
 
3.2.4. Aplicação da Análise de Conteúdo 
Os recursos oferecidos pelas ciências sociais para nossa 
reflexão são essencialmente compostos de comunicações orais ou 
escritas, que incluem textos de entrevistas, falas, discursos e 
conversas. Qualquer que seja o nível que se deseje atingir e o objeto 
de nossas pesquisas, os dados a reunir para compreender, explicar 
opiniões, condutas, ações, enfim, estes dados são quase sempre de 
origem verbal. A ação, quando nós a apreendemos, apresenta-se em 
um contexto de palavras: sempre se encontram falas ou discursos e 
escritos ou textos, ou seja, documentação em palavras. A Análise de 
Conteúdo pode ser uma boa técnica para ser usada em todos os tipos 
de pesquisa que possam ser documentadas em textos escritos 
(documentos oficiais, livros, jornais, documentos pessoais), em 
gravações de voz ou imagem (rádio, televisão, etc), ou em outras 
atividades que possam ser decompostas como uma entrevista, por 
exemplo. É muito importante que pesquisadores sociais estejam aptos 
a analisar esse tipo de dados de uma forma científica, não se 
contentando apenas com impressões casuais. A novidade em 
procedimentos modernos de Análise de Conteúdo está em substituir as 
impressões por procedimentos padronizados, quantitativos, através da 
transformação de dados iniciais (provenientes de pesquisas 
qualitativas) em dados possíveis de serem analisados digamos mais 
cientificamente. Para isso, utiliza-se da decomposição do texto, que 
será estudado como uma função das palavras que ele contém ou idéias 
que ele representa, este último sendo escolhido em função das 
relações com os objetivos da nossa pesquisa aqui descrita (FREITAS, 
MOSCAROLA e JENKINS, 1998). 
Qualquer que seja a comunicação, está-se na presença de um 
emissor que lança uma mensagem possuindo conteúdo e forma, 
visando atingir um objetivo, e endereçada a um ou vários receptores. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.63 
 
 
Quem fala? Para dizer o quê? A quem? Como? Com que resultado? 
De acordo com BERELSON (in GRAWITZ, 1976, p.623), a Análise 
Léxica e a Análise de Conteúdo podem ser aplicadas nos casos que 
requerem maior precisão ou objetividade. Pode-se aplicar este tipo de 
técnica de análise de dados de várias formas, envolvendo diferentes 
fontes de dados. As comparações e evoluções formam o principal 
campo da Análise de Conteúdo, onde se aplica portanto a utilidade da 
Análise Léxica para basear toda uma evolução. Quando 
suficientemente definidas, detalhadas e analisadas em conjunto, 
permitem-nos passar de uma simples descrição e alcançar o objetivo 
de toda pesquisa científica: a descoberta de explicações e relações 
causais (FREITAS, MOSCAROLA e JENKINS, 1998). 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.64 
 
 
4. Aplicações de análise qualitativa em gestão e em sistemas de 
informação 
A aplicação e utilidade da análise de dados qualitativos, vistas 
a partir das técnicas de Análise Léxica e de Análise de Conteúdo 
recém revisadas, pode ser verificada se valorizarmos diferentes 
estudos que têm sido desenvolvidos dentro da gestão e mais 
especificamente na área de sistemas de informação e decisão. A 
seguir, alguns destes estudos são resgatados. KIRK e MILLER (1986, 
p.24-29, p.33-40, p. 43-49), WEBER (1990) e MILES e 
HUBERMAN (1994) descrevem alguns exemplos básicos de 
aplicação. 
A exploração automática e sistematizada de informações 
geradas a partir do próprio uso de sistemas por clientes ou usuários 
finais tem sido muito valorizada ultimamente: um exemplo é o fato de 
o navegador Internet ser surpreendido com um ‘bom dia” 
personalizado já no seu segundo acesso a um dado site Internet, bem 
como ver oferecida uma lista de produtos adequada a aspectos (ou 
palavras-chave) identificados quando de sua última conexão. Em 
FREITAS (1993) e FREITAS e BALLAZ (1993), apresenta-se estudo 
no qual eram analisados os ‘traçados’ ou dados gerados e 
armazenados automaticamente a partir da interação do usuário com 
uma interface disponibilizada remotamente (a experiência do minitel 
francês foi pioneira nesse sentido): a partir disso, mesmo uma 
tipologia de usuários seria possível. Era então chamada a atenção para 
aspectos da mineração de dados, bem como de sua exploração 
comercial ou mesmo para melhoria do próprio sistema. A análise do 
conteúdo dos dados gerados por cada um era o foco da questão. 
Vários estudos estão sendo realizados por nossa equipe (GESID - 
http://www.ppga.ufrgs.br/gesid), enfatizando procedimentos para 
mineração de dados (GONÇALVES,1999 e BERNARDES, 1999). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.65 
 
 
Uma outra aplicação bem interessante é a de um projeto nosso, 
no qual dados simples são estruturados e colocados em um só espaço 
para aplicação de técnicas de datamining: trata-se aqui dos anais dos 
congressos da ICIS (International Conference on Information 
Systems) e da AIS (Association for Information Systems), hoje na sua 
maioria disponíveis via Internet ou CD-ROM, bem como da ANPAD 
(Associação Brasileira dos Programas de Pós-Graduação em 
Administração). Estruturou-se uma base de dados (com campos como 
“conferência”, “sessão”, “autores”, “título”, “resumo”, etc), e então se 
tem condições de explorar e de comparar dados, com a identificação 
de especificidades e de principais temas. Pode-se ter uma idéia de 
quão “mundiais” são estes encontros, identificando ainda temas, 
pessoas e universidades para intercâmbio, como numa pesquisa de 
literatura. Em FREITAS (2000), com base em dados dos anais da AIS 
97, ICIS 96 e 97, da ECIS (European Conference) 1996 e 97, e do 
Enanpad Adminfo 1995-97, foram indicados elementos interessantes e 
curiosos sobre a área acadêmica de administração da informação. De 
fato, isso constitui uma base de dados para análises em projetos 
futuros, contendo a parte de referência essencial dos anais dos 
congressos: aplicando a técnica de análise de dados qualitativos, é 
possível oferecer uma idéia geral sobre o que está sendo agora feito na 
comunidade mundial, as tendências de temas e métodos, bem como é 
possível focar o esforço de revisão de literatura de projetos ou 
estudantes de nossas equipes. 
Pode-se ainda imaginar outras aplicações, como a de 
MOSCAROLA (1996), a qual diz respeito à busca (datamining) na 
Internet de um debate eleitoral nos EUA: “Dole versus Clinton” 
imediatamente após sua realização. Este é um campo de aplicação 
interessante, o da análise dos discursos, seja dos documentos 
estratégicos ou de políticas de uma organização, seja este do debate 
político eleitoral. A exploração desses dados apontou que os 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.66 
 
 
candidatos não estabeleceram um debate: pode-se saber quem disse o 
que, o que foi original em cada um, como cada um abordou certos 
temas como educação ou economia, etc. Pode-se saber que, no caso, 
as intervenções de Clinton eram de em média 19 palavras contra 14 de 
Dole, ou ainda identificar as expressões que se repetiam no discurso 
de cada um (Clinton: worked hard, better of than we were four years 
ago; e Dole: economic package, people watching). Quantas pessoas 
assistiram a este debate e puderam ter rapidamente esta mesma 
percepção? 
Em parceria PPGA/UFRGS, IEL/FIERGS e SEBRAE/RS, foi 
realizada a pesquisa “indicadores da qualidade e produtividade”, 
envolvendo 120 empresas gaúchas, cujo relatório executivo permitiu 
traçar um primeiro diagnóstico com dados seriamente coletados e 
analisados acerca da situação da indústria gaúcha quanto aos 
programas de qualidade. Um terço dos 300 dados coletados com cada 
um dos 240 entrevistados (diretores de RH e de Qualidade ou 
Industrial) eram qualitativos: muitas curiosidades e inconsistências 
entre discurso e ação de fato foram apontados na época (RUAS, 
PIRES, FREITAS, ANTUNES, e CUNHA Jr, 1994). 
Um estudo de 2 anos foi realizado num hospital-universitário, 
usando a técnica de Focus Group para coletar dados em diferentes 
grupos de profissionais envolvidos no processo organizacional e 
educacional (gestores, médicos, professores, enfermeiros, etc). Os 
dados analisados ajudaram na definição de um prontuário essencial do 
paciente, com importantes modificações na gestão da informação 
corporativa e operacional. Este estudo foi apresentado na Argentina, 
Austrália, Brazil, Canadá, e EUA. Importantes ganhos foram 
realizados no Hospital (STUMPF e FREITAS, 1996). 
Foi realizada uma survey cross-cultural exploratória para se 
buscar identificar perfis de tomadores de decisão, envolvendo uma 
centena de gerentes de Brasil, França e EUA (285 ao todo): 72 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.67 
 
 
diferentes dados foram coletados (FREITAS, MOSCAROLA e 
MACADAR, 1996; MACADAR, COSTA, FREITAS, BECKER e 
MOSCAROLA, 1997). O processo de pesquisa, para definição dos 
instrumentos (FREITAS, BECKER, ZANELA, MACADAR, 
MOSCAROLA e JENKINS, 1998; MACADAR, 1998), bem como 
para realização e análise foi muito meticuloso (FREITAS, JENKINS, 
MOSCAROLA, BECKER, ZANELA e MACADAR, 1998; COSTA, 
FREITAS e BECKER, 1998). Este projeto exigiu muitas horas na 
codificação e validação de protocolos de análise, definição de 
dicionários para poder analisar cada uma das questões abertas. Além 
dos perfis ricos em detalhes sobre os decisores nos 3 países 
(http://www.adm.ufrgs.br/professores/hfreitas/decision), todo processo 
de definição e análise, bem como todo instrumental foi descrito 
(FREITAS, MOSCAROLA, JENKINS,BECKER, ZANELA e 
MACADAR, 1998; ZANELA, 1999). Neste caso, três analistas 
debateram suas discordâncias na criação de categorias de análise e 
mesmo quanto à composição de cada categoria, definindo dicionários 
específicos para análises automatizadas de textos-opiniões. 
Em outra survey realizada, coletou-se dados para melhor 
subsidiar o processo de Planejamento de SI de uma organização. 
Nosso objetivo aqui é unicamente ilustrar a aplicação do uso de 
análise de dados qualitativos via análise de conteúdo ou análise léxica. 
A partir de entrevistas com 300 gerentes em uma organização estatal 
americana de gestão dos transportes, foram levantados dados para 
identificar os principais fatores críticos de sucesso, as barreiras à 
adoção de novas tecnologias ou soluções, e outros aspectos. As 
respostas foram livres, depois digitadas, e uma análise de conteúdo foi 
realizada: a partir da leitura de cada resposta, o analista e equipe 
criaram um novo código, gerando novas variáveis (fechadas desta vez, 
e não mais abertas como as originais). Estes novos códigos, a partir de 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.68 
 
 
dados abertos, foram cruciais nas decisões tomadas na sequência do 
projeto (JENKINS, FREITAS, ARSHAM e equipe, 1998). 
OLIVEIRA (1999) divulgou tese na qual definiu uma série de 
indicadores para tomada de decisão na etapa de concepção de um 
processo construtivo: os dados foram levantados a partir de técnicas 
como focus group, survey e estudo de caso. Foram consultados grupos 
de pessoas diferentes, a saber: usuários de edificações, projetistas e 
construtores. Este trabalho detalha o método de análise e de validação 
da informação de forma exemplar. 
Diversos estudos aplicados com análise de dados qualitativos, 
como a “comunicação interna num banco comparada com as 
expectativas dos clientes”, foram realizados por MOSCAROLA 
(1990, 1993, 1994, 1995). Neste estudo, o autor analisou o conjunto 
dos documentos que o banco comunicava aos seus clientes, bem como 
foram entrevistados clientes do banco, evocando sua relação com o 
mesmo. O banco falava do produto, enquanto que o cliente falava de 
seus problemas; o banco falava do quanto ele é bom e o cliente falava 
sobre as dificuldades nas quais se encontrava. Os dados obtidos 
comprovavam evidências que muitas vezes são contundentes, mas 
nem sempre percebidas, e que podem determinar o sucesso de um 
empreendimento. DOMENJOZ, GAVARD-PERRET e 
MOSCAROLA (1995), no artigo “Price and communication: how do 
they interrelate? an analysis of car advertisements published in 
English”, analisaram o conteúdo de 52 publicidades de carro usando 
um protocolo de observação; combinando observações descritivas e 
subjetivas da mídia, codificando a parte visual numa grade. A análise 
léxica foi aplicada para determinar como o preço se expressa e como a 
faixa de preço determina tipos específicos de mensagem ou temas em 
relação à mídia e aos mercados. 
Atualmente, diversos outros estudos estão sendo realizados em 
nossa equipe (http://www.ppga.ufrgs.br/gesid) ou de certa forma com 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.69 
 
 
nosso acompanhamento: estudos sobre gestão do conhecimento 
(BOFF, 1997), sobre escolhas em orçamento público (DORNELAS, 
1999), sobre variáveis importantes na tomada de decisão gerencial 
(LUCIANO, 1999). Um estudo ao qual nos dedicamos 
particularmente é sobre a influência da implementação de sites Web 
em negócios empresariais (JANISSEK, 1999 e 2000). Neste estudo, 
dados relativos ao uso da Internet em organizações foram levantados a 
partir de entrevistas estruturadas abertas: o conteúdo foi analisado e 
foi possível criar categorias sobre as principais opiniões emitidas 
pelos respondentes (este estudo é apresentado em detalhe na Seção 6, 
ilustrando uma aplicação prática envolvendo de forma complementar 
as análises léxica e de conteúdo). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.70 
 
 
5. Ferramentas para Análises Léxica e de Conteúdo 
O progresso da tecnologia da informação e dos sistemas hoje 
disponíveis facilitam a aplicação das técnicas de Análise Léxica e de 
Análise de Conteúdo, entre outros procedimentos científicos de 
exploração de dados qualitativos. Pode-se ‘surfar’ ou ‘navegar’ pelos 
textos e rapidamente obter algumas noções básicas ali contidas. Uma 
grande variedade de investigação e mesmo de novas e diferentes 
leituras se torna possível. Contudo, isto não deve mascarar a 
dificuldade final de interpretação inerente a este processo. Dedicação 
e paciência, aliados à curiosidade, são as características importantes 
que o pesquisador ou analista deve desenvolver nesse campo 
(FREITAS, 2000). 
A evolução da análise de dados tipo texto oferece hoje 
soluções combinando: a estatística léxica e os métodos de análise de 
dados, a análise sintática, e a navegação léxica ou ‘surfing’ e a leitura 
assistida por computador. As tecnologias disponíveis são bem mais 
poderosas que antes. BARDIN (1996, p.181) descreve algumas 
consequências do uso de ferramentas computacionais na realização de 
análise de dados textuais: o aumento da rapidez (processo); a 
possibilidade de maior rigor na organização da pesquisa (com a 
consequente menor ambigüidade); a flexibilidade é reforçada, 
podendo-se reutilizar os dados para verificação de novas hipóteses; a 
facilidade de padronização, reprodução e troca de documentos; a 
possibilidade de manipular e explorar dados complexos; enfim, o 
estímulo à criatividade e reflexão pela liberação do pesquisador de 
tarefas repetitivas e maçantes. 
No entanto, a análise de dados tipo texto não muda o 
significado essencial dos dados. Mesmo se a análise reduz o ‘ruído’ 
contido nos dados, a redução de uma longa leitura e a rápida ou 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.71 
 
 
apressada chegada a conclusões conduz todos analistas a uma leitura 
dita interpretativa. A interpretação é frequentemente perigosa, 
parecendo ser “rápida e falsamente objetiva”: MOSCAROLA (1994, 
1995) aconselha que se tenha cuidado na investigação e nas 
conclusões. 
Quanto à aplicação de ferramentas computacionais, BARDIN 
(1996, p.180) destaca a importância de seu uso quando a unidade de 
análise é a palavra e o indicador é de frequência (ocorrência das 
palavras); quando a análise é complexa e comporta um grande número 
de análises a tratar simultaneamente; quando se deseja realizar uma 
análise de co-ocorrências (repetição de uma mesma palavra no mesmo 
depoimento); quando a pesquisa implica em diversas análises 
sucessivas; enfim, quando a análise demandará ao seu final operações 
estatísticas e numéricas mais complexas. 
KELLE (1995, p.18-28) apresenta idéias que devem ser 
também consideradas sobre a confiabilidade das ferramentas 
utilizadas. De fato, o uso dos computadores, mecanizando questões 
manuais em análises, sejam elas qualitativas ou quantitativas, vem 
auxiliando as análises de dados e tornando seu processo mais 
sistemático, ágil, rigoroso e transparente. Não obstante esse 
aperfeiçoamento no processo de análise, os computadores também 
podem auxiliar métodos de obtenção de validade em pesquisas 
qualitativas, de duas maneiras: de um lado podem assistir ao 
gerenciamento de grandes quantidades de dados (análises de dados 
quanti) e em segundo lugar, facilitar a recuperação e obtenção de 
todas as informações relevantes sobre certos tópicos analisados. Isso 
incrementaa veracidade de resultados qualitativos consideravelmente 
visto que estas facilidades podem assegurar que as hipóteses 
desenvolvidas sejam reais. 
A aplicação de critérios desenvolvidos no contexto da pesquisa 
experimental, como a replicabilidade (KRIPPENDORFF, 1980), 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.72 
 
 
poderia claramente ir contra as intenções de indagações qualitativas 
(KELLE, 1995, p.22). Apesar disso, os conceitos de validade 
tradicionais merecem uma atenção especial: o conceito de validade 
não é prover uma perfeita concordância entre os resultados dos 
pesquisadores e a realidade, mas identificar possíveis fontes de erro. O 
ponto de vista entre o uso de computadores e a validade refere-se a 
uma abordagem que permite examinar dois dos maiores problemas 
para pesquisas qualitativas: (1) resultados amostrais, que se 
relacionam ao fato da amostra ser ou não ser representativa. Descobrir 
novos fenômenos através de uma análise cuidadosa em estudos de 
caso ou estudos de campo podem prover novos e proveitosos insights, 
mas é importante lembrar que estes não são generalizáveis. Outro 
problema é em relação à (2) consistência e confiabilidade da aplicação 
do plano de codificação. Muitos pesquisadores qualitativos usam 
exclusivamente ferramentas para auxiliar suas análises de dados 
qualitativos. Recentes investigações têm demonstrado que a 
implementação de métodos auxiliados por computadores por 
pesquisadores que não tem usado métodos de codificação pode causar 
dificuldades em desenvolver um plano de codificação comum ou 
aplicá-lo como um plano consistente. Em ambos problemas os 
computadores podem ser ferramentas úteis para identificar fontes de 
erros. 
Várias são as técnicas e métodos que podem ser utilizadas em 
conjunto para o levantamento, tratamento e análise de dados: 
amostragem, questionário, estatísticas de dados e análises de dados, 
síntese e comunicação (MOSCAROLA, 1990). Mas de que forma um 
dos muitos softwares que hoje permitem tal feito poderia ser utilizado 
para analisar dados qualitativos? Primeiramente, tem-se que ter bem 
claro que um software NÃO irá analisar dados. Ele irá auxiliar ou 
facilitar a análise feita por uma pessoa, mas jamais substituí-la. A 
formatação de dados, a tabulação destes, sua apresentação e até 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.73 
 
 
mesmo seu tratamento são tarefas possíveis de serem executadas por 
programas de computadores, desde um simples editor de textos até o 
mais sofisticado software de datamining, e estes sim são o que pode-
se chamar de procedimentos para auxílio à análise de dados. 
Na última década, vários destes sistemas foram desenvolvidos, 
o que de certa forma permitiu que cada vez mais o uso de 
computadores pudesse reduzir muito o tempo de análise, permitindo 
que o analista se concentrasse na análise de fato, e não passasse 
incansáveis horas tabulando dados, organizando dados, formatando 
dados, enfim, procedimentos esses que poderiam ser feitos de forma 
sistemática e explícita, assegurando totalidade e refinamento, além de 
permitir flexibilidade e revisão nos procedimentos de análise. 
Com a difusão da literatura nessa área, várias obras têm sido 
criadas, divulgadas e utilizadas por pesquisadores. Não somente o 
desenvolvimento desse tipo de software tem aumentado rapidamente, 
como também o uso destes em estudos qualitativos tem sido realizado 
em diferente áreas, englobando por exemplo: edição, revisão ou 
mesmo correção de anotações de pesquisa, codificação para posterior 
facilitação de pesquisa, busca e recuperação, relacionamento ou 
ligação entre dados de pesquisa, armazenamento (de forma 
organizada), análise de conteúdo, construção de teorias, mapeamento 
gráfico (diagramas), etc (WEITZMAN e MILES, 1995, p.4-5). Estes 
mesmos autores citam vários sistemas que podem ser utilizados para 
auxílio à análise de dados: (1) tratamento ou recuperação de textos 
(localização de documentos com base em palavras), (2) gerenciamento 
de textos (recuperar documentos e ajudar na sua seleção de forma 
organizada e sistemática), (3) programas para codificação e 
recuperação (recuperar documentos a partir de palavras-chave ou 
códigos), (4) programas construtores de teoria baseados em códigos 
(com recuperação de documentos e com funções de concepção de 
estruturas conceituais, anotações, e ainda formulação e teste de 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.74 
 
 
hipóteses), e (5) programas de concepção de redes de relações, os 
quais ajudam a formular e representar esquemas conceituais através de 
uma rede de ‘nós’ e ‘ligações’, podendo assistir todo o tipo de análise 
qualitativa de dados. 
Os autores apresentam 24 softwares, suas características, suas 
utilidades, enfatizando a prática da escolha dos mesmos a partir de 
questões que dizem respeito ao uso que deles será feito. Vários desses 
programas possuem algumas características semelhantes, porém com 
configurações distintas. A escolha pelo melhor software depende do 
nível de envolvimento do usuário com o computador, tempo dedicado 
a isso, tipo de projeto, expectativas sobre o projeto e ainda o tipo de 
análise que deseja fazer. Uma lista de sistemas é avaliada pelos 
autores (p.25), destacando-se produtos como Atlas/ti, QCA e Nud-ist. 
Além disso, pode-se citar PREIN, KELLE e BIRD (apud KELLE, 
1995, p.190-210), os quais avaliam estes e outros sistemas de forma 
sistematizada e consistente. 
Algumas das características a serem avaliadas quando da 
escolha de um sistema a utilizar para o tratamento de dados são 
(WEITZMAN e MILES, 1995, p.9-15): que tipo de usuário eu sou? 
Estou escolhendo o software para trabalhar um projeto em particular 
ou para trabalhar com vários projetos nos próximos anos? Sobre que 
tipo de projeto e base de dados eu estarei trabalhando? Que tipos de 
análise estou planejando realizar? Quais as restrições financeiras do 
projeto envolvido? Qual a importância de manter os dados reservados 
ou com acesso restrito? Diversos aspectos devem também ser 
observados, como os que se seguem: o tipo de base de dados (única x 
múltipla), se serão casos únicos ou múltiplos, se os registros serão 
fixos ou sujeitos a revisão (dinâmicos), se os dados serão estruturados 
ou abertos, se as entradas serão uniformes ou diversas, qual o tamanho 
da base de dados, que tipo de análises se pretende fazer, se será 
exploratória ou confirmatória, qual o esquema de codificação (bem 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.75 
 
 
definido desde o início ou evolutivo), se a codificação será simples ou 
múltipla, será interativa ou de uma só passada (única), qual o grau de 
análise (sumária ou detalhada), qual o interesse no contexto dos dados, 
quais as intenções de exposição ou demonstração dos resultados (e 
quais necessidades de elaboração), enfim, se deseja-se uma 
apresentação qualitativa ou quantitativa (com números). 
Além da flexibilidade e da interface amigável, sempre 
desejáveis em um sistema, as ferramentas devem incorporar um 
conjunto particular de funções para realizar análise qualitativa (Figura 
7): a flexibilidade diz respeito à possibilidade do programa trabalhar 
de diversas maneiras com seus dados, permitindo a adaptabilidade ou 
incremento de funções que permitam um melhor desempenho das 
funções requeridas para tratamento dos dados, como inclusão de 
macros, criação de novas rotinas, customização, adaptação,entre 
outros. 
Outra característica quase que obrigatória nos tempos atuais é 
a interface amigável com o usuário: quão difícil é aprender o manejo 
do software? Uma vez que você aprenda a trabalhar com ele, quão 
fácil é seu uso? O tempo e esforço requeridos para aprender e usar o 
programa são justificados em termos do que você está conseguindo? 
Quão bom é o suporte - manual, documentação, tutoriais, 
atendimento, helps, suporte técnico? Qualquer decisão de escolha 
deverá levar em conta tais questionamentos, envolvendo 
principalmente o pesquisador e seu trabalho como focos principais. 
Conhecer as necessidades e estar apto para reconhecer coisas que você 
irá ou não encontrar nestes softwares são fatores fundamentais nesse 
tipo de escolha (WEITZMAN e MILES, 1995, p.22). Da mesma 
forma, LEE e FIELDING (apud KELLE, 1995, p.29-40) discutem 
sobre aspectos inerentes à escolha de sistemas computadorizados para 
tal fim. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.76 
 
 
 
 
Caixa de título Nome do sistema, sistema operacional que requer, autor, endereço, email, 
www, preço, requisitos de hardware, etc. 
Avaliação global Apreciação sumária, como instalar e operar, com o que se assemelha, o que se 
pode fazer com ele, suas principais forças e características. 
Estrutura de base de 
dados 
Como o sistema organiza os seus dados. 
Entrada de dados Como você insere seus dados no sistema e os prepara para análise. 
Trabalhando com os 
dados 
Como você codifica, seleciona e explora seus dados, como faz anotações, como 
os dados se relacionam. 
Localização e busca Como se busca e localiza itens nos dados (trechos, palavras) que necessita para 
análise. 
Apresentação dos 
dados 
Como o sistema oferece os resultados, e com que recursos e métodos (tela, 
impressora, arquivos, etc). 
Construção de teorias Como o sistema ajuda a pensar de forma sistematizada sobre os dados, 
desenvolver proposições ou hipóteses, testá-las, bem como gerar uma 
explanação coerente do que se está descobrindo. 
Edição gráfica As habilidades do sistema para trabalhar com os dados e resultados de forma 
esquemática, interrelacionando dados e resultados. 
Interface amigável A facilidade de aprender o sistema, o suporte que o sistema oferece ao 
aprendizado, e a sua facilidade de uso uma vez aprendido. 
Outras oportunidades Qualquer aspecto de interesse e que não se encaixe em outro lugar, incluindo 
automação, facilitação, customização, etc. 
Atualização Informações recentes do autor do sistema sobre melhorias potenciais a serem 
implementadas, etc. 
Comentários 
comparativos 
Comparações com outros sistemas que podem fazer operações similares. 
Referências sumárias Pontos específicos inerentes a este sistema (manual, artigos essenciais sobre 
seu uso,etc.). 
Figura 7 - Características desejáveis em um sistema de 
auxílio à análise de dados qualitativos. 
Adaptado de WEITZMAN e MILES (1995, p. 23-24) 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.77 
 
 
WEBER (1990, p.80-82) descreve experiências embrionárias 
de informatização da análise de conteúdo, como também BARDIN 
(1996, p.178-205). KELLE (1995) publicou uma obra com 22 
colaboradores, na qual debate as questões inerentes à pesquisa 
qualitativa e seu instrumental, em especial o suporte computacional 
para análise de dados qualitativos. 
Algumas das principais ferramentas existentes para auxiliar a 
realização da Análise Léxica e da Análise de Conteúdo são as que de 
fato permitem, além do tratamento normal dos dados, recém descrito, 
aprofundar-se em vários tipos de procedimentos que gerem ou 
apresentem os dados de tal forma que seja possível a inferência de 
informações sobre os mesmos. Entre tais procedimentos, tem-se (1) as 
técnicas estatísticas como matrizes simétricas, diagonalização, entre 
outros; (2) análises de correlações e cálculos de coeficientes, regressão 
múltipla de dados, correlações lineares, etc; (3) análise discriminante, 
(4) análise de variância, entre outras que permitem o tratamento dos 
dados (LAGARDE, 1995; MOSCAROLA, 1990; PEREIRA, 1999). 
Moscarola e Lagarde são professores franceses na origem do 
sistema Sphinx (http://www.sphinxbr.com.br), em constante 
aperfeiçoamento por equipe franco-brasileira (hoje formada por Jean 
Moscarola, Yves Baulac e Henrique Freitas), e utilizado para as 
ilustrações da Seção 6 a seguir. No exemplo desenvolvido passo a 
passo, é examinada uma pesquisa com questões abertas e suas devidas 
análises: após uma ilustração prática inicial, desenvolvem-se alguns 
conceitos sobre análise léxica (com base na quantificação de palavras 
e expressões usadas nas respostas), a qual age como facilitador para, 
na sequência, realizar uma análise de conteúdo (com base em códigos 
e interpretações a partir das respostas). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.78 
 
 
6. Aplicação de análise de dados qualitativos: 
pesquisa sobre internet e negócios 
Está claro que a análise de um texto passa pelo estudo do 
vocabulário utilizado (LEBART e SALEM, 1994, p.247). Para ilustrar 
a análise de dados textuais conforme os preceitos descritos até o 
momento, evoluindo da Análise Léxica e tomando-a por base para a 
Análise de Conteúdo, é apresentada a seguir a sequência de análise de 
um caso. Tratam-se de dados de uma pesquisa realizada em 1999, no 
contexto de investigação de uma dissertação sobre a influência da 
Internet em negócios empresarias (JANISSEK,1999 e 2000). 
O levantamento de dados se deu em duas organizações (o 
HSA, Hospital de Caridade de Santo Ângelo, e a Mattiazzi 
Construções, empresa do ramo de Construção Civil de Santa Rosa, 
com atuação em todo o estado do RS), com 6 pessoas entrevistadas 
em cada uma, isto dentro de uma primeira etapa do estudo. O objetivo 
desta etapa era identificar categorias que definissem os elementos 
estudados (previamente definidos como por exemplo análise de 
mercado, clientes, fornecedores, custos, etc) para, numa segunda 
etapa, conseguir identificar quais das categorias emergentes, dentro do 
contexto de cada elemento, seriam de maior importância e permitiriam 
verificar os impactos desta tecnologia. A ferramenta de apoio utilizada 
para o registro das entrevistas, a gestão e preparação dos dados 
coletados, bem como para as análises, foi o sistema Sphinx 5. 
As respostas obtidas através de entrevistas, as quais foram 
compostas por perguntas abertas (uma para cada elemento 
investigado), permitiram formar o corpo de texto a ser analisado. Este 
 
5 Sphinx ® (http://www.sphinxbr.com.br) é um sistema de concepção de pesquisas e de 
análise de dados quanti-qualitativos, com múltiplas possibilidades de cruzamentos e testes estatísticos, 
permitindo a análise léxica ou a análise de conteúdo das questões abertas tipo texto. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.79 
 
 
texto gerado pelas entrevistas pode ser analisado pelo seu próprio 
conteúdo, permitindo daí fazer emergir categorias, ou então pode ser 
analisado de acordo com categorias particulares já definidas (baseadas 
na literatura ou curiosidade de investigação), para ver se é específico 
de uma categoria particular de entrevistados (LAGARDE, 1995). Para 
ilustrar a maneira segundo a qual julgamos adequado realizar uma 
análise em dados deste tipo, apresenta-se a seguir uma evolução de 
etapas de análise, começando pela Análise Léxica e partir delapara a 
efetivação – em melhores condições e conhecimento de causa - da 
Análise de Conteúdo. Nosso intuito aqui é apresentar e valorizar as 
idéias de sequencialidade, recorrência e complementaridade entre as 
duas análises (léxica e de conteúdo). 
Na sequência, são descritas as questões abertas da pesquisa 
objeto da aplicação (6.1), bem como é discutido um plano de análise 
de dados (6.2). As palavras e expressões são investigadas pela Análise 
Léxica (6.3) e as categorias são inferidas ou induzidas em dois 
procedimentos de Análise de Conteúdo (6.4), o que é encerrado com 
um aprofundamento e Análise de Correspondência (6.5). 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.80 
 
 
6.1. As questões abertas da pesquisa 
A etapa de pesquisa aqui abordada continha 10 perguntas 
essencialmente abertas, obtendo-se 120 pequenos textos provenientes 
de 12 entrevistados: estes depoimentos indicam a percepção dos 
respondentes com relação aos 10 elementos questionados. A Figura 8 
apresenta os elementos estudados, bem como algumas das colocações 
feitas aos respondentes na condução das entrevistas. As questões 
foram todas colocadas em função da Internet e da possibilidade desta 
interferir no desenvolvimento ou rotinas dos elementos estudados, de 
certa forma inerentes a questões organizacionais, de comunicação e de 
marketing. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.81 
 
 
 
 
Elemento Estudado Exemplo de colocação na entrevista 
para coleta da resposta ou dado aberto 
1.Análise de Mercado Fale sobre sua percepção acerca de como é feita a Análise de Mercado 
em sua empresa e de que forma a Internet poderia auxiliar neste 
processo. 
2.Atuação Uma vez identificadas necessidades e características do mercado onde 
vocês atuam, de que forma sua empresa posiciona-se para atuar? 
3.Aquisição e Distribuição de 
Conhecimentos 
De que forma é feita a Aquisição e Distribuição de Conhecimentos em 
sua empresa e de que forma a Internet poderia auxiliar? 
4.Atualização Quais os procedimentos adotados na empresa para Atualização das 
pessoas, tanto a nível pessoal quanto corporativo? De que forma a 
Internet poderia auxiliar? 
5.Clientes De que forma são feitos os contatos com Clientes, tanto a nível de 
prestação de serviços quanto disponibilização de informações? Como a 
Internet poderia ser utilizada nesse sentido? 
6.Fornecedores De que forma sua empresa hoje contacta com Fornecedores? Você 
acredita que esses contatos poderiam ser facilitados com o uso da 
Internet? 
7.Custos Uma vez que sua empresa esteja utilizando Internet, você acredita em 
redução ou aumento Custos para a realização de atividades? 
8.Decisão Como são embasadas as Decisões tomadas dentro da sua empresa? E de 
que forma você acredita que a Internet interfere ou poderia auxiliar 
nisso? 
9.Imagem Corporativa Quais os procedimentos adotados pela empresa em relação ao 
estabelecimento de sua Imagem Corporativa? A Internet interfere neste 
processo? Como? 
10.Vantagem Competitiva Você acredita que sua empresa pode obter ou manter Vantagem 
Competitiva estando posicionada na Internet? 
Figura 8 - Elementos e exemplo de questões ou colocações durante as entrevistas 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.82 
 
 
Das 10 perguntas abertas evocadas, optou-se por desenvolver a 
ilustração das análises objeto deste livro com o processamento dos 
textos das respostas da questão nº 1, a qual diz respeito à Análise de 
Mercado. Serão examinadas, portanto, as respostas à seguinte questão 
(Figura 9): 
 
 
Elemento Estudado Exemplo de colocação na entrevista para coleta 
da resposta ou dado aberto 
1.Análise de Mercado Fale sobre sua percepção acerca de como é feita a Análise de 
Mercado em sua empresa e de que forma a Internet poderia 
auxiliar neste processo. 
Figura 9 - O elemento tomado para exemplo das análises léxica e de conteúdo 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.83 
 
 
Eis algumas das respostas obtidas a partir desta questão aberta 
(Figura 10): 
 
Respostas da Questão sobre Análise de Mercado 
Entrevistado 1 - quanto à concorrência hoje se faz uma análise de concorrência, mas principalmente em 
nível de preços, em nível de preços serviços, preços de diárias, preços de taxas, que eles estão cobrando, 
e essa pesquisa é feita assim ó: alguns hospitais parceiros da gente que tem uma relação mais tranquila, e 
que normalmente são fora de Santo Ângelo, a gente liga e pergunta os preços, pede tabela de preços, e 
daí a gente manda a nossa, para comparar e ver se está coerente ou não, e essa troca de informações se 
dá desse jeito. Para hospitais concorrentes nossos, vamos chamar assim, os de Santo Ângelo, a gente 
adota estratégias diferentes para verificar preços, eu peço para alguém que não tem nada a ver ligar, 
perguntar algum preço como se fosse se internar, ou fazer algum exame, enfim. Então é nesse sentido 
que a gente acompanha e monitora os preços da concorrência. Quanto a novos serviços, novos produtos, 
a maioria das vezes para gente conseguir novos serviços, na sua maioria eles são terceirizados, tipo 
tomografia, ecografia, ressonancia, essas coisas. Estamos seguidamente buscando esses novos serviços, 
inclusive agora a oncologia que é um serviço super importante, mas mais em nível de se conseguir 
profissionais para isso. A identificação dessas coisas novas se dá através de tudo um pouco, através de 
visitas a outros hospitais maiores, através de conversas com pessoas conhecidas, é nesse sentido que a 
gente procura identificar o que se está precisando, o que o público precisa, assim a gente busca novas 
tecnologias, novos serviços, até mesmo em nível de atendimento, mudanças de sistemáticas de 
atendimento a cliente, por ex. nós tínhamos um tempo atrás por exemplo uma internação só. Daí 
visitamos outros hospitais e vimos que faziam separado, uma para SUS e outra para convênios. Achamos 
legal e implantamos. A Internet nesse sentido ainda não tem sido muito usada. Há uma perspectiva 
inclusive pelo avanço da Internet, de cada vez mais a gente buscar informações pela Internet, 
principalmente agora com o programa de qualidade que a gente está implementando, nós estamos 
usando bastante a Internet para acessar site de outros hospitais para ver o que está sendo feito para a 
gente usar aqui ou até mesmo pular etapas. 
Entrevistado 2 - acho que o hospital não faz isso. Estamos tentando implantar isso agora com a nova 
administração, mas acho que não existe nada oficial assim para isso, ainda não. Ele está tentando assim 
trazer novos serviços para cá, estão tentando ampliar um pouquinho mais, mas o problema do hospital é 
que nós paramos muitos anos. Então agora assim, de 4 anos para cá que as coisas estão começando a 
engrenar de novo. Mas é um processo longo. 
... 
Entrevistado 12 - eu acho assim ó, sempre é positivo olhar o que o teu concorrente está fazendo, porque 
sempre tu vai poder trazer algo para dentro da tua empresa ou ver o que ele está fazendo, ou ver como 
você está em relação aos outros. Aqui na empresa a gente trabalha sempre com os olhos e ouvidos 
abertos ao que está sendo feito pelos outros. A Internet, especificamente, eu não uso muito, mesmo 
porque eu não tenho aqui na minha máquina. Quando eu preciso eu subo ali no Jonas e vejo alguma 
coisa junto com ele. Eu realmente espero ter logo o acesso a Internet aqui comigo logo porque daí a 
gente pode olhar para fora (para o mercado) não somente da forma tradicional, mas através da Internettambém, que eu acho bem positivo. Eu não uso a Internet por não ter o hábito, por não ter tempo durante 
o expediente para fazer isso e também porque o que eu faço, essa parte financeira, está pouco ligado com 
a Internet. 
Figura 10 - Exemplos de respostas sobre “Análise de Mercado” 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.84 
 
 
6.2. Como analisar os dados qualitativos? 
É nossa convicção que é fundamental compreender que 
diferentes análises podem ser realizadas a partir de uma mesma base 
de dados qualitativos, em especial que um mesmo dado aberto pode 
servir de base para diversas codificações ou análises, bem como 
também é fundamental que se perceba que as técnicas podem e devem 
ser usadas de forma complementar, possibilitando uma mais rica e 
convicta codificação. É, pois, necessário que se tente definir um plano 
de análise ou um esquema que permita ver claramente quais as etapas 
de análise a realizar e de que forma fazer uso combinado de técnicas e 
ferramentas. BARDIN (1996, p.125-133) discute sobre a organização 
das atividades de análise de dados, envolvendo pré-análise, exploração 
do material e análise (tratamento dos resultados, inferências e 
interpretação). 
A Figura 11 ilustra um esquema que pode servir de referência 
para tal procedimento, com as devidas adaptações exigidas a cada 
caso. Na aplicação aqui ilustrada, em particular, os dados fornecidos 
pelos respondentes sobre a questão Análise de Mercado servem de 
massa bruta para diferentes enfoques de análise de dados. 
Inicialmente, convém ter uma rápida compreensão do conteúdo global 
das respostas, o que pode ser realizado através da Análise Léxica, a 
qual permite identificar o conjunto de todas as palavras ou expressões 
encontradas nos depoimentos ou respostas, cada qual com sua 
frequência de incidência. O resultado desta avaliação (topo ou 
palavras e expressões mais comumente citadas) servirá então de base 
para a Análise de Conteúdo, que consiste em uma leitura aprofundada 
de cada uma das respostas e consequente criação de um código que 
será registrado em um novo dado. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.85 
 
 
 
 
 
Figura 11 - Modelo para Análise de Dados Qualitativos 
COM =categorias assumidas a priori 
AC = categorias inferidas da pesquisa 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.86 
 
 
Segundo BARDIN (1996), a Análise Léxica pode ser definida 
como a classificação e contabilização pormenorizada das frequências 
de um vocabulário. Desta forma, as palavras ou expressões podem ser 
agrupadas de acordo com o seu significado para subsidiar o 
pesquisador ou analista nesta fase de categorização. 
A partir disso, diferentes codificações podem ser realizadas: 
inferidas (que emergem do próprio texto) ou assumidas ou induzidas 
(que contém de alguma forma um referencial). 
Estas duas abordagens são detalhadas na sequência: uma delas 
permite extrair ou inferir dos dados textuais as principais idéias ali 
citadas, transformando-as em Categorias inferidas AC 6, as quais 
representam, no seu conjunto, o total das informações contidas, 
gerando neste caso o que convencionamos chamar de Tabela AC (ou 
Tabela de categorias inferidas AC); outra permite que, dado um 
conjunto pré-definido de categorias com base na literatura ou mesmo 
em uma suposição ou elaboração conceitual (no caso da etapa de 
pesquisa aqui ilustrada o protocolo assumido a priori, dito OCM 7), os 
textos sejam percorridos um a um e analisados sob o enfoque destas 
categorias pressupostas, permitindo ao final montar uma Tabela 
induzida ou, neste caso, Tabela induzida OCM, com a frequência em 
que tais categorias apareceram no texto. 
 
 
 
 
 
6 Tabelas de categorias AC foram assim designadas neste artigo por se referirem ao conjunto 
de categorias geradas (inferidas) a partir da Análise de Conteúdo. 
7 Protocolo OCM e Tabela OCM referem-se ao conjunto de categorias das dimensões 
estudadas na etapa da pesquisa utilizada para ilustração (JANISSEK, 2000), que – após profunda 
revisão da literatura - são Organização, Comunicação e Marketing. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.87 
 
 
Como será evocado mais adiante (e já abordado 
conceitualmente na seção 3), há que se atentar ainda para a questão da 
validade e confiança das categorizações realizadas. Ao final, as 
categorias inferidas e induzidas (neste caso, AC e OCM) permitirão, 
juntamente com outros dados estudados, preencher uma grade de 
análise e realizar cruzamentos de dados, os quais se pressupõe possam 
vir a facilitar a compreensão de um certo fenômeno ou situação seja 
pelo pesquisador, seja pelo analista ou gerente. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.88 
 
 
6.3. Análise léxica dos dados abertos da pesquisa: 
 palavras e expressões 
Uma das técnicas de análise de textos (seção 3.1), a Análise 
Léxica, permite apresentar o conjunto das palavras que compõem o 
corpo dos textos ou respostas de cada entrevistado, permitindo 
diversos tipos de contabilização e de navegação pelas respostas, o que 
será descrito a seguir. 
Um primeiro método de análise léxica consiste em averiguar 
ou medir a dimensão das respostas: as pessoas responderam de 
forma extensa ou concisa? Cria-se uma hipótese de que aqueles que 
deram respostas extensas têm um interesse maior do que os demais. 
Uma hipótese discutível que dará, porém, uma indicação (embora nem 
sempre a maior presença de uma palavra indica que esta tenha sido 
amplamente referenciada). A Figura 12 apresenta a quantidade de 
palavras por depoimento: os 12 entrevistados falaram 1970 palavras 
nos seus depoimentos sobre Análise de Mercado, mas somente 597 
diferentes. Um dos depoimentos foi de somente 21 palavras, enquanto 
o mais extenso foi de 385, o depoimento-médio sendo de 164 
palavras, com um desvio-padrão de 134 palavras. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.89 
 
 
 
 
 
 
 
AM_tamanho texto
menos de 50.0
de 50.0 a 100.0
de 100.0 a 150.0
de 150.0 a 200.0
de 200.0 a 300.0
300.0 e acima
TOTAL OBS.
No. cit. Freq.
3 25.0% 
2 16.7% 
2 16.7% 
1 8.3% 
1 8.3% 
3 25.0% 
12 100% 
Mínimo= 21, Máximo= 385
Soma= 1970
Média= 164.17 Desvio-padrão= 134.92
 
 
Figura 12 - A quantidade de palavras por depoimento 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.90 
 
 
Na Figura 12, pode-se rapidamente notar que 7 dos 12 
respondentes usaram menos de 150 palavras em seus depoimentos, 2 
entre 150 e 300 e mesmo 3 com mais de 300 palavras. Cruzando esse 
dado com os gestores (8) e técnicos (4), verifica-se que 3 dos 4 
técnicos usaram menos de 150 palavras para se expressar, ao passo 
que 4 dos 8 gestores usaram mais de 150 palavras para falar sobre 
Análise de Mercado: teriam os técnicos tendência a se expressarem 
menos ou seriam eles mais objetivos? Eis uma questão que poderia ser 
aprofundada, por exemplo. 
Na Figura 13, pode-se verificar que no total das 12 respostas, 
explorando-se todas as palavras, obtém-se alguns indicadores 
possibilitados pela análise léxica. Neste caso, foi usada a organização 
(HSA e Mattiazzi) como critério de cruzamento (poderia ser a 
distinção gestor – técnico, ou sexo, idade...).Nota-se que o pessoal do 
HSA (1074 no total, em média 179 palavras) falou um pouco mais que 
o pessoal da Mattiazzi (896 no total, em média 149), contudo o índice 
de repetição do pessoal do HSA é mais elevado. Outros indicadores 
são oferecidos, mas seu uso teria de ser num grau de detalhe que nem 
sempre é explorado, depende da natureza da investigação e do 
interesse do analista. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.91 
 
 
 
 
 
 HSA Mattiazzi 
Frequência da categoria 6 6 
Quantidade total de palavras 1074 896 
Comprimento médio 179.00 149.33 
Quantidade de palavras diferentes 391 354 
Quantidade de hapax 191 164 
Repetição média 2.75 2.53 
Frequência máxima 51 35 
Palavra mais frequente que de 
Peso das 148 palavras comuns 68.2% 70.1% 
Quantidade de palavras exclusivas 243 206 
Peso das palavras exclusivas 31.8% 29.9% 
Percentual do corpo 54.5% 45.5% 
Percentual de leitura 86.4% 82.7% 
Figura 13 - Análise Mercado: Balanço por contexto 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.92 
 
 
6.3.1. Análise de palavras 
A análise de palavras consiste em reduzir rapidamente o corpo 
do texto a um conjunto de palavras que representem a sua essência. O 
software utilizado deve permitir a análise do conjunto de todas as 
palavras que compõem o corpo dos textos respondidos (neste caso, 
cada conjunto de 12 respostas a cada dos 10 elementos, aqui sendo 
utilizado apenas o elemento Análise de Mercado), permitindo assim 
diversos tipos de contabilização e de navegação pelas respostas. A 
Figura 14 apresenta o resultado da lista de palavras (coluna da 
esquerda), com suas respectivas frequências. São fornecidos outros 
cálculos de potencial interesse, como a banalidade (trivialidade ou o 
quão comum é a resposta em relação às outras) e a riqueza (o grau de 
originalidade das palavras daquela resposta). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.93 
 
 
 
 
 
 
 
Figura 14 - Interface para Análise Léxica do Sphinx ® 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.94 
 
 
Embora o resumo contextual nos dê uma idéia dos tamanhos 
relativos das respostas e de sua riqueza de linguagem utilizada, ele 
ainda pode nos dar idéia do próprio conteúdo. Para tal, precisa-se 
retornar à lista de palavras e identificar aquelas idéias ou palavras 
chaves. O léxico ou conjunto de palavras pode ser reduzido 
manualmente ou automaticamente para torná-lo mais manejável: 
normalmente a redução é primeiro automática, para então ser 
finalizada manualmente (se necessário). A redução léxica automática 
é feita através de critérios de escolha estabelecidos, como por exemplo 
ignorar palavras com menos de 3 letras, ignorar determinadas palavras 
comuns, ignorar números, etc. (MOSCAROLA, 1996). 
Após identificar a frequência de cada das palavras do léxico 
(Figura 14), a partir de uma lista ordenada por frequência de todas as 
palavras existentes nas 12 respostas, optou-se por reduzi-las a um 
conjunto de dados "reais", ou de significado, ignorando, por exemplo, 
palavras com menos de 4 letras, e reagrupando palavras semelhantes, 
como por exemplo concorrência, concorrentes e concorrente. Na 
verdade, fez-se a chamada aproximação léxica, ou seja, retirou-se da 
lista ou “léxico” todas as palavras chamadas “instrumentais” (aquelas 
que não comunicam diretamente uma idéia ou conteúdo no sentido da 
análise realizada, como as preposições, os artigos, etc.) e chegou-se 
então a uma lista de palavras de conteúdo. 
Esse procedimento (sem agrupar palavras similares ainda) 
reduziu automaticamente o léxico, em nosso caso, partindo-se de 1970 
palavras para 1135, onde 835 palavras foram suprimidas, contudo as 
palavras de origem (ou diferentes) que eram 597 passaram para 499, 
não tendo sido reduzidas tanto quanto se poderia esperar. Uma maior 
redução só poderia agora se dar por agrupamentos de palavras 
similares. Essa tarefa pode ser feita automaticamente, mas com 
procedimento de confirmação de grupos de palavras, tudo isso com 
base em raiz de tamanho n (por exemplo raiz mínima de tamanho 6 ou 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.95 
 
 
7, pois raiz de tamanho 5 ou menor tende a agrupar palavras que 
normalmente não pertenceriam ao mesmo grupo). Agrupamento por 
raiz de tamanho 7 nos retornou 40 grupos (exemplo: hospitais, 
hospital e hospitalar), já um de tamanho 4 resgatou 88 grupos, mas 
tendo tendência a não serem confirmados, como por exemplo com 
“comparar, complexa e comprar”. Considerando por raiz 7, passou-se 
a ter 40 grupos automáticos, ficando então com 446 palavras 
compondo o léxico. Além disso, pode-se enfim partir para a ordenação 
de todo o léxico (lista de 446 palavras) por ordem alfabética, e então 
buscar marcar e reagrupar aquelas que julgamos similares. 
Após realizada uma cuidadosa redução através dos chamados 
agrupamentos, parte-se para analisar o contexto de uma determinada 
palavra. Já aqui se inicia, mesmo que imperceptivelmente, uma análise 
de conteúdo, pois se baseia fortemente na palavra para chegar até o 
contexto em que esta foi dita. Este procedimento é de fato interessante 
porque nos permite a percepção de idéias, sequências ou contexto no 
qual uma palavra (ou expressão, como veremos adiante) foi citada. 
Para exemplificar o que foi dito acima, toma-se como exemplo 
a palavra concorrência, que aparece (é citada) 9 vezes: mas em que 
contexto? Faz-se a chamada navegação léxica, que consiste em ir 
diretamente às respostas onde foi citada a palavra em questão (Figura 
15). Pode-se exportar estas respostas para um documento em editor de 
texto se assim o desejar, possibilitando desta forma a edição e 
formatação do conteúdo em relatórios, documentos, análises, enfim. 
Este arquivo é chamado verbatim, que significa citação. A 
navegação léxica permite a restituição das respostas, organizando-as 
de acordo com seu conteúdo, possibilitando conhecer em que contexto 
e com que sentido foi empregada à palavra em questão. Pode-se ir 
além, marcando as palavras que dizem respeito à concorrência e 
analisando o contexto em que mesma foi expressa. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.96 
 
 
 
 
 
Figura 15 - O ambiente de uma palavra 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.97 
 
 
Outro procedimento que pode ser feito é cruzar palavras com 
categorias de respondentes, como cargo, empresa, sexo, etc. Isso pode 
permitir uma leitura mais objetiva no sentido de identificar a origem 
de cada termo analisado. A Figura 16 apresenta um exemplo com 
palavras consideradas chave cruzadas com a categoria Cargo (se 
gestores ou técnicos), e na qual pode-se identificar por exemplo que os 
gestores falam mais de ‘mercado’ e de ‘serviços’. 
BARDIN (1996, p.87) aborda em detalhe a análise das 
palavras mais frequentes. A unidade representada aqui é baseada nos 
12 entrevistados e não na quantidade de ocorrências de cada palavra-
chave. A ocorrência de palavras por si só deixaria entender que 
‘Internet’ é citada 15 vezes por 5 entre 8 gestores e também 7 vezes 
por 3 entre 4 técnicos, ou então que ‘mercado’ é citada 11 vezes pelos 
gestores (4 de 8) contra 2 vezes pelos técnicos (1 de 4), assim como 
‘serviços’ é uma idéia evocada 9 vezes por 4 de 8 gestores enquantosó 1 é citada por um técnico de 4, e ainda ‘pesquisa’ é citada por 3 
gestores de 8 e por 2 técnicos de 4 (porém 10 vezes), e enfim ‘preço’ é 
enfatizado 9 vezes pelos gestores e nenhuma vez pelos técnicos. 
 
Análise de Mercado / Cargo Gestores (8) Técnicos (4) TOTAL 
Internet 5 3 8 
Novos 3 3 6 
Informações 3 2 5 
Mercado 4 1 5 
Pesquisa 3 2 5 
Serviços 4 1 5 
Concorrência 2 2 4 
Produto 2 2 4 
Figura 16 – Exemplo de cruzamento de palavras-chave com cargo 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.98 
 
 
Como demonstrado, várias são as leituras que podem ser feitas 
a partir de uma mesma lista do léxico. No caso aqui analisado, os 
cruzamentos principais estão sendo feitos pelo pesquisador entre o 
elemento (no caso Análise de Mercado) com cargo dos respondentes, 
sexo e organização. Ao final da análise de cada elemento (são 10), 
gerou-se uma lista de 40 a 50 palavras que mais aparecem no texto 
(Figura 17), a qual servirá, juntamente com a lista das expressões 
abordadas a seguir, para apoiar ou direcionar a Análise de Conteúdo 
da pesquisa em questão. De novo, na ilustração (Figura 17) aparece a 
indicação de quantas pessoas fizeram uso de cada palavra, e não o seu 
número ou quantidade de ocorrências. 
 
Acessar 1 Conseguir 1 Fornecedores 3 Observações 1 
Acontecendo 2 Curiosidade 1 Identificação 1 Parceiros 2 
Alterações 1 Descobrir 1 Indicativos 1 Pesquisa 5 
Análise 2 Diferentes 2 Informações 5 Pessoas 5 
Atendimento 1 Empreendimento 1 Internet 8 Preços 2 
Atualizar 1 Empresa 6 Lançamentos 1 Produtos 4 
Avanço 1 Englobando 1 Mercado 5 Qualidade 1 
Benchmarking 1 Entidades 1 Monitorar 1 Relação 5 
Cidade 1 Equipamentos 2 Mudanças 1 Serviços 5 
Cliente 3 Especialidades 1 Necessidade 1 Tecnologia 3 
Comunidade 1 Experiência 1 Negócios 1 Tendência 1 
Concorrência 4 Estratégias 1 Novos 6 Verificar 1 
Figura 17 - Lista das palavras e quantos entrevistados as utilizaram nas suas respostas 
(ordem alfabética) 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.99 
 
 
6.3.2. Análise de expressões 
Ainda que a visão recém mostrada das simples palavras do 
texto nos permita perceber de forma geral seu conteúdo, a 
interpretação das respostas pode ser dificultada quando 
compreendidas fora de seu contexto (MOSCAROLA,1996). Por essa 
razão, é importante se fazer uma Análise de Expressões, pois permite 
complementar a Análise de Palavras recém descrita, identificando não 
somente o contexto das palavras, mas a correspondência entre 
palavras que apareçam juntas repetidamente dentro do corpo de um 
texto. 
Verificar as expressões ou segmentos que se repetem várias 
vezes no texto permite portanto uma melhor percepção da forma como 
tais componentes do léxico são apresentados (LEBART e SALEM, 
1994, p.58-69). Tais expressões são determinadas em função do 
comprimento mínimo-máximo, frequência mínima dos segmentos 
procurados, número de palavras dentro do segmento ou a(s) palavra(s) 
que deve(m) imperativamente pertencer ao segmento (SPHINX, 1997; 
MOSCAROLA,1996). BARDIN (1996, p.194) aborda em detalhe a 
análise das expressões ou segmentos mais frequentes. 
No exemplo descrito, optou-se por encontrar expressões entre 
3 e 10 palavras (e mesmo entre 2 e 10 palavras), que fossem repetidas 
no mínimo 2 vezes dentro do corpo do texto analisado (Figura 18): 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.100 
 
 
 
 
 
 
Figura 18 - Opções de busca das expressões repetidas e expressões identificadas 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.101 
 
 
As expressões identificadas foram transformadas numa lista de 
expressões, como a lista de palavras anteriormente ilustrada. A Figura 
19 mostra os segmentos ou trechos repetidos que foram localizados 
nos textos das respostas da questão aberta Análise de Mercado, em 
ordem de ocorrências dentro do texto em análise. Além disso, é 
possível navegar nas observações ou efetuar uma recodificação com 
base nos elementos repetidos, ou seja, da mesma forma que na análise 
de palavras, foram reagrupadas algumas expressões que possuíam o 
mesmo significado (como por ex. usando Internet, utiliza Internet), 
agrupa-se também segmentos que tenham o mesmo significado. Com 
base nesse agrupamento, é gerada uma lista com as principais 
expressões, indicada na Figura 20. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.102 
 
 
 
 
 
Figura 19 - Lista geral de expressões 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.103 
 
 
 
 
Figura 20 - Lista agrupada ou reduzida de expressões 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.104 
 
 
Esta mesma lista de expressões pode ser vista sob várias 
perspectivas, como por exemplo em função do cargo ou perfil dos 
respondentes, aqui no caso enquadrados em gestores e técnicos. 
Outras visualizações seriam também possíveis nesse caso, como por 
organização ou por sexo, como já observado. 
Na Figura 21 a seguir, é apresentada uma divisão das 
expressões por cargo. Na Figura 22, apresentamos outra possibilidade 
também já demonstrada na análise de palavras, a navegação léxica (no 
caso navegação de expressões), que é a localização dentro do texto das 
citações analisadas e que consiste em ir diretamente às respostas onde 
foi citada a expressão em questão. Esta navegação permite conhecer 
em que contexto e com que sentido foi empregada a expressão em 
questão, ou seja, se a lista de expressões apresentar um termo chave, 
podemos rapidamente com a ajuda de uma ferramenta (ou duplo 
clique no mouse) descobrir palavras anteriores e posteriores em que tal 
expressão foi citada. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.105 
 
 
 
 
 
Figura 21 - Lista de expressões por cargo 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.106 
 
 
 
 
 
Figura 22 - O ambiente de uma expressão 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.107 
 
 
Estes são apenas alguns exemplos do tipo de navegação 
possível de ser feita a partir de um conjunto de textos. Tais 
navegações permitem explorar de várias maneiras um mesmo dado 
bruto de origem, permitindo dessa forma a construção de inferências 
que subsidiarão futuras análises ou verificações de hipóteses: os 
respondentes, nas expressões repetidas, evocam ‘pesquisa de 
mercado’, falam de forma a manifestar dúvidas (‘acho’, ‘não sei’, ‘não 
uso’), e abordam algo sobre ‘nível de preços’, por exemplo. A lista 
completa das expressões, de tamanho 3 a 10, repetidas no mínimo 2 
vezes, e reagrupadas em função de sua similaridade, está disposta a 
seguir: 
 
- abrir os olhos 
- acho que o hospital 
- da forma tradicional 
- está sendo feito para 
- feita uma pesquisa 
- nesse sentido a gente 
- nível de preços 
- o hospital faz 
- o que está acontecendo 
- o que está sendo feito 
- para dentro das empresas 
- para o mercado 
- passa pelo mundo 
- pela Internet a gente 
- pesquisa de mercado 
- troca de informações 
 
Tomando agora como base esta lista de expressões,e 
complementando-a com a lista de palavras anteriormente definida, 
pode-se então partir (sequencialidade) para a tentativa de criar 
categorias que traduzam as principais idéias dos textos dos 
respondentes em relação à Análise de Mercado. Ou seja, tem-se aqui 
um exemplo prático de como uma Análise Léxica pode facilitar nosso 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.108 
 
 
entendimento ao pontuar palavras e expressões que apareçam mais no 
texto. Para a criação de categorias a partir destas listas definidas, 
deve-se partir para a efetiva Análise de Conteúdo, detalhada a seguir. 
Este procedimento deveria ser feito para cada dos 10 elementos (dos 
quais um é a Análise de Mercado aqui ilustrada). 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.109 
 
 
6.4. Análise de Conteúdo das questões abertas 
Para a análise dos dados qualitativos, o primeiro desafio a ser 
enfrentado é a adequada codificação das informações. Segundo 
HOLSTI (apud MILES e HUBERMAN, 1994), “a codificação é um 
processo pelo qual os dados brutos são sistematicamente 
transformados e agrupados em unidades que permitem uma descrição 
exata das características relevantes do conteúdo.” A partir das 
principais palavras e expressões identificadas na Análise Léxica, pode 
ser efetuada uma Análise de Conteúdo. 
A realização de tais análises será feita sob as perspectivas 
apresentadas no início desta seção 6: criação de categorias de fato 
inferidas (que chamaremos aqui de categorias AC, ou seja Análise de 
Conteúdo com base na leitura que faz emergir categorias) e 
identificação da existência (ou não) de categorias assumidas ou 
induzidas (que chamaremos aqui de categorias OCM, ou seja Análise 
de Conteúdo com base num protocolo prévio baseado na literatura, 
cuja estrutura é a Organização, a Comunicação e o Marketing) dentro 
dos textos analisados, demonstrando desta forma a diversidade de 
exploração de uma mesma base de dados. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.110 
 
 
6.4.1. Criando ou inferindo categorias AC 
A primeira parte para a criação das Categorias AC consiste na 
leitura de cada um dos 12 textos de respostas. Tal procedimento 
requer que a análise léxica esteja concluída, de forma que os textos 
dos respondentes sejam confrontados com as listas de palavras e 
expressões obtidas anteriormente. 
Vai-se lendo o texto correspondente a cada um dos 
entrevistados e, a seguir, na mesma tela do sistema em uso, pode-se 
interpretar gradativamente o conteúdo de forma a codificar as 
respostas dadas. 
À medida que se lê o conteúdo da resposta em análise, pode-se 
criar as categorias de respostas – ou Categorias AC. Este é um 
contexto no qual pode-se ler e anotar o conteúdo do que é lido, com a 
possibilidade de enriquecer os temas que se está interpretando. É 
como se fosse uma tentativa de “fechar” a questão, ou seja, dispor da 
questão aberta e espontânea, mas também criar uma nova, fechada ou 
com categorias de respostas correspondentes. 
Este procedimento requer atenção, paciência e muita seriedade 
por parte do pesquisador. Não são poucas as vezes que será necessário 
recorrer à Análise de Palavras ou Expressões, procedendo com a 
navegação lexical, identificando contextos em que tais citações foram 
ditas, por exemplo, ou até mesmo leitura e releitura de forma a ter 
certeza da validade das categorias que estão sendo criadas. 
 
 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.111 
 
 
É importante ressaltar que tal procedimento é possível pela 
existência prévia das listas de palavras e expressões que compõem o 
léxico, ou seja, a complementaridade de tais procedimentos com a 
navegação nos textos, enfim, a busca da melhor definição de 
categorias somente é permitida pela sequencialidade e mesmo 
recorrência das análises. Para a criação de cada categoria em cada 
grupo de palavras, deve-se observar algumas regras básicas 
(BARDIN, 1996, p.134-168; KELLE, 1995, p.24), fundamentais na 
sua elaboração. As categorias devem ser: 
 
 Homogêneas: não misturar “alhos-com-bugalhos”; cada 
categoria diz respeito a uma idéia central exclusiva. 
 Exaustivas: esgotar a totalidade do texto. Praticamente todas 
as palavras foram classificadas, muito embora alguns termos não 
tenham sido passíveis de classificação. 
 Exclusivas: um mesmo elemento do conteúdo não pode ser 
classificado em duas categorias diferentes. Desta forma, cada 
palavra pertence à somente uma categoria. 
 Objetivas: codificadores diferentes devem chegar a resultados 
iguais. Cada membro da equipe realizou uma análise individual. 
As discordâncias foram debatidas até se chegar a uma percepção 
comum, procurando-se diminuir a subjetividade na análise. 
 Adequadas ou pertinentes: as regras devem ser adaptadas ao 
conteúdo e ao objetivo. 
 
 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.112 
 
 
De fato, este método de codificação representa um trabalho 
maçante e demorado, contudo gratificante em nossa opinião. É um 
método subjetivo, como a leitura pode sê-lo; é um método clássico de 
análise de conteúdo. Mas ao seu final, a codificação resultante é 
expressiva da realidade inerente àquela amostra. E a análise que se faz 
é com convicção e prazer de visualizar o resultado de tal esforço. 
Para testar a confiabilidade das categorias, alguns esforços 
duplicados são essenciais. Tal procedimento, para ter sua validade, 
deve passar pelas técnicas de confiabilidade definidas por 
KRIPPENDORFF (1980) e já descritas na seção 3.2, ou seja, a 
confiabilidade do procedimento de classificação do texto segundo 
algum critério, pode ser verificada (1) ao repetir o procedimento mais 
de uma vez pelo mesmo pesquisador (teste-reteste), (2) quando a 
classificação é realizada por uma outra pessoa, considerando as regras 
elaboradas pelo pesquisador, (3) ou pelo critério da exatidão, onde os 
resultados são confrontados com padrões previamente estabelecidos. 
O presente caso ampara-se, quando da geração das categorias, 
na estabilidade: o pesquisador realizou 3 categorizações dos dados, 
com intervalos de tempos percebidos entre estas. Foram, portanto, 
realizadas leitura (1 x) e releitura (2 x) por parte do pesquisador. Esta 
verificação foi ainda acompanhada e apoiada por um segundo analista 
(com titulação na área fim – administração e análise de dados). 
Cada classificação ou categorização foi feita separadamente, 
isto é, não se buscou, forçosamente, utilizar as mesmas categorias para 
cada elemento, muito embora cada um dos 10 elementos (no caso 
exemplificado somente 1 elemento: Análise de Mercado) tenham tido 
categorias em comum com os demais, dada a própria natureza das 
palavras descritas pelos respondentes. Após a varredura de todos os 
textos das respostas, chegou-se enfim à lista completa das categorias 
AC para aquele elemento, conforme demonstra a Figura 23. A 
definição de cada uma das categorias foi feita gradativamente pelo 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.113 
 
 
pesquisador, após leitura de cada das 12 respostas ao elemento 
considerado. De fato, o reteste permitiu também um aperfeiçoamento 
da designação de cada categoria (de cada elemento), ou mesmo o 
acréscimo ou exclusão de algum item. 
 
 
CATEGORIAS AC - ANÁLISE MERCADO 
Identificar novidadesObter informações 
Monitorar mercado 
Observar tendências 
Analisar concorrentes 
Atualizar informações 
Realizar benchmarking 
Descobrir oportunidades de negócios 
Identificar estratégias 
Analisar clientes e fornecedores 
 
Figura 23 – Categorias Análise de Mercado 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.114 
 
 
Após a criação das categorias, o próximo passo é a marcação 
das categorias em relação à cada respondente, ou seja, uma vez que 
categorias tenham sido identificadas, ou mesmo extraídas a partir de 
um dado conjunto de respostas (neste caso, 12 respostas), é necessário 
proceder toda uma releitura do que foi dito por cada respondente, 
confrontando-as com a lista de categorias criadas para aquele 
elemento e marcando a categoria que de fato apareça naquela resposta. 
A Figura 24 apresenta o início de uma codificação que evolui 
naturalmente à medida que se avança na leitura de cada resposta, e 
consequentemente a criação de novos códigos ou categorias de 
respostas a marcar, ou seja, em vários momentos da codificação o 
pesquisador vê-se compelido a alterar, criar ou até mesmo excluir 
categorias. Da mesma forma, se julgar necessário, o pesquisador pode 
alterar o texto das categorias, adequando o que for necessário. Isso 
normalmente é feito recorrendo-se novamente às listas de palavras, 
expressões e até mesmo aos textos, de forma que a marcação seja, de 
fato, a mais isenta possível de qualquer tipo de vício de leitura ou 
trabalho. Pode-se, ainda, voltar rapidamente para as primeiras 
observações, de forma a revisar as categorizações inicialmente 
marcadas, tendo assim consolidada a sua marcação. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.115 
 
 
 
 
 
 
Figura 24 – Codificação para cada entrevistado 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.116 
 
 
Estas categorias, na verdade, fazem emergir dos textos as 
principais idéias que pontuam cada um dos elementos estudados. Ao 
ler os textos, portanto, pode-se perceber a necessidade de ajustes de 
forma que a lista final das categorias possa realmente ser 
representativa, ou seja, indicar efetivamente as idéias principais. 
Claro, tais alterações são feitas, prioritariamente, pelo próprio 
pesquisador, sem contudo deixar de levar em consideração as opiniões 
e colocações de um segundo codificador (aquele que dá ao 
pesquisador elementos para argumentar sobre a maior ou menor 
confiabilidade da classificação de cada um dos dados e por 
consequência dos resultados). 
Este procedimento ampara-se na técnica da reprodutibilidade 
de KRIPPENDORFF (1980), onde, a partir do conjunto de categorias 
obtido, além do pesquisador, outro analista deve realizar a leitura de 
cada texto e sua classificação nas categorias propostas. 
Por se tratar de categorias inferidas (que emergiram do 
conjunto dos textos), foram criados protocolos mínimos de marcação 
das Categorias AC para a codificação por outro analista. Isto se deve à 
necessidade de melhor contextualizar o estudo e explicitar ao segundo 
codificador o que de fato deveria ser feito. 
O perfil do segundo analista é muito semelhante ao do 
pesquisador, em termos de formação e de atuação profissional. Este 
codificador recebeu, além do protocolo, uma quantidade de 
formulários (Figura 25) com as categorias desmarcadas, sendo um 
formulário para cada um dos 10 elementos, cada elemento com 12 
opiniões ou respostas e cada resposta com um conjunto de categorias 
desmarcadas. 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.117 
 
 
 
O confronto final entre tais resultados permitiu a definição 
final da lista de Categorias AC. Esta última etapa passou pelos 
procedimentos de verificação de concordância entre os codificadores 
em razão de um mesmo conjunto de dados (KRIPPENDORFF, 1980, 
p.133-154). 
 
 
Figura 25 - Formulário com as categorias desmarcadas para o segundo codificador 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.118 
 
 
Uma vez de posse dos resultados de cada codificador, foram 
utilizadas para verificação da reprodutibilidade as seguintes propostas, 
melhor detalhadas no item 3.2 deste livro, aqui exemplificadas 
(contadas em termos de comparação) a partir do caso estudado (Figura 
26): 
 
Critério de 
avaliação 
 
 
Avaliador 
Concordância 
exata com base no 
total de itens 
avaliados 
Concordância parcial 
com base no total de 
itens marcados pelo 
pesquisador (ou pelos 
avaliadores) 
Concordância 
exata com base 
no total de 
respondentes 
Concordância 
parcial com 
base no total de 
respondentes 
 
Pesquisador 70 / 120 marcadas 
50 / 120 não marcadas 
 
Total de respostas analisadas pelo 
Pesquisador e pelo Segundo 
Avaliador : 12 
Segundo 
Avaliador 
26 / 120 marcadas 
94 / 120 não marcadas 
Diferença / 
comentário 
 
 
 
 
 
23 / 120 marcadas 
iguais 
 
47 / 120 não 
marcadas iguais 
 
70 / 120 total 
iguais, sejam 
marcadas ou não 
marcadas 
 
23 / 70 = 23 das 70 que 
o pesquisador marcou 
foram também marcadas 
pelo segundo avaliador. 
 
O segundo avaliador 
marcou 3 categorias que 
não foram marcadas pelo 
pesquisador. 
 
O pesquisador marcou 
47 que o segundo 
avaliador não marcou. 
 
47 / 50 = 47 de 50 que o 
pesquisador deixou em 
branco foram também 
deixadas em branco pelo 
segundo avaliador. 
 
 
 
 
 
 
 
 
Exatamente 
coincidente = 
1 / 12 
 
 
 
Coincidente 
(com + ou - 1 ) 
= 2 / 12 
 
 
Coincidente 
(com + ou - 2 ) 
= 3 / 12 
 
 
Coincidente 
(com + ou - 3 ) 
= 4 / 12 
 
 
Figura 26 – Verificação da confiabilidade AC 
segundo os 4 critérios adaptados por FREITAS e JANISSEK com base na literatura 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.119 
 
 
Na Figura 26, pode-se verificar rapidamente que o pesquisador 
marcou 70 categorias da lista das 120 que formam o todo do elemento 
Análise de Mercado (10 categorias x 12 respostas), um nº bem maior 
que o total das categorias marcadas pelo Segundo Avaliador (26 de 
120 totais). Podemos supor aqui que o Pesquisador, sendo conhecedor 
de causa e melhor situado em seu estudo, pôde identificar nas 
respostas, mesmo que nas suas entre-linhas, o que dali ele supôs serem 
as categorias previamente por ele criadas. 
O próprio fato de ter sido ele, o pesquisador, quem 
desenvolveu todo o estudo, revisou literatura, criou as perguntas 
abertas, fez a entrevista, degravou, e também fez emergir do conteúdo 
destas entrevistas as categorias aqui analisadas, faz que este tenha um 
bom domínio e maiores condições de análise e categorização, sem 
citar aqui a importância do conhecimento adquirido em experiências, 
neste estudo bastante importante. O pesquisador teve, enfim, mais 
firmeza para marcar. 
Surge aqui uma questão: a da real necessidade de esforços 
duplos, uma vez que um segundo avaliador, apesar de possuir em 
mãos um protocolo que o permita situar-se dentro do procedimento, 
jamais terá suficiente conhecimento de causa ou aquele sentimento de 
envolvimento para conduzir uma categorização e mesmo ter a clara 
noção e dedicação necessárias para a confiabilidade necessária. 
Seriam então estes esforços realizados simplesmente para justificar 
uma suposta verificaçãode resultados obtidos? Não seria o 
pesquisador figura suficiente para realizar e validar tais 
procedimentos? Vejamos mais alguns dados: 
Com base no indicador de concordância exata dos itens 
avaliados, exemplificado na Figura 26, podemos ali observar outros 
dados interessantes, como o nº de 23 categorias marcadas por ambos. 
Veja, das 26 categorias marcadas pelo segundo avaliador, 23 destas 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.120 
 
 
são concomitantes com as marcadas pelo pesquisador. Seria isso uma 
simples coincidência? E ainda, que das 50 categorias não marcadas 
pelo pesquisador, 47 também não tenham sido marcadas pelo segundo 
avaliador ? Desse total, de categorias marcadas e não marcadas, 70 
sejam comuns ? Eis algumas questões que poderiam ser aprofundadas, 
por exemplo. Ou isto seria um forte indicador de concordância? 
Julgamos que sim, especialmente constatando 58% de concordância 
entre os dois (70/120). 
Com base no indicador de concordância parcial dos itens 
avaliados, balizado pelo total das categorias marcadas pelo 
pesquisador, aqui no exemplo 70 categorias, podemos perceber que 
destas 70, 23 foram também marcadas pelo segundo avaliador, e que 
47 das 50 que o pesquisador deixou em branco foram também 
deixadas em branco pelo segundo avaliador. 
Claro, o universo das categorias agora analisado restringe-se 
ao total das categorias marcadas pelo pesquisador. Este indicador vai 
além, mostrando também que o segundo pesquisador não concorda 
(será que realmente não concorda, ou sua marcação foi limitada pelo 
seu conhecimento?) com 47 das 70 categorias foram escolhidas pelo 
pesquisador. Mas somente 3 das categorias marcadas pelo segundo 
avaliador não coincidem com as do pesquisador. Seria este outro dado 
interessante? Em nosso julgamento, sim. 
Partindo agora para analisar não mais as categorias em si, mas 
a exata coincidência das categorias marcadas por resposta por cada um 
dos dois avaliadores, apresentamos, ainda com base nos dados da 
Figura 26, algumas outras verificações que podem ser percebidas, e 
que dizem respeito à concordância exata ou parcial com base no total 
de respondentes. Das 12 respostas analisadas, somente 1 das 
marcações realizadas pelo pesquisador e também pelo segundo 
avaliador coincide totalmente. Sendo flexível no critério, ou seja, 
permitindo coincidir fichas onde nem todas as categorias estejam 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.121 
 
 
marcadas iguais, pode-se identificar um certo grau de concordância 
exata, ou seja, a codificação exatamente coincidente de 4 fichas em 12 
é um argumento de validade dos dados. Contudo, muito subjetivo, 
considerando que se trata de categorias inferidas. De toda forma, os 
dados apresentados permitem aprofundar análises para dali fazer 
emergir algum dado interessante, objetivo buscado por todo 
pesquisador. 
Todo procedimento acima demonstrado para um elemento 
(Análise de Mercado) foi feito para cada um dos 10 elementos citados 
no início destas análises, gerando então 10 novos dados objetivos, 
cada qual com uma categorização e com sua respectiva validação ou 
confrontação. Cada confrontação significa que foi oferecida ao 
segundo avaliador uma listagem com a resposta de cada entrevistado 
para cada elemento, cada resposta sucedida de categorias validadas 
pelo pesquisador em teste-reteste, mas com casas de marcar em 
branco, as quais o segundo avaliador, no seu entendimento, marcava 
se fosse o caso daquela observação. 
A lista completa das categorias geradas pelo pesquisador para 
o elemento Análise de Mercado foi considerada. Na Figura 24 
anterior, a resposta é do respondente nº 4, com a respectiva 
categorização. Este procedimento recém ilustrado é repetido para cada 
respondente (no total de 12) em cada um dos 10 elementos estudados. 
No final, é gerada uma tabela com o número de citações e o resultado 
das frequências de cada categoria de cada elemento, conforme ilustra 
a Figura 27 a seguir (onde o número de citações indica a quantidade 
de entrevistados enquadrados na categoria e a frequência é em relação 
aos 12 entrevistados). 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.122 
 
 
 
Elemento Análise Mercado No. cit. Freq. 
Identificar novidades 11 91% 
Obter informações 10 83% 
Monitorar mercado 9 75% 
Observar tendências 9 75% 
Analisar concorrentes 8 66% 
Atualizar informações 8 66% 
Realizar benchmarking 4 33% 
Descobrir oportunidades de negócios 4 33% 
Identificar estratégias 4 33% 
Analisar clientes e fornecedores 3 25% 
TOTAL OBSERVADORES. 12 
Figura 27 – A classificação final das categorias do elemento 
Análise de Mercado, segundo pesquisador. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.123 
 
 
Após este tratamento todo, pode-se partir para o efetivo 
entendimento dos resultados. A Figura 28 apresenta as categorias que 
emergiram dos textos (inferidas na leitura e categorização da variável 
aberta texto sobre a Análise de Mercado), na frequência com que 
apareceram entre os 12 entrevistados: 
 
 
Identificar 
novidades 
11 
Obter 
infos 
10 
Monitorar 
mercado 
9 
Observar 
tendências 
9 
Analisar 
concorrência 
8 
Atualizar 
infos 
8 
Realizar 
bench- 
mark. 
4 
Descobrir 
oportun. 
negócios 
4 
Identificar 
estratégias 
4 
Analisar 
clientes e 
fornec. 
3 
0 
11 
 
Figura 28 – Representação gráfica das categorias mais citadas 
 para Análise de Mercado entre os 12 entrevistados 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.124 
 
 
Finalizadas todas as etapas da categorização, poder-se-ia então 
tentar tirar conclusões, cruzando-as contra outros elementos, como já 
evocado (cargo, sexo, organização). No caso da pesquisa em questão, 
além disso, esta categorização servirá de base para, considerando cada 
um dos 10 elementos, criar um instrumento fechado, o qual – após 
uma série de implantações envolvendo sites web para melhoria da 
organização, da sua comunicação e do seu marketing - será aplicado 
novamente para cada um dos 12 respondentes, solicitando que os 
mesmos indiquem a importância ou incidência de cada um. Contudo, 
tal procedimento não é objeto deste texto. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.125 
 
 
6.4.2. Análise de Conteúdo induzida 
ou com base em protocolo assumido a priori 
Outro importante procedimento realizado ainda no contexto 
deste estudo foi a Análise de Conteúdo das Categorias OCM. As 
categorias OCM dizem respeito a um protocolo anteriormente criado, 
representativo das dimensões estudadas por JANISSEK (1999 e 
2000), quais sejam a (O)rganização, sua (C)omunicação e seu 
(M)arketing: um protocolo pois baseado na literatura e especulações a 
priori do pesquisador. 
Esse segundo procedimento realizado, conforme introduzido 
no início desta seção, vem mostrar que uma mesma base de dados 
pode servir para várias elaborações ou para diferentes análises. Não 
somente é possível extrair categorias inferidas (AC) dos textos obtidos 
através das entrevistas, como também pode-se identificar a presença 
ou não de categorias que representem outras dimensões estudadas – 
neste caso, as Categorias OCM. Ou seja, nas categorias OCM a leitura 
dos textos e sua subsequente marcação é feita na tentativade verificar 
a existência de categorias assumidas a priori (induzidas), enquanto 
que as categorias AC são marcadas pela inferência de suas 
representações. WEBER (1990, p.37) aborda esta questão de 
inferência e indução. 
Ao contrário então do procedimento de criação de categorias 
(AC) já descrito na seção 6.4.1 - onde primeiramente se fizeram 
emergir dos textos categorias representativas e, em seguida, tais 
categorias foram cruzadas novamente com os textos, na tentativa de 
marcar aquelas ali citadas, o esforço agora é somente na direção de 
identificar a existência ou não das categorias pré-definidas (a partir da 
literatura ou de especulações mesmo do pesquisador) nos textos, sem 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.126 
 
 
a necessidade de se fazer emergir nada destes. O protocolo OCM 
criado é composto por 9 categorias, assim identificadas (Figura 29): 
 
 
 
Organização-Serviços 
Organização-Gestão 
Organização-Informação 
 
Comunicação-Interna 
Comunicação-Externa 
Comunicação-Informal 
Comunicação-Formal 
Marketing-Comércio-Eletrônico 
Marketing-Publicidade 
 
O C M 
 
Figura 29 – Os componentes do protocolo OCM 
 para análise induzida das entrevistas em todos elementos 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.127 
 
 
A Figura 30 ilustra o procedimento de marcação das categorias 
OCM, com base no texto do respondente de número 5. 
O perfil deste segundo analista também é o do pesquisador, em 
termos de formação e de atuação profissional. Este codificador 
recebeu, além do protocolo, uma quantidade de formulários (Figura 
25) com as categorias desmarcadas, sendo 1 formulário para cada um 
dos 10 elementos, cada elemento com 12 opiniões ou respostas e cada 
resposta com 1 conjunto de categorias desmarcadas. Tais categorias 
são as indicadas na Figura 29. 
Para cada elemento (neste caso, a Análise de Mercado), cada 
resposta de cada entrevistado foi analisada pelo pesquisador e também 
por um segundo avaliador (neste caso, um outro que não aquele que 
codificou a parte inferida, mas ainda com mesmo perfil). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.128 
 
 
 
 
Figura 30 – A categorização induzida 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.129 
 
 
O resultado desta categorização apontou que, ao falar sobre 
Análise de Mercado, os entrevistados valorizam a questão da 
informação da organização (10 de 12), a comunicação externa (9 de 
12), a comunicação informal (8 de 12), depois aparecendo outros 
aspectos (com 5 de 12), como a organizacional (gestão e serviços) e a 
comunicação formal. Eles não mencionaram algo mais fortemente 
inerente a marketing (comércio eletrônico e publicidade). 
Na sequência, tem-se a Figura 31, a qual mostra os dados de 
confrontação das avaliações do pesquisador e do segundo avaliador, 
de forma a dar maior poder de argumentação ao pesquisador. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.130 
 
 
 
 
Critério de 
avaliação 
 
 
Avaliador 
Concordância exata 
com base no total de 
itens avaliados 
Concordância parcial 
com base no total de 
itens marcados pelo 
pesquisador (ou pelos 
avaliadores) 
Concordância 
exata com base 
no total de 
respondentes 
Concordância 
parcial com 
base no total de 
respondentes 
Pesquisador 48 / 108 marcadas 
60 / 108 não marcadas 
 
Total de respostas analisadas pelo 
Pesquisador e pelo Segundo 
Avaliador : 12 
Segundo 
Avaliador 
34 / 108 marcadas 
74 / 108 não marcadas 
Diferença / 
comentário 
 
 
 
 
29 / 108 marcadas 
iguais 
 
55 / 108 não 
marcadas iguais 
 
84 / 108 total 
iguais, sejam 
marcadas ou não 
marcadas 
 
 
29 / 48 = 29 das 48 que 
o pesquisador marcou 
foram também marcadas 
pelo segundo avaliador. 
 
O pesquisador marcou 
19 que o segundo 
avaliador não marcou. 
 
O segundo avaliador 
marcou 5 categorias que 
não foram marcadas pelo 
pesquisador. 
 
55 / 60 = 55 de 60 que o 
pesquisador deixou em 
branco foram também 
deixadas em branco pelo 
segundo avaliador 
 
 
 
 
 
Exatamente 
Coincidentes = 
2/12 
 
 
 
Coincidente 
(com + ou - 1) 
= 5 / 12 
 
 
Coincidente 
(com + ou - 2 ) 
= 7 / 12 
 
 
Coincidente 
(com + ou - 3 ) 
= 11 / 12 
 
Figura 31 – Verificação da confiabilidade OCM 
segundo os 4 critérios adaptados por FREITAS e JANISSEK com base na literatura 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.131 
 
 
Da mesma forma que a Figura 26, a Figura 31 nos apresenta 
alguns dados bastante interessantes, dados estes que agora estão sendo 
analisados não mais sobre uma base de categorias inferidas, e sim com 
base em categorias induzidas a priori, determinadas em função da 
literatura de referência. Nesta tabela, onde os dados são categorizados 
em função da Categorização OCM, 9 categorias compõem cada ficha 
apresentada aos dois avaliadores (o pesquisador sendo a primeira 
pessoa e o segundo avalista, enquanto replicabilidade das marcações), 
no total de 12 fichas - 12 respostas, gerando portanto um total de 108 
categorias. 
Deste total, o pesquisador marcou 48, um nº aproximado ao 
total das categorias marcadas pelo Segundo Avaliador (34 de 108 
totais). Deste total, 29 categorias foram coincidentemente marcadas 
pelos dois avaliadores, e 55 deixaram de ser marcadas, também por 
ambos. Isso nos gera um total de 84 categorias igualmente analisadas 
pelos dois avaliadores. Ora, isso representa um total de 77,8% de 
concordância sobre a mesma base avaliada (84/108), que, segundo 
KRIPPENDORFF (1980), indica um bom grau de acordo entre os dois 
pesquisadores. 
Também facilmente perceptível é o grau de acordo entre os 
avaliadores com base em seus universos determinados, exemplificado 
na FIGURA 31 pelo grau de concordância parcial que nos mostra que 
o segundo avaliador indicou 29 das 48 já indicadas pelo pesquisador, e 
mesmo 55 das 60 também deixadas em branco pelo pesquisador, 
apresentando um grau de concordância, com base no universo do 
pesquisador, de 84 categorias similares. Voltando a observação sobre 
as discordâncias entre os dois avaliadores, verifica-se que o 
pesquisador marcou 19 categorias que o segundo avaliador não 
marcou, e que este marcou apenas 5 categorias que não foram 
marcadas pelo pesquisador. Pode-se perceber aqui, rapidamente, um 
alto grau de categorias em acordo entre os avaliadores. Seria tal grau 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.132 
 
 
de acordo um indicativo de que, pelo fato das categorias serem 
induzidas, ocorreria uma maior facilidade de assimilação ou aceitação, 
mesmo por parte do segundo avaliador, somente balizado por um 
protocolo que serviu para situá-lo no estudo? Sim, acreditamos que tal 
suposição seja verdadeira. 
Outros dados servem ainda para mostrar tal acordo, como por 
exemplo o grau de concordância exata com base no total de 
respondentes. Este grau nos indica (Figura 31) que 2 das 12 fichas 
analisadas tiveram exatamente o mesmo julgamento. Sendo 
novamente aqui flexível no critério, ou seja, permitindo coincidir 
fichas onde nem todas as categorias estejam marcadas iguais, pode-se 
identificar agora um alto grau de concordânciaexata, diferentemente 
do que ocorreu na categorização AC. No caso da flexibilização das 
fichas das OCM aqui analisadas, obtemos quase que a totalidade de 
acordo, chegando a 11 das 12 analisadas quando fixado em 3 o 
número de categorias flexíveis na análise. Ora, 11 dentre 12 fichas 
exatamente coincidentes é um alto argumento de validade e 
confiabilidade dos dados. Além disso, considerando que se tratam de 
categorias induzidas, tal dado representa a veracidade dos conteúdos 
aqui avaliados. 
Fazendo agora um comparativo entre a análise de categorias 
inferidas AC, anteriormente descrito, e a análise de categorias 
induzidas OCM, podemos perceber que a indução de categorias 
facilita a confiabilidade de uma situação ou elemento analisado. 
Traçando um paralelo entre as duas análises, percebemos claramente 
tal situação, dado que o percentual (ou número) de coincidências é 
notoriamente superior quando se trata de categorias induzidas OCM. É 
nossa suposição que sim se deve ter maior de concordância na 
induzida do que na inferida, visto que o protocolo assumido a priori é 
mais facilmente aceitável ou assimilável pelo segundo avaliador, 
mesmo quando este não esteja completamente engajado na pesquisa. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.133 
 
 
Ambas as análises aqui apresentadas permitem concluir que a 
duplicação de esforços pode ser importante quando do processo de 
investigação, pela possibilidade de aprofundar análises dos dados 
obtidos. Entretanto, tais esforços não podem nem devem balizar uma 
investigação, no sentido de amarrar o pesquisador ao processo da 
replicabilidade em si. Tal procedimento serviria para permitir que o 
pesquisador legitimasse suas conclusões ou pudesse perceber daí 
informações não imaginadas, elevando ao máximo a exploração dos 
dados. Reforça-se nossa convicção da importância cada vez maior de 
que o pesquisador busque aprofundar suas análises, mesmo que 
inicialmente isso possa parecer utópico. Essa aparente utopia da 
relevância da análise ou mesmo confrontação de resultados num 
processo de investigação permite desenvolver a capacidade de pensar, 
observar, relacionar, justificar, sintetizar, correlacionar e inferir, e 
consequentemente o processo de agir dentro de um dado contexto 
analisado. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.134 
 
 
6.5. Aprofundando a análise de dados através da Análise de 
Correspondência 
De fato, o aprofundamento das análises dos dados aqui usados 
como ilustração serão feitos oportunamente em outra publicação, em 
especial por JANISSEK8. A Análise de Correspondência pode ser 
utilizada para explorar associações entre variáveis categóricas 
quaisquer, possibilitando a representação conjunta destas e suas 
relações. Dentre o conjunto de técnicas relacionadas com mapas 
perceptuais que permitem operar variáveis, a Análise de 
Correspondência merece destaque pela sua facilidade de aplicação e 
de interpretação, bem como pela sua versatilidade no tratamento de 
variáveis categóricas. Tais tipos de análises permitem que o analista 
visualize as proximidades, similaridades ou dissimilaridades entre os 
elementos estudados. Diversos autores descrevem este tipo de teste 
envolvendo dados qualitativos: MOSCAROLA (1990, p.277-282), 
LEBART e SALEM (1994, p.79-110), LAGARDE (1995, p.89-100 e 
143-149), PEREIRA (1999,p.133-151) e CUNHA Jr. (1997). 
BARDIN (1996, p.57) aborda os cruzamentos de variáveis 
objetivas (como a nossa classificação da amostra em gestores e 
técnicos) com as palavras mais frequentes. Este mesmo autor (p.190) 
fala da aplicação da Análise de Correspondência. A representação 
gráfica da Análise de Correspondência é especialmente rica em 
informação, permitindo que o analista depreenda, rápida e facilmente, 
as relações entre variáveis. O principal objetivo da Análise de 
Correspondência é a sintetização da massa de dados. Utilizando os 
procedimentos adequados de análise multidimensional de dados o 
pesquisador poderá poupar muitos recursos despendidos no 
processamento e análise dos mesmos. Estas técnicas de redução de 
 
8 http://www.adm.ufrgs.br/professores/hfreitas/e-business 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.135 
 
 
dados viabilizam a exploração das variáveis disponíveis para análise. 
As variáveis apropriadas para a utilização deste tipo de análise são as 
do tipo categóricas (qualitativas), ou mesmo variáveis quantitativas 
que passaram por um processo de categorização. As distâncias do 
gráfico gerado indicam as correspondências existentes entre as 
categorias (LAGARDE, 1995; FREITAS e MOSCAROLA, 2000; 
FREITAS, 2000). O intuito seria cruzar dados para se tentar extrair 
daí informações que aparentemente não são explícitas numa tabela ou 
teste. 
As Figuras 32 e 33 apresentam uma visão de uma tabela que 
cruza as empresas ou organizações de origem (representadas por E1 e 
E2) e os cargos dos entrevistados (como G para gestor e T para 
técnico) com as categorias definidas por inferência para a Análise de 
Mercado: uma em forma de tabela propriamente dita e outra em forma 
de mapa perceptual da Análise de Correspondência. Trata-se de cruzar 
então variáveis objetivas (a empresa e o cargo) com uma variável que 
se origina de um dado completamente subjetivo, mas cuja objetividade 
foi buscada primeiro pelo pesquisador, depois confrontada com outro, 
na busca de confiabilidade. 
A partir daí, o que se pode construir como análise e 
aprendizagem é que poderá ditar o interesse de todo esse esforço de 
análise. Entretanto, este é apenas um exemplo do que se pode fazer 
com a combinação de tais técnicas de análise. Nosso intuito é apenas 
demonstrar que se pode buscar aprofundar a compreensão e a 
capacidade de análise a partir de duas visões diferentes do mesmo 
conjunto de dados. Basta tentar analisar a tabela e, ao mesmo tempo, 
tentar avaliar o que indicam as proximidades geográficas na Figura 
33, indo e vindo de figura a figura (32 e 33), de forma a verificar 
curiosidades ou testar inferências a partir disso. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.136 
 
 
 
AC_Análise 
Mercado 
 
Empresa e 
Cargo 
C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 TOTAL 
E1_G (3) 3 0 3 1 2 3 3 3 2 0 20 
E2_G (5) 4 2 2 2 2 3 3 3 2 2 25 
E1_T (3) 3 1 2 1 0 3 2 2 3 1 18 
E2_T (1) 1 1 1 0 0 1 1 1 1 0 7 
TOTAL 11 4 8 4 4 10 9 9 8 3 70 
Figura 32 – Tabulação cruzada entre Empresa_Cargo (gestor ou técnico) 
 e Categorização da Análise de Mercado (AC) 
 
Legenda: E1 = empresa 1, E2 = empresa 2, G = gestor, T = técnico 
C1= Categoria Identificar novidades 
C2= Categoria Realizar benchmarking 
C3= Categoria Analisar concorrentes 
C4= Categoria Descobrir oportun negócios 
C5= Categoria Identificar estratégias 
C6= Categoria Obter informações 
C7= Categoria Monitorar mercado 
C8= Categoria Observar tendências 
C9= Categoria Atualizar informações 
C10= Categoria Analisar clientes e fornec 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.137 
 
 
 
 
 
Eixo 1 (48.1%)
Eixo 2 (37.6%)
E1_Gestores (3)
E2_Gestores (5)
E1_Técnicos (3)
E2_Técnico (1)
Identificar novidades Realizar benchmarking
Analisar concorrentes
Descobrir oportun negócios
Identificar estratégias
Obter informações
Monitorar mercado
Observar tendências
Atualizar informaçõesAnalisar clientes e fornec
 
Figura 33 – Análise de Correspondência entre Empresa_Cargo (gestor ou técnico) 
 e Categorização da Análise de Mercado (AC) 
Legenda: E1 = empresa 1, E2 = empresa 2, G = gestor, T = técnico 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.138 
 
 
Com base na tabela e gráfico acima, podemos analisar 
informações que nos são apresentadas através da análise de 
correspondência entre as categorias do elemento Análise de Mercado, 
cruzados com variáveis de cargo dos entrevistados de cada empresa, 
as quais denotam curiosidades como, por exemplo, o fato de que os 
técnicos das duas empresas pensam mais ou menos as mesmas coisas 
(E1_Técnicos e E2_Técnicos), ao mesmo tempo que não dão 
importância à Identificação de Estratégias e Descobrir Oportunidades 
de Negócios. 
Seria este um indicativo de que Técnicos não se preocupam 
com dados mais administrativos da sua organização? Outro dado 
importante é que os Gestores da empresa 1 não falam da possibilidade 
de analisar clientes e fornecedores nem descobrir oportunidades de 
negócios através do uso da internet, enquanto que os gestores da 
empresa 2 dão bastante importância para isso. Seria pelo fato da 
empresa 2 estar mais aculturada ao uso da internet do que a empresa 
1? Seria este um dado importante a ser investigado? 
Outras informações, tais como obter informações através da 
internet, monitorar mercado, observar tendências e identificar 
novidades recebem grande importância tanto por gestores quanto 
técnicos, de ambas as organizações. Estes são apenas alguns exemplos 
do que se pode avançar em relação à analise de uma base de dados, 
com o auxílio de uma ferramenta adequada que nos gere tais tabelas 
e/ou gráficos automaticamente, dando margem à uma análise mais 
fina e detalhada de dados inicialmente brutos e com pouco 
significado. 
 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.139 
 
 
 
*** 
 
 
A proposta aqui foi apresentar algumas soluções de análises de 
dados qualitativos, tais como análise léxica e análise de conteúdo (e 
ainda outras como a aqui descrita análise de correspondência) que, 
uma vez aplicadas complementar, recorrente e sequencialmente, 
permitem no seu conjunto obter informações e chegar a um conjunto 
de cenários que nos possibilitem avançar, inferir, induzir e identificar 
tendências, influências, impactos ou o simples uso das tecnologias, 
situações ou contextos analisados. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.140 
 
 
7. Considerações Finais 
A realidade de boa parte de nossos pesquisadores e analistas é 
que eles acumulam dados em suas atividades, sem contudo explorá-los 
adequadamente. Normalmente, não dominam métodos, técnicas e 
ferramental para tal. O diferencial proporcionado pelos métodos, bem 
como a isenção conferida pelo pesquisador que respeita com rigor 
estes métodos, retratam as diferenças das competências e das 
intenções. Todo profissional, pesquisador, professor, executivo, 
gerente ou analista deve desenvolver habilidades e dominar sistemas, 
técnicas e métodos inerentes à cada vez maior necessidade por 
construção de conhecimento a partir de dados dispersos em redes 
locais e mesmo mundiais, assim como nas múltiplas facetas e 
atividades de toda organização. 
Considerando isto, procurou-se demonstrar técnicas para 
realizar análise de dados textuais, em especial as Análises Léxica e de 
Conteúdo, suas mazelas e as precauções inerentes, buscando repassar 
ao leitor condições para uma investigação prática e eficaz. Mostra-se 
que é viável, com o auxílio de instrumental adequado, levantar dados 
quanti-qualitativos e explorar informações consistentes que possam 
trazer respostas ágeis a muitos questionamentos que surgem no dia-a-
dia de uma organização e mesmo no trabalho do profissional de 
pesquisa. 
As idéias aqui apresentadas mostram que as Análises Léxica e 
de Conteúdo não devem ser excludentes entre si, muito pelo contrário, 
ao utilizá-las em conjunto o pesquisador ou analista tem, nelas, 
diferentes análises que, juntas, podem permitir que dados sejam 
adequadamente explorados. Não se trata aqui de escolher entre as 
técnicas e sim de se dar conta de que uma e outra oferecem a 
possibilidade de avançar sobre os dados investigados, e aprender a 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.141 
 
 
utilizá-las de forma sequencial, recorrendo uma a outra quando da 
necessidade de um entendimento maior ou definição de resultados e 
percebendo o valor que pode ter a compreensão e a prática da sua 
complementaridade. 
Fez-se uma discussão sobre o valor e importância da coleta e 
análise de dados qualitativos, apresentando conceitos de análise léxica 
e de análise de conteúdo, bem como exemplos da literatura e de 
pesquisas e sistemas realizados recorrendo a estas técnicas. Uma 
pesquisa essencialmente qualitativa, explorando as duas técnicas em 
questão na análise de dados coletados em entrevistas estruturadas 
(com guia de entrevista), foi descrita buscando-se ilustrar uma 
aplicação. 
A objetividade dos dados coletados em uma pesquisa não é 
mais suficiente para a compreensão de um fenômeno, é a 
subjetividade que pode permitir compreender as razões de dado 
comportamento ou preferência. O uso de dados qualitativos, opiniões 
mais espontâneas ou indiretas, permite identificar oportunidades ou 
antecipar problemas. Além disso, esse tipo de dado pode ser explorado 
mais de uma vez, constituindo-se numa fonte diferenciada para a 
geração de novos, diferentes e curiosos dados, os quais podem ser 
produzidos diretamente pelo pesquisador. 
As análises, bem como a sistematização de seus 
procedimentos, dependem muito do valor e competência do 
pesquisador, de forma que este possa levar a cabo sua investigação e 
extrair o máximo de suposições e ou conclusões a partir de um 
conjunto de dados ou realidade estudada: é fundamental o domínio por 
parte do analista (ou equipe) do tema, objeto ou foco de estudo. A 
análise de dados textuais é bastante intuitiva, pessoal e subjetiva, mas 
contém certa racionalidade, permitindo a aplicação de técnicas e o uso 
de sistemas na sua facilitação. Apresenta, como outros, problemas de 
validade, assim como a autenticidade do texto, a validade de 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.142 
 
 
interpretação e a veracidade das afirmações de fato. Soluções para 
perceber e analisar a confiabilidade dos dados foram discutidas, 
através de 3 maneiras, que são a estabilidade, a reprodutibilidade e a 
exatidão. Nossa idéia é de que - nas pesquisas em SI - estas 
verificações sejam realizadas de forma simples, para o que revisamos 
e mesmo propusemos alguns indicadores com base no total de itens 
avaliados e com base no total de respondentes. 
Ao exemplificar as soluções aqui propostas através de uma 
pesquisa realizada sobre sites web e negócios empresariais, foi 
possível apresentar a sequência lógica de uma análise de dados 
qualitativos, descrevendo todos os passos para o plano de análise de 
dados e operacionalizando a idéia de que as técnicas apresentadas 
sejam de fato utilizadas de forma sequencial, recorrente e 
complementar. As palavras e expressões originadas pela pesquisa 
foram investigadas pela Análise Léxica e as categorias do presente 
estudo foram inferidas ou induzidas através dos procedimentos de 
Análise de Conteúdo. Duranteesta análise, foi possível aplicar os 4 
indicadores adaptados pelos autores a partir de literatura, visando 
verificar a confiabilidade dos dados, numa confrontação envolvendo 
uma variável cujas categorias foram inferidas a partir do conteúdo de 
cada entrevista, e também numa outra, cujas categorias foram 
definidas a priori pelo pesquisador com base na literatura e na prática 
gerencial. 
Todos estes passos foram exemplificados no intuito de mostrar 
o valor das idéias aqui apresentadas, baseadas no fato de que as 
verificações são passíveis de serem realizadas de forma 
descomplicada e bastante honesta, sem induzir o pesquisador a 
realizar manipulação de seus dados nem desviar sua atenção sobre o 
objeto investigado. Tal exemplificação foi finalizada com a Análise de 
Correspondência, utilizada para observar associações entre variáveis 
categóricas quaisquer, possibilitando a representação conjunta destas e 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.143 
 
 
suas relações, num exercício de exploração dos dados da pesquisa 
objeto de aplicação. 
Nossa proposta – reforce-se - é de que as duas técnicas sejam 
utilizadas de forma sequencial (uma após a outra), recorrente (pode-se 
ir e vir, deve-se mesmo ir e vir de uma a outra) e complementar (elas 
não são excludentes), ou seja, não se deve escolher uma ou outra, 
deve-se adquirir finalmente a visão de que os recursos de ambas são 
excelentes ferramentas na mão do analista e que ele deve fazer bom 
uso e não isolar uma em detrimento de outra. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.144 
 
 
8. Referências bibliográficas 
BARDIN, L. L’analyse de contenu. Paris: PUF, 8. Ed.,1996. 
BERNARDES, R. Um estudo sobre a demanda de informações em sites 
Web: o caso de uma unidade de pesquisa de uma empresa de P&D para 
o agronegócio brasileiro. Porto Alegre: Projeto de Dissertação de 
Mestrado. PPGA/EA/UFRGS, ricardo@cppsul.embrapa.br, Dezembro 
1999, 38 p. 
BICKMAN, L. & ROG, D.J. Handbook of Applied Social Research 
Methods. Sage Publications, 1998. 
BOFF, L. H. O uso da informação em ambientes de trabalho de 
conhecimento. Porto Alegre: Projeto de Tese. PPGA/EA/UFRGS. 
lhboff@vortex.ufrgs.br, Maio 1997. 
CRESWELL, J. W. Qualitative Inquiry and Research Design. Sage 
Publications, 1998. 
CUNHA JR. M. V. M. Análise Multidimensional de Dados Categóricos: A 
Aplicação das Análises de correspondência Simples e Múltipla em 
Marketing e Sua Integração com Técnicas de Análises de Dados 
Quantitativos. Porto Alegre: Caderno De Estudos - PPGA/EA/UFRGS, 
1997. 
DOMENJOZ, P., GAVARD-PERRET, M. L., e MOSCAROLA, J. Price and 
communication: How do they interrelate? An analysis of car 
advertisements published in English. France: Actes du congrès de la 
AFM (Association Française du Marketing), 1995. 
DORNELAS, J. S. Inovações ligadas ao processo de gestão participativa e 
ao uso de sistemas de apoio à decisão em grupo, na direção de novas 
formas de estruturas organizacionais. Foz do Iguaçu: 23º ANPAD, 
jairo@npd.ufpe.br, Setembro, 1999. 
EVRARD, Y. Études et recherches en marketing. Paris: Nathan, 1997. 
FRANKFORT-NACHMIAS, C. & NACHMIAS,D. Research Methods in 
The Social Sciences. New York: St. Martin's Press, 1996. 
FREITAS, H. & MOSCAROLA, J. Content analyzing qualitative data on 
Information Systems. Baltimore, MD, EUA: Association for 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.145 
 
 
Information Systems Americas Conference 1998, Technology research 
in progress, August 14-16, 1998. 
FREITAS, H., BECKER J.L., ZANELA, A. C., MACADAR M. A. , 
MOSCAROLA, J. e JENKINS, M. The design process of a cross-
cultural exploratory quantitative-qualitative survey research project to 
study the decision-making process. Baltimore, MD, EUA: Association 
for Information Systems Americas Conference 1998, Technology 
research in progress, August 14-16, 1998. 
FREITAS, H., CUNHA Jr. M.V.M. e MOSCAROLA, J. Aplicação de 
sistema de software para auxílio na análise de conteúdo. São Paulo: 
RAUSP, v. 32, nº 3, Jul/Set. 1997, p. 97-109. 
FREITAS, H., MOSCAROLA, J., e JENKINS, M. Content and lexical 
analysis: a qualitative practical application. Baltimore, MD, EUA: 
ISRC, Merrick School of Business, University of Baltimore (MD, 
EUA), WP ISRC No. 070498, April 1998. 35 p. 
FREITAS, H., MOSCAROLA, J., JENKINS, M., BECKER J.L., ZANELA, 
A. C. e MACADAR, M. A. Decision-making process, national culture, 
and decisional background, cross-cultural exploratory quantitative-
qualitative survey research project: Brazil, France and USA, some 
preliminary results - a report to the AIS 98. Baltimore, MD, EUA: 
Association for Information Systems Americas Conference 1998, 
Organizational research in progress. Baltimore, MD, EUA, August 14-
16, 1998, 3 p. 
FREITAS, H.; MOSCAROLA, J. Análise de dados quantitativos e 
qualitativos: casos aplicados usando o Sphinx®. Porto Alegre, Sphinx: 
2000, 176 p. 
FREITAS, H. As tendências em Sistemas de Informação com base em recentes 
congressos. Porto Alegre: ReAd (http://www.adm.ufrgs.br/read), No.13, 
Jan. 2000, 20 p. 
FREITAS, H., CUNHA Jr., M. V. M. e MOSCAROLA, J. Pelo resgate de alguns 
princípios da análise de conteúdo: aplicação prática qualitativa em marketing. 
Angra dos Reis - RJ: Anais do 20ºENANPAD, ANPAD, Marketing, 23 - 25 de 
Setembro 1996, p. 467 - 487. 
GRAWITZ, M. Méthodologie des Sciences Sociales. Paris: Dalloz, 1976 
(chap. II, p. 586-627), and 1993 (9 ed., chap. 2, section 2, p. 532-565). 
870 p. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.146 
 
 
GAVARD-PERRET, M.L. & MOSCAROLA, J. De l'énoncé à l'énonciation: 
relecture de l'analyse lexicale en marketing. Annecy, France: GEREG 
and CERIAM, Université de Savoie, Cahier GEREG, 1995, 34 p. 
GONÇALVES, L.P.F. Aplicação das técnicas de mineração de dados na 
administração: o caso de Três supermercados. Porto Alegre: Projeto de 
Dissertação de Mestrado. PPGA/EA/UFRGS. 
loren@aquiles.alternet.com.br, Dezembro 1999. 36 p. 
JANISSEK, R. O impacto da implementação de sites Web em Negócios 
empresariais. Porto Alegre: Projeto de Dissertação de Mestrado. 
PPGA/EA/UFRGS. raquelj@portoweb.com.br, Junho 1999. 
JANISSEK, R. A influência da Internet em Negócios empresariais: 
identificação e caracterização de elementos para análise de sites. Porto 
Alegre: Dissertação de Mestrado. PPGA/EA/UFRGS. 
raquelj@portoweb.com.br, Maio 2000. 
JENKINS, M.; FREITAS, H.; ARSHAM, H. e equipe técnica. Preliminary 
report on the Assessment of the Status of the Current and Planned IT 
Environment, Maryland Department of Transportation (MDOT), 
presented to the Information technology Team. Baltimore, MD, EUA: 
relatório de atividade de pesquisa com 300 managers de 10 
departamentos diferentes, participação como coordenador técnico de 
análise de dados. Baltimore, MD, EUA: ISRC, Merrick School of 
Business, University of Baltimore, January 22, 1998, 35 p. 
KELLE, U. Computer-Aided Qualitative Data Analysis: theory, methods and 
practice. Sage Publications, 1995. 
KIRK, J. & MILLER, M. Reliability and validity in qualitative research. 
Sage publications, 1986. 
KRIPPENDORFF, K. Content analysis: an introduction to its methodology. 
The Sage CommText Series, 1980, 191p. 
LAGARDE, J. Initiation à l'analyse des données. Paris: Dunod, 1995. 162 p. 
LEBART, L. & SALEM, A. Statistique Textuelle. Paris: Dunod, 1994. 342 
p. 
LEE, A. S. LIEBENAU, J. ; DEGROSS, J. I. InformationSystems and 
Qualitative Research. Philadelphia, USA: Proceedings ICIS, Chapman 
& Hall, 1997. 
LESCA, H. Information et Adaptation de l'entreprise. Paris: Masson, 1989. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.147 
 
 
LUCIANO, E. M. Mapeamento dos indicadores essenciais para diagnóstico 
e suporte ao processo decisório. Porto Alegre: PPGA/EA/UFRGS, 
emluciano@adm.ufrgs.br, Abril 1999. 
MASON, J. Qualitative researching. Sage, 1997, 180 p. 
MATTAR, F.N. Pesquisa de Marketing: edição compacta. São Paulo: Atlas, 
1996. 
MILES, M. B. & HUBERMAN, A. M. Qualitative data analysis. Sage 
Publications, 1994, 338 p. 
MOSCAROLA, J. Balladur, Chirac, Jospin, les mots d’une campagne: 
quelques exemples d’analyse lexicone avec le Sphinx. Annecy, France: 
IUP, cahier du GEREG, Université de Savoie, 1995, 8 p. 
MOSCAROLA, J. La communication politique vue par l’analyse lexicale. 
Annecy, France: IUP, Université de Savoie, Cahier du GEREG, n° 32, 
1994. 
MOSCAROLA, J. Discourse analysis with sphinx lexica. Annecy, France: 
1996. 
MOSCAROLA, J. Analyse de contenu et analyse de données: solutions 
logiciels pour une intégration quali/quanti. Paris: Actes JADT, 1993. 
MOSCAROLA, J. Les actes de langage: protocoles d'enquêtes et analyse des 
données textuelles. Paris: Colloque Consensus Ex-Machina, La 
Sorbonne, April 1994. 
MOSCAROLA, J. Enquêtes et Analyse de donnés avec le Sphinx. Paris: 
Libraire Vuibert, 1990. 
OLIVEIRA, M. Indicadores para tomada de decisão na etapa de concepção 
do processo construtivo: a percepção dos principais intervenientes. 
Porto Alegre: Tese de Doutorado, PPGA/EA/UFRGS, 1999. 
PEREIRA, J. C. R. Análise de Dados Qualitativos. São Paulo: Edusp. 1999. 
156 p. 
PERRIEN, J. CHÉRON, E.; ZINS, M. Recherche em Marketing: méthodes 
et décisions. Quebec, Canadá: Gaëtan Morin Éditeur, 1984. 
SILVERMAN, D. Interpreting Qualitative Data. Sage Publications, 1995. 
224 p. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.148 
 
 
SPHINX LÉXICA for Windows, Guia do usuário. Sphinx Consultoria, 
Brazil (sphinx@portoweb.com.br - website: 
http://www.sphinxbr.com.br), 1997. 
WEBER, R.P. Basic content analysis. Sage University paper, 1990. 96 p. 
WEITZMAN, E. A. e MILES, M. B. Computer programs for qualitative data 
analysis. Sage Publications, 1995. 372 p. 
ZANELA, A. I. C. A influência da cultura nacional e da experiência 
decisória sobre a percepção do processo decisório individual: um estudo 
comparativo entre Brasil, França e Estados Unidos. Porto Alegre: 
Dissertação de Mestrado. PPGA/EA/UFRGS, 1999. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.149 
 
 
Índice Remissivo 
 
A 
abertas 14 16 17 27 28 30 33 34 36 67 68 69 78 80 81 83 110 120 
agrupamentos 34 37 39 95 96 102 
ambigüidade 17 19 20 27 32 37 41 54 70 
amostra 17 19 20 27 34 37 41 51 54 72 113 135 
aproximação 36 34 37 95 
autenticidade 28 143 
avaliação 18 61 77 85 119 131 
 
B 
banalidade 36 93 
 
C 
categorias 17 19 20 21 27 34 41 43-48 50-54 57 58 59 60 61 67 69 79 80 86-98 109-143 
categóricas 135 136 144 145 
categorização 20 37 45 59 60 61 87 88 113 115 120 122 124 125 130 132 133 136 137 
citações 33 97 105 111 122 123 
classificação 21 47 51 58 59 87 112 113 117 135 
codificação 18 19 20 52 53 54 55 58 67 72 73 74 75 85 110 113 115 117 122 
código 47 52 68 74 78 86 115 
cohen 58 
coleta 7 14 15 16 22 27 82 83 142 
comparações 36 58 61 63 77 119 
complementaridade 9 15 21 26 31 69 80 85 100 112 142 
concordância 52 53 55 57 58 59 60 61 72 118 119 120 121 122 131 132 133 134 
concorrência 84 95 96 97 98 99 
confiabilidade 25 50 52 53 55 56 57 59 71 72 113 117 119 120 131 133 136 143 
confrontação 59 61 122 130 134 143 
contagem 32 34 47 50 54 57 59 
corpo 26 33 36 80 89 92 93 100 
correlações 78 134 
correspondência 80 100 135 136 139 140 144 145 
criatividade 50 70 
critério 18 34 45 61 91 113 119 122 131 133 
cruzamentos 17 88 91 98 99 135 
customização 75 77 
 
D 
dados 5 7-10 12-18 20-23 25-28 30 33-39 41-44 52-55 57 62-80 85-89 95 110 113 117 
118 120-122 126 130-134 
datamining 65 73 
decisão 11 19 50 64 67 68 69 76 82 145 146 149 
decomposição 50 62 
dedicação 20 50 70 120 
definição 18 32 43 44 45 47 52 56 57 58 66 67 112 114 118 142 
desacordos 57 58 59 
designação 114 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.150 
 
 
desigualdades 60 
desmarcadas 117 128 
desvio 54 58 89 144 
diagnóstico 66 148 
dicionários 37 67 
didática 16 25 
diferenciada 7 18 142 
dimensão 32 34 89 
dimensões 19 45 126 
direção 34 52 126 145 
diretrizes 20 41 
discordâncias 21 56 67 112 132 
dispersão 34 
distinção 43 91 
divergências 54 56 
documentos 27 28 30 39 43 62 66 68 70 74 96 
 
E 
elaboração 22 23 51 75 87 112 126 146 
elementos 22 41 47 48 65 79 81 82 93 102 109 113 117 122 125 127 128 135 147 
emergir 18 28 47 80 110 117 120 122 126 127 
emissor 39 47 63 
empresa 79 82 83 84 98 99 136 137 139 145 
engajada 20 27 134 
enquêtes 33 47 148 149 
entendimento 59 109 122 124 142 
entrelinhas 22 37 39 
entrevista 15 47 61 62 82 83 120 142 143 
entrevistados 66 68 80 81 89 98 99 111 123 124 130 136 139 
equipe 5 11 52 65 68 69 78 112 143 147 
erro 52 54 72 
escala 13 18 
escolha 9 19 44 47 48 50 52 74 76 95 
especializados 38 
especificidades 37 48 65 
espontânea 14 16 18 30 37 111 142 
essenciais 55 77 113 148 
estatística 33 37 54 70 71 73 78 
estratégias 16 47 84 99 114 123 137 139 
estrutura 15 52 69 77 110 142 
estudo 5 16 25 33 37 45 53 64 66 67 68 69 79 117 120 126 133 143 145 149 
etapa 17 39 45 48 49 68 79 81 87 118 149 
exatidão 51 55 56 57 113 143 
excludentes 21 141 144 
expectativa 17 
expectativas 68 74 
experiência 43 51 64 99 149 
explicações 17 26 63 
exploração 8 9 10 12 13 14 15 43 47 64 66 70 85 110 134 136 144 
exportar 96 
expressões 26 33 37 45 51 66 78 80 85 87 89 99 100 102 105 108 109 110 111 112 115 143 
extrair 87 126 136 142 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.151 
 
 
F 
facilidade 70 77 133 135 
fenômeno 13 54 88 142 
ferramentas 9 14 15 16 20 21 22 37 70 71 72 75 78 85 141 144 
fichas 60 61 122 132 133 
fidedignidade 20 25 
flexibilidade 26 43 70 73 75 
foco 15 48 64 143 
formulação 19 25 58 74 
formulismos 58 
fornecedores 10 79 82 99 114 123 139 
frequência 26 27 32 41 43 50 71 85 87 92 95 100 123 124 
 
G 
generalização 26 
geração 7 18 22 113 142 
geradas 53 64 102 122 
gerentes 10 25 67 68 
gestão 9 11 21 28 64 67 68 69 79 127 130 145 
gradativa 18 59 
gratificante 113 
gratuitamente 7 14 
grau 55 56 57 58 59 61 75 91 93 122 132 133 
grupo 11 13 14 32 38 96 112 145 
 
H 
habilidades 7 77 141 
hipóteses 17 22 23 26 36 43 51 53 54 57 70 72 74 77 108 
honesta 58 144 
 
I 
identificação 18 20 34 36 37 65 84 99 110 139 147 
implementação 69 72 147implicações 17 20 53 
inconsistências 54 56 66 
indicadores 33 39 41 42 66 68 91 143 148 149 
induzidas 80 87 88 110 126 132 133 134 143 
inferência 39 41 42 44 51 78 126 136 
influência 47 69 79 147 149 
informação 9 11 21 25 27 41 44 45 64 65 67 68 70 127 130 135 145 146 
insights 25 38 72 
instrumental 7 67 78 141 
instrumento 16 17 42 50 51 52 125 
intensidade 36 37 56 
interação 30 64 
internet 27 64 65 66 69 79 81 82 83 84 98 99 102 108 139 147 
interpretação 22 27 28 30 44 51 70 71 85 100 135 143 
investigação 8 22 26 41 70 71 79 80 91 134 141 142 
isenção 7 141 
isenta 115 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.152 
 
 
J 
julgamento 18 58 121 133 
justificativas 33 
 
L 
legitimidade 20 47 52 
leitura 5 18 19 22 30 33 37 39 41 68 70 71 85 92 98 110 111 113 114 115 117 124 126 
lematizado 36 
levantamento 72 79 
léxica 8 9 15 21 23 28 30 31 32 33 34 36 37 39 45 63-97 105 109 110 140-143 148 149 
léxico 30 32 33 36 37 95 96 99 100 112 
limites 49 
lineares 78 
linguagem 44 95 
lista 18 27 32 47 64 74 93 95 96 99 102 105 108 109 114-118 120 122 
literatura 9 12 14 15 21 31 44 59 61 65 73 80 87 110 119 120 126 127 131 132 142 143 
locais 56 141 
localização 74 77 105 
logs 27 
 
M 
material 12 49 85 
média 66 91 92 
medição 50 52 
medida 18 41 44 51 52 54 58 59 111 115 
mensagem 39 63 69 
mercado 14 27 79 82-85-93 98 99 102 108 109 113 114 120-124 128 130 136 137 139 
métodos 7 9 12 13 14 20 25 26 28 30 33 44 54 65 70 71 72 77 141 
métricas 59 
mineração 64 65 147 
modelos 43 86 
modificações 67 
múltipla 19 75 78 145 
multivariada 37 
 
O 
objetividade 13 63 136 142 
objetivo 20 21 28 33 39 41 43 47 49 52 63 67 79 112 122 135 
ocorrências 36 71 98 99 102 
opções 19 37 
operações 27 71 77 
opinião 13 14 16 18 19 27 28 38 113 
oportunidades 7 13 14 77 114 123 139 142 
oposições 26 
orçamento 69 
ordenação 96 
ordenada 95 
organização 7 13 19 20 32 36 66 67 68 70 85 91 99 105 110 125 127 130 139 141 
originalidade 10 36 93 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.153 
 
 
P 
padronização 70 
palavras 26 30 32 33 34 36 37 39 41 43 44 45 48 62 64 66 71 74 77 78 80 85 87 89 91 92 93 
95 96 97 98 99 100 102 105 109 110 111 112 113 115 135 143 
participantes 33 
percepção 19 66 81 82 83 96 100 112 149 
pesquisa 7 9 12 13-17 19 25 26 31 37 38 42 47 51 52 53 54 59 62 63 65- 67 70-73 78-81 84 
86-89 98 99 108 125 134 141-148 
pesquisador 7 8 11 12 13 16 18 19 20 22 26 28 34 51 58 59 60 61 70 76 87 88 99 111-144 
população 54 
possibilidade 14 26 28 39 41 58 70 75 81 105 111 134 139 142 
precauções 141 
pressupostas 59 87 
propostas 9 21 59 117 119 143 
protocolo 18 52 59 69 87 110 117 120 126 127 128 133 134 
proximidades 135 136 
público 13 69 84 
 
Q 
qualidade 10 12 20 23 34 51 66 84 99 
qualitativa 9 12 15 16 22 23 25 26 27 31 39 43 50 52 53 54 64 74 75 78 142 147 
quantificação 27 49 54 78 
quantitativa 14 16 22 23 25 26 27 30 43 44 75 
quantitativas 22 28 50 71 136 
questão 13 15 16 17 21 25 47 51 52 58 59 60 61 64 83 84 85 88 91 96 97 99 102 105 111 
120 125 126 130 142 
 
R 
reagrupadas 102 108 
recodificação 52 102 
recomendações 50 
recorrência 9 80 112 
recursos 8 10 15 20 21 36 62 77 135 144 
redução 45 71 82 95 96 136 
referencial 59 87 
refinamento 14 73 
registro 27 49 75 79 
regras 19 41 56 112 113 
regressão 78 
relação 18 19 48 50 52 58 60 68 69 72 81 82 84 93 99 109 115 123 139 
relacionamento 49 73 
relativos 33 39 41 42 69 95 
relatórios 22 23 66 96 
releitura 111 113 115 
relevância 134 
repetição 71 91 92 
replicabilidade 72 132 134 
representatividade 43 51 72 117 126 
reprodutibilidade 55 56 57 117 119 143 
requisitos 53 77 
respostas 7 17-19 21 27 30 32-34 36-39 44 47 68 78 80 83 84 85 86 89 91 93 95-102 105 111 
114 115 117 119 120 122 128 131 132 141 
restrições 75 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.154 
 
 
resultados 20 28 39 41 43 47 50 52 53 54 55 57 58 72 75 77 85 112 113 117-120 124 134 142 
reteste 56 57 113 114 122 
revisão 9 65 73 75 
rigor 16 70 141 
riqueza 9 19 36 37 38 93 95 
rotinas 75 81 
rubricas 47 
 
S 
satisfação 13 18 38 
segmentos 49 100 102 
sequências 96 
serviços 13 17 82 84 98 99 127 130 
significado 17 25 36 71 87 95 102 139 
significativa 12 51 
simétricas 78 
similaridade 77 95 96 108 132 135 
simplificadas 59 
sinais 32 
sinônimos 34 
sistemas 5 7 9 11 27 64 70 73 74 76 77 141 142 143 145 146 
sistemática 25 26 30 43 73 74 
sites 69 79 125 143 145 147 
subjetividade 13 112 142 
substantivos 36 37 
suporte 5 13 27 50 76 77 78 148 
 
T 
técnicas 7-9 13-16 20-23 28-31 36-38 42 43 51 54 56 64-78 85 89 113 135 136 141-147 
tendências 65 114 123 137 139 140 146 
teste 54 56 57 74 113 122 135 136 
transformações 42 
tratamento 26 33 34 36 72 73 74 75 78 85 124 135 
triangulação 54 
trivialidade 36 93 
 
U 
unidade 48 49 71 98 145 
universo 33 45 49 121 132 
 
V 
validação 54 67 68 122 
validade 25 28 37 51 52 53 59 71 72 88 111 113 122 133 143 
valor 15 16 28 42 47 50 51 57 142 144 
variância 78 
variáveis 37 42 47 51 52 59 68 69 135 136 139 144 
verbatim 97 
versatilidade 135 
visualizações 105 
vocabulário 32 33 36 79 87 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.155 
 
 
 
Índice de Autores 
ARSHAM – p. 68 
BARDIN – p. 30 32 35 39 42 47 70 71 78 86 89 101 105 117 144 
BECKER – p. 21 67 
BERNARDES – p. 65 
BERELSON – p. 44 63 
BIRD – p. 74 
BOFF – p. 69 
CHÉRON – p. 38 41 45 48 49 
CRESWELL – p. 24 
CUNHA JR – p. 13 21 25 26 29 36 66 144 
DEGROSS – p. 15 24 
DOMENJOZ – p. 68 
DORNELAS – p. 69 
EVRARD – p. 58 
FRANKFORT-NACHMIAS – p. 29 44 
FREITAS – p. 10 13 21 25 26 27 29 31 32 36 41 43 50 51 62 63 64 65 66 67 68 70 78 
GAVARD-PERRET – p. 29 68 
GOLDSEN – p. 52 
GONÇALVES – p. 65 
GRANT – p. 30 
GRAWITZ – p. 29 32 41 43 50 51 63 
HAMMERSLEY – p. 53 57 
HUBERMAN – p. 24 29 64 115 
HOLSTI – p. 42 115 
JANIS – p. 42 
JANISSEK – p. 10 69 79 134 144 
JENKINS – p. 32 41 43 50 52 62 63 67 68 
KAPLAN – p. 52 
KEENOY – p. 30 
KELLE – p. 24 53 57 71 72 74 76 78 117 
KIRK – p. 24 52 54 57 64 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.156 
 
 
KRIPPENDORFF – p. 38 42 49 50 52 54 55 57 58 59 72 118 122 123 141 
LAGARDE – p. 31 38 78 80 144 145 
LEBART – p. 15 30 32 33 35 48 79 105 144 
LEE – p. 15 24 76 
LESCA – p. 21 
LIEBENAU – p. 15 24 
LUCIANO – p. 69 
MACADAR – p. 67 
MASON – p. 24 
MILES – p. 13 24 29 64 73 74 76 115 
MILLER – p. 24 52 54 57 64 
MOSCAROLA – p. 5 13 25 26 2729 32 36 41 43 50 52 62 63 65 67 68 69 71 73 78 
97 105 144 
NACHMIAS – p. 29 44 
OLIVEIRA – p. 68 
OSWICK – p. 30 
PEREIRA – p. 78 144 
PERRIEN – p. 38 41 45 48 49 
PETRINI – p. 21 
PIRES – p. 66 
POZZEBON – p. 21 
PREIN – p. 74 
RUAS – p. 66 
SALEM – p. 15 30 32 33 35 48 79 105 144 
SILVERMAN – p. 29 53 54 57 
STUMPF – p. 67 
WEBER – p. 29 38 45 47 48 51 55 59 64 78 134 
WEITZMAN – p. 13 73 74 76 
ZANELA – p. 67 
ZINS – P. 38 41 45 48 49 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.157 
 
 
 
 
 
 
Apêndice - Sistema Sphinx® para pesquisas e análises de dados 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.158 
 
 
----- ADOTE ESTA 'IDÉIA!' ----- 
 
no site 
http://www.adm.ufrgs.br/professores/hfreitas 
 você encontra aulas, textos, revista do HF ... 
 
E ainda: 
 
Links para teses e dissertações, e-business, 
UFRGS, PPGA, EA, GESID, EAD, 
projetos e pesquisas em desenvolvimento, 
congressos, disciplinas, e muito, muito mais! 
 
Apoio a projetos de pesquisa: 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.159 
 
 
Outros livros do autor: 
 
FREITAS, H e MOSCAROLA, J. Análise de dados 
quantitativos & qualitativos: casos aplicados 
usando o Sphinx®. Porto Alegre/RS: Sphinx, 
2000, 176 p. 
 
FREITAS, H., BECKER, J. L., KLADIS, C. M. e 
HOPPEN, N. Informação e decisão: sistemas 
de apoio e seu impacto. Porto Alegre/RS: Ed. 
Ortiz, 1997, 214 p. 
 
FREITAS, H. A informação como ferramenta 
gerencial: um telessistema de informação em 
marketing para o apoio à decisão. Porto Alegre 
- RS: Ed. ORTIZ, 1993. 360 p. 
 
FREITAS, H. Um micro = um centro de 
informações. Rio de Janeiro - RJ: LTC, 1991. 
146 p. 
Informações pelo e-mail: sphinx@portoweb.com.br 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.160 
 
 
Sphinx Consultoria Ltda 
 
Distribuidor EXCLUSIVO dos sistemas Sphinx® 
 
 
 
Único certificado e autorizado SPHINX® 
na América Latina 
 
Rua Peru 211 - 92420.300 
Canoas RS – Brasil 
Fone/Fax: 0xx51 - 477.3610 
e-mail: sphinx@portoweb.com.br 
http://www.sphinxbr.com.br 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.161 
 
 
http://www.sphinxbr.com.br 
O Site da Sphinx Brasil 
 
Acesse o site da Sphinx Brasil. Você encontrará: 
 DICAS sobre a utilização do Sphinx ® e 
seus módulos. 
 DOWNLOAD de manuais, funções, 
demo, autodemo, dlls, drivers, etc. 
 SUPORTE e-mail. 
 Arquivo Sphinx® DEMO, que permite 
instalar uma versão limitada do sistema 
para criar exemplos com até 5 questões e 
20 questionários, ou abrir e analisar os 
casos cujos dados estão disponíveis para 
download no site. 
 Arquivo AUTODEMO do Sphinx®, que 
é uma apresentação eletrônica, que 
percorre automaticamente as 
funcionalidades do Sphinx® 
(questionário, digitação e análise de 
dados). 
 Descrição dos SISTEMAS Sphinx®, para 
verificar aquele que melhor se adapta às 
suas necessidades. 
 DIVERSOS ARTIGOS sobre pesquisas e 
análises de dados usando os sistemas 
Sphinx ® em diferentes áreas (turismo, 
comércio, política, saúde, engenharias, 
qualidade, etc). 
 CASOS variados, exemplos e dados que 
podem ser abertos e analisados na versão 
de demo, para que se tenha melhor noção 
sobre o potencial uso e aplicação dos 
sistemas Sphinx ®. 
 FLASH-MAILS periódicos, com dicas, 
promoções, etc. 
 DEPOIMENTOS de clientes usuários 
Sphinx® . 
 
Aproveite! 
Conecte-se com o que existe de melhor em soluções para análise de dados 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.162 
 
 
UTILIZE OS SISTEMAS SPHINX 
E FAÇA SEUS DADOS FALAREM ! 
 
O SPHINX PRIMO guia você na realização de suas enquêtes! 
Em três etapas (definir o questionário, digitar as respostas, tratar e analisar os 
resultados), o Sphinx Primo acompanha você ao longo de todo o seu trabalho. De 
forma simples e muito profissional, ele fará você ganhar tempo, oferecendo-lhe toda 
a flexibilidade possível. Este sistema convém tanto aos estudos qualitativos como 
aos estudos quantitativos e não requer nenhum conhecimento prévio de estatística. 
Caso deseje aprofundar as suas análises ou analisar outras fontes de dados (bases de 
dados, textos...), você pode aumentar suas capacidades, fazendo-o evoluir até o 
Sphinx Plus² e o Sphinx Léxica. 
 
O tratamento de suas enquêtes e de seus dados com o SPHINX PLUS2. 
O Sphinx Plus2 é uma ferramenta de concepção e de tratamento de enquêtes, de 
análise estatística e de gestão de dados. Graças à sua riqueza funcional e à sua 
grande flexibilidade, é a ferramenta ideal para aqueles que querem aprofundar a 
compreensão dos dados de uma enquête ou explorar operacionalmente todo o tipo de 
arquivo. Permite, além de todas as funcionalidades do Primo, definir planos de 
tabulação, explorar e quantificar os dados textuais, calcular, tratamentos estatísticos, 
análises multivariadas, etc. Para aprofundar a análise de seus dados, utilize o Sphinx 
Léxica. 
 
Com o SPHINX LÉXICA, alie o rigor científico 
à sofisticação da linguagem. 
O Sphinx Léxica propõe a você soluções avançadas para realizar seus estudos 
qualitativos. Ele integra as funções de concepção e edição de enquêtes, de análise e 
gestão de dados do Sphinx Primo e do Sphinx Plus2, enriquecendo suas funções de 
navegação lexical e oferecendo novas possibilidades de leitura, de análise e de 
quantificação dos dados textuais. Você pode aplicar indiferentemente todos os 
recursos do Sphinx Léxica às suas enquêtes, ao estudo de suas bases de dados 
heterogêneas, à análise de textos de qualquer natureza (entrevistas, discursos, 
artigos, livros, etc). É a solução mais completa para a análise de dados textuais 
(análise sintática, segmentos repetidos, tabelas lexicais e de especificidades, co-
ocorrências, frases características). Com o Sphinx Léxica, o tratamento de todos os 
seus dados, tanto quantitativos como qualitativos, torna-se fácil, o que levará você a 
aprofundar seus resultados e conclusões. Descobrindo as novidades do Sphinx 
Léxica, você enriquecerá seus métodos de pesquisa e terá vontade de empreender 
novas investigações. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.163 
 
 
 
Os módulos do Sphinx® 
Soluções para concepção de enquêtes e análise de dados 
Módulo Descrição 
 
SCANNER 
Oferece opções avançadas para formatação e impressão do 
questionário, bem como para leitura automatizada por scanner, 
com reconhecimento automático de respostas objetivas 
(fechadas). 
 
DATA ENTRY 
Estágio de entrada de dados. Facilita e distribui o trabalho de 
digitação em outros postos de trabalho, com boa relação 
custo/benefício. 
 
MULTIMÍDIA 
Permite criar questionários auto-aplicáveis, com imagens e sons 
que respondem ao texto, aos toques ou à voz. Indicado para 
captação de respostas em postos multimídia (exposições, 
recepções,...) 
 
ODBC 
Reconhecimento e transformação automática de bases de dados 
de formato ODBC para o formato do Sphinx, agilizando o 
aproveitamento dos dados. 
 
PRINT 
Permite a formatação e a impressão de formulários de enquêtes 
criadas no Sphinx. 
 
BASIC 
Permite programar opções para modificações e cálculos de 
variáveis, com possibilidade de rápida recodificação de não-
respostas,adição de números ou textos, criação de indicadores, 
etc. 
 
ERGO-3D 
Sistema interativo de representação visual em 3 dimensões, 
através do olho de uma câmera a partir da qual se pode modificar 
a posição e a orientação, fazendo ‘girar os dados’. 
 
MULTILÍNGUA 
Permite optar pelos resultados e comentários nos idiomas 
Português, Francês ou Inglês. 
 
Os manuais dos módulos Sphinx podem ser obtidos em 
http://www.sphinxbr.com.br/arquivos/ 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.164 
 
 
 
O Sphinxfor you é o nosso programa de fidelização de nossos usuários 
e clientes, lançado para sua maior satisfação. Estaremos sempre lhe 
oferecendo serviços diferenciados de diversas naturezas, como: 
Site web Dicas on-line Flash-mail 
Livros Artigos Casos e dados 
3 Sistemas Help Módulos 
Manuais Suporte Técnico Promoções 
Eventos e Workshop Treinamentos in 
company 
Treinamentos por 
turma 
 
Fique de olho, o Sphinxfor you vai fazer a diferença e lhe mostrar que 
vale a pena ser fiel à Sphinx e seus sistemas e serviços, valorizando nosso 
esforço de pesquisa e trabalho, sobretudo considerando que de fato somos os 
únicos certificados pela França para prestar serviços e os distribuidores 
exclusivos do sistema no Brasil. 
 
 
Sphinx Consultoria Ltda 
Rua Peru, 211 - 92.420-300 - Canoas RS Brasil - Fone/Fax: 0xx51 - 477 3610 
e-mail: sphinx@portoweb.com.br - Visite nosso site: http://www.sphinxbr.com.br 
Distribuidor EXCLUSIVO do Sphinx 
Único certificado e autorizado SPHINX na América Latina 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.165 
 
 
SUPORTE TÉCNICO SPHINX 
 
O suporte técnico SPHINX é um serviço contratado anualmente e 
fornecido via e-mail (sphinx@portoweb.com.br) ou ainda por 
telefone/fax (0xx51-477-3610). No primeiro ano de licença, o suporte 
será gratuito, desde que o contato telefônico seja realizado pelo cliente. 
Os e-mails serão respondidos no mais breve espaço de tempo possível 
(24 horas em média). 
 
Existem outras maneiras de obter assistência enquanto você trabalha com o 
Sphinx: 
1. Clicando sobre a figura da esfinge, no diálogo 
principal do sistema 
 
2. A partir do menu ?, na opção de Índice do HELP, onde encontrará as 
principais explicações sobre o sistema SPHINX®; ou a opção Ajuda sobre, para 
procurar por tópicos, palavras ou frases específicas; e ainda a opção 
Aceleradores/Atalhos, que mostra as combinações de teclas que podem ser utilizadas 
no sistema. 
3. O HELP pode ser ativado diretamente em Iniciar – Programas – Sphinx ou 
pelo ícone no Grupo de Programas. 
4. No site do Sphinx (http://www.sphinxbr.com.br), onde você pode se conectar 
para acessar informações adicionais sobre as funcionalidades dos sistemas Sphinx, 
como dicas, artigos e casos variados, além da possibilidade de download de recursos 
técnicos, como demo dos sistemas, manuais, etc. 
 
Sphinx Consultoria Ltda 
Rua Peru, 211 - 92.420-300 - Canoas – RS - Fone/Fax: 0xx51 - 477 3610 
e-mail: sphinx@portoweb.com.br - Visite nosso site: http://www.sphinxbr.com.br 
Único certificado e autorizado SPHINX na América Latina 
Distribuidor EXCLUSIVO do Sphinx 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.166 
 
 
ARTIGOS, DEMO SPHINX® E DADOS DE CASOS 
 
Nos sites listados abaixo, é possível obter artigos que vão lhe 
conduzir para a criação de enquêtes, definição de questões, 
aplicação de pesquisas, entrada de dados, tratamentos e análises 
de dados quanti e qualitativos. 
 
Além disso, são também disponibilizados sistemas demo, 
autodemo e dados para que você seja introduzido no mundo de 
tabulações e análises de dados. 
 
 
http://www.sphinxbr.com.br 
http://www.adm.ufrgs.br/professores/hfreitas 
 
 
Sphinx® - sistemas de concepção de pesquisas e de análise 
estatística de dados quantitativos e qualitativos 
 
Alie rigor e flexibilidade na criação de pesquisas e análise de 
dados. Invista na qualidade de seus resultados e na rapidez de 
intervenção. 
 
O Sphinx® é uma ferramenta profissional 
para todos os tipos de pesquisa e análise. Confira! 
 
Visite nosso site http://www.sphinxbr.com.br 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.167 
 
 
Lista de Funções SPHINX® 
1. Questionário - elaboração 
Definição 
 Até 1.000 (mil) questões abertas ou fechadas. 
 Quatro tipos de questões fechadas: respostas únicas, múltiplas, ordenadas, ou escalares. 
 Três tipos de questões abertas : numéricas, tipo texto (ou textuais), ou código (número 
ilimitado de modalidades associadas a listas de códigos, por exemplo códigos postais, 
datas, imagens). 
 Exibição do questionário sob forma de lista. 
 Diálogo de definição de uma questão: título da questão e nome das variáveis, lista das 
modalidades, número de respostas. 
 Definição de atributos (entrada obrigatória, indicação de 'outros, quais?' numa questão 
aberta, ...). 
 Modificações no questionário: supressões, inserções, deslocamento de questões. 
 Criação de questões vizinhas pela duplicação ou pela utilização das funções 
Copiar/Colar. 
 Criação de novas questões durante ou depois da entrada das respostas. 
 Definição de desvios/pulos («Ir para questão... se...»). 
 Possibilidade de agrupar questões do mesmo tipo. 
 
Ajuda na concepção 
 Bibliotecas de questões classificadas por tema e pelo tipo de questões: consulta da 
biblioteca e inserção de questões da biblioteca no questionário. 
 Criação de novas bibliotecas ou enriquecimento da biblioteca atual segundo o desejo do 
usuário. 
 
Edição e paginação 
 Paginação automática, com casas de marcar ou preencher e impressão com opções de 
apresentação (cabeçalhos, comentários, tipo de letra e tamanho). 
 Exportação para um arquivo ASCII (texto) ou para um arquivo MS Word (formatação). 
 
2. Respostas - digitação 
Digitação ou entrada dos dados 
 Modo direto (uma tela por questão): digitação com mouse. 
 Modo rápido (um questionário por tela): via teclado, adaptada à entrada em série. 
 Gravação automática. 
 Saltos ou pulos ativados pelos envios. 
 Abertura automática de uma casa de entrada para as questões « outro, especifique... » e 
utilização de abreviações para a digitação das questões texto. 
 
Entrada ou digitação das questões tipo código via um arquivo de códigos. 
 Controle permanente das entradas (recusa de códigos errados, de valores fora dos limites, 
digitação obrigatória). 
 Possibilidade de digitação multi-postos com reagrupamento posterior dos arquivos de 
respostas. 
 Número máximo de observações: 32.000. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.168 
 
 
 
Consultas, modificações 
 No modo direto: possibilidade de adicionar à tela a resposta de uma outra questão. 
 No modo rápido: exibição opcional das categorias codificadas ou em claro. 
 Consulta do arquivo de respostas no modo planilha. 
 Pesquisa e correção das respostas correspondendo a um perfil escolhido. 

Compatibilidade e exportações 
 Compatibilidade com as versões brasileiras anteriores do Sphinx for Windows®. 
 Exportação do questionário ou dos dados, de todas as respostas ou somente de certas 
questões num arquivo texto (.txt), com separadores modificáveis pelo usuário. 
 Para as questões fechadas, categorias em claro ou codificadas. 
 Edição de listas para mala-direta. 
 Comunicação com outros programas, como o SPSS. 
 
Importações 
 Importaçãodas respostas para todo o questionário ou para certas questões a partir de um 
arquivo de formato texto (separadores modificáveis pelo usuário). 
 Opções de importação: criação de novas observações ou modificação das existentes. 
 Importação de uma base de dados no formato ASCII. Visualização e controle do arquivo. 
Identificação dos nomes e dos tipos de variáveis. 
 Importação de dados de scanners. 
 Importação de dados do SPSS. 
 Importação de um texto. Definição de separações. Criação opcional dos indicadores de 
níveis e dos números de unidades. 
 Gestão das anotações e criação de variáveis de contexto. 
 
Amostragem 
 Ajuste de amostra por extração ou por substituição de respostas. 
 Extração de uma amostra aleatória ou de um estrato. 
 Simulação de uma amostra: determinação do tamanho, da precisão e do risco de erro. 
 
3. Dados - processamento 
Tabulação 
 Tabulação automática com resultados das tabulações simples, das tabulações cruzadas 
(entre 2 questões), das tabelas múltiplas ou recapitulativas. 
 Opções: tabelas, histogramas, setores. 
 Opções de apresentação: percentuais, freqüências, médias, qui-quadrado, não-respostas. 
 Resultados na tela, num arquivo ou na impressora. 
 
Plano de tabulação 
 Definição de vários tratamentos entre o conjunto de possibilidades oferecidas. 
 Execução repetida em vários estratos. 
 
Listas estruturadas 
 Lista das respostas a uma ou várias questões classificadas segundo a categoria de uma 
outra questão. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.169 
 
 
 Seleção dos elementos da lista, do critério de classificação e de eventuais condições 
restritivas. 
 Opções de apresentação da lista. 
 
Estratos 
 Definição de estratos pela combinação de seleções de respostas segundo operadores 
multicritérios de seleção: e, ou, exceto, >, <. 
 Tratamentos efetuados sobre o estrato corrente ou (normalmente) sobre a amostra total. 
 Consulta e análise do detalhe dos estratos definidos por uma variável. 
 
Questões tipo texto - recodificação 
 Apresentação simultânea da questão e das categorias disponíveis para codificar seu 
conteúdo. 
 Acréscimo de novas categorias em processo de recodificação. 
 Apresentação de uma variável ilustrativa em relação à questão em processo de 
codificação. 
 Gravação em uma nova variável ou retomada de uma codificação em andamento. 
 
Variáveis numéricas - criar classes 
 Exibição de parâmetros: mínimo, máximo, soma, média, mediana, desvio-padrão, 
variância, quartis, decis. 
 Lista dos valores da variável com menção do valor máximo e da média. 
 Possibilidade de identificar as observações correspondentes aos valores da lista. 
 Diagrama ou histograma interativo: acréscimos, supressões e modificações dos limites, 
(re)definindo novas classes. 
 Opção diagrama e histograma: freqüências proporcionais à altura ou à superfície. 
 Análise da tabela das freqüências (re)classificadas. 
 Criação de uma nova variável fechada sobre as classes do histograma. 
 
Interpretar códigos 
 Lista dos códigos e de suas freqüências. 
 Possibilidade de identificar as observações correspondentes aos códigos (Número e 
Característica para uma outra variável). 
 Definição manual de reagrupamentos ou reagrupamento automático sobre uma parte do 
código (códigos analíticos). 
 Interpretação do código pelo título da questão ou categoria, conforme o arquivo de 
descrição dos códigos. 
 Criação de uma nova variável, depois reagrupamento ou interpretação dos códigos. 
 
Descrever imagens 
 Exibição simultânea da imagem e das modalidades disponíveis para codificar seu 
conteúdo. 
 Acréscimo de novas modalidades em processo de leitura das questões. 
 Apresentação de uma variável em relação à questão em processo de codificação. 
 Gravação em uma nova variável ou retomada de uma codificação em andamento. 
 
Criação e supressão de variáveis 
 Lista resumida das variáveis (nome, tipo, título da questão). 
 Supressão de questões ou variáveis com atualização do arquivo de respostas. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.170 
 
 
 Criação de uma variável Número cujo conteúdo é o nº da observação ou questionário. 
 Possibilidade de: esconder variáveis que não aparecerão mais nas listas; modificar o 
nome da variável ou transformar em escalares as questões tipo fechada única. 
 
Transformar uma variável 
 Transformação de variável fechada por reagrupamento ou por exclusão de categorias. 
 Uma variável de respostas fechadas ordenadas  em n variáveis fechadas escalares. 
 Uma variável fechada com n categorias  em n variáveis tipo « sim/não ». 
 Uma variável fechada com respostas múltiplas ou ordenadas  numa variável numérica 
contendo o número ou quantidade de respostas. 
 Uma variável numérica  numa variável fechada escalar. 
 Uma variável qualquer  numa variável numérica, tipo código ou tipo texto. 
 
4. Resultados - análise 
 Navegação automática entre as telas Tabulação (consulta pelo desfile dos resultados) e 
Análise (ações em uma tabela). 
 Troca de estrato com atualização automática da tabela em processo de análise. 
 Comentário especial pela tradução (ou transformação) da significância dos testes 
estatísticos em mensagens. 
 
Tabelas recapitulativas 
 Síntese das variáveis fechadas (categoria mais citada, menos citada, não-respostas). 
 Síntese das variáveis numéricas (não-respostas, valor mínimo, valor máximo, soma, 
média, desvio-padrão). 
 Síntese das variáveis tipo escalar (não-respostas, itens da escala, média, desvio-padrão). 
 Síntese das variáveis tipo texto (não-respostas, número total de palavras, número médio 
de palavras, número de palavras diferentes, hapax (trecho que aparece uma única vez no 
texto), freqüência máxima, palavra mais freqüente). 
 
Tabelas de freqüências 
 Supressão, reagrupamento, classificação, troca de linhas ou de colunas, modificação de 
títulos e comentários. 
 Apresentação: gráfico de setores ou histogramas. (barras), opções por percentuais ou 
freqüências, escolha das dimensões dos gráficos. 
 Caracterização das freqüências da cada célula ou casa de uma tabela ou de cada ponto de 
um mapa obtido pelo simples clique ou duplo clique sobre a célula escolhida. 
 
Tabelas (tabulações) simples 
 Opções: % observações % citações, % acumulados, intervalos de confiança, comparação 
de freqüências, teste do qui-quadrado (Qui 2) em relação à eqüi-repartição ou à uma 
repartição de referência. 
 Opção diagrama (altura proporcional) ou histograma (superfície proporcional). 
 Classificação ou criação de novas classes das variáveis numéricas: modificável a partir 
do ambiente de análise. Conservação da última classificação. 
 
Tabelas (tabulações) cruzadas 
 Apresentação das observações em freqüências ou em percentuais (linhas, colunas ou 
total). Qui-quadrado (Qui 2) por linha ou coluna, comparação entre 2 linhas, 2 colunas. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.171 
 
 
Qui-quadrado sobre o conjunto da tabela, com apresentação em destaque das casas 
significativas. 
 Diagrama de barras lado a lado ou em barras empilhadas (ou superpostas). Definição da 
altura dos elementos. 
 Análise de correspondência (AC), com apresentação do mapa fatorial e dos parâmetros. 
 
Tabelas de características 
 Tabela sintética, caracterizando as amostras definidas pelas categorias de uma variável 
em relação às categorias ou valores de outras variáveis. 
 Caracterização absoluta: categorias mais citadas (variáveis fechadas), média e desvio-
padrão (variáveis numéricas). 
 Caracterizaçãorelativa: categorias significativamente sobre-representadas (ou sub-
representadas) na amostra, ou valores médios significativamente superiores (ou 
inferiores) à média da amostra. 
 
Tabelas múltiplas 
 Tabulações simples combinadas: criação de uma tabela cruzada pela justaposição da 
tabulação simples de diversas questões de categorias idênticas. 
 Tabulações cruzadas justapostas: cruzamento de uma questão com várias outras. 
Justaposição de tabelas cruzadas. 
 Tabulações simples subdivididas (ou ventiladas): cruzamento de uma questão com 
algumas das categorias pertencendo a outras questões. 
 Todas as funções de análise das tabulações cruzadas se aplicam às tabelas múltiplas. 
 
Tabelas de dados externos 
 Possibilidade de tratar os dados de uma tabela externa ao Sphinx. 
 Entrada pelo teclado ou leitura de um arquivo ASCII. 
 Análise como tabela de contingência (AC). 
 
Correlação 
 Cálculo do coeficiente de correlação e dos parâmetros da reta de regressão linear. 
 Apresentação da nuvem de pontos e da reta de regressão. 
 Possibilidade de apresentar as características dos pontos e de colori-los em função de 
uma outra variável. 
 Tipologia interativa pela localização de centros de classes e agregação dos pontos até o 
centro mais próximo. 
 
Análise interativa das freqüências de uma tabela ou do ponto de um mapa 
 Identificação das observações pelo simples clique e detalhe por duplo clique sobre a 
célula de uma tabela ou sobre um ponto de um mapa. 
 Retorno automático ao modo de digitação das respostas para eventuais correções. 
 Ilustração e características das freqüências de uma célula segundo uma outra variável 
(valor, repartição, especificidade). 
 Teste de especifidade da célula em relação à amostra total. 
 
Retomar uma análise 
 A lista dos tratamentos efetuados é guardada na memória, todo tratamento efetuado 
durante uma sessão de trabalho pode ser retomado sem ser redefinido. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.172 
 
 
5. Análise lexical (conteúdo, textos) 
Consulta e navegação lexical 
 Apresentação do corpo do texto, observação por observação. 
 Apresentação do léxico integral e navegação no interior deste corpo do texto. 
 Apresentação do léxico pela ordem de freqüência (por ocorrências ou respostas), por 
ordem alfabética, por ordem de aparição ou de acordo com o tamanho das palavras. 
 Redução do léxico de acordo com o tamanho das palavras ou pela eliminação das 
palavras-ferramentas (as quais são armazenadas em dicionários). 
 As palavras do léxico podem ser marcadas usando-se o mouse, o teclado, um dicionário 
ou conforme a freqüência. 
 Pesquisa disponível para uma palavra inteira, começo de palavra ou parte de palavra. 
 Opções de pesquisa das observações em relação à palavra ativa sozinha, à presença 
simultânea de todas as palavras marcadas, a duas palavras marcadas consecutivas, ou 
pesquisa sem palavra marcada. 
 Consulta seletiva do léxico ou das respostas, conforme as palavras marcadas. 
 Cálculo dos parâmetros: tamanho do corpo, riqueza do léxico, tamanho e banalidade da 
resposta. 
 Caracterização de uma palavra pelo seu ambiente (co-ocorrências, léxicos relativos). 
 Caracterização de uma palavra pela análise das observações que a contêm: repartição 
das observações conforme qualquer outra variável, e comparação com a repartição sobre 
o conjunto da amostra. Cálculo da especificidade. 
 Possibilidade de modificação dos dados em processo de consulta: modificação do texto 
da observação corrente, ou troca automática da palavra clicada em todo o texto. 
 
Utilização do léxico e dos dicionários 
 Supressão das palavras marcadas ou não-marcadas. 
 Definição de equivalência e reagrupamento dos termos equivalentes nos dicionários. 
 Criação, enriquecimento e modificação dos dicionários, a partir das palavras marcadas 
do léxico ou utilizando o teclado. 
 Possibilidade de truncar as palavras do dicionário. 
 
Saída Verbatim 
 Possibilidade de definir um estrato lexical correspondendo somente às respostas 
contendo as palavras marcadas do léxico. 
 Cópia da resposta corrente em um arquivo-texto. 
 Cópia impressa ou em um arquivo-texto de todas as palavras do léxico ou de todas as 
respostas. 
 Saída (salvar ou imprimir) das seleções correspondendo às respostas do estrato corrente 
contendo as palavras marcadas. 
 Opções de apresentação em linhas ou colunas. 
 
Criação de variáveis lexicais 
 Nova variável fechada sobre as palavras marcadas do léxico (codificação automática em 
função dos termos contidos na resposta): criação de uma variável dicotômica ou de uma 
variável com respostas fechadas múltipas, cujas categorias são as palavras marcadas no 
léxico. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.173 
 
 
 Tamanho da resposta: variável numérica contendo o número de palavras da resposta 
(possibilidade de restrição às palavras marcadas somente). Uma única variável para o 
conjunto de palavras marcadas. 
 Intensidade lexical: variável numérica contendo a relação entre o número de palavras 
marcadas e o número total de palavras de uma resposta. Uma única variável para o 
conjunto de palavras marcadas. 
 Possibilidade de criar uma variável por palavra marcada para as variáveis Tamanho da 
resposta, Intensidade lexical. 
 Banalidade da resposta: variável numérica indicando a freqüência média de aparição das 
palavras contidas na resposta (possibilidade de restrição às palavras marcadas somente). 
 Variável texto modificado: nova variável texto contendo somente as palavras 
selecionadas no léxico. 
 Possibilidade de criar uma nova variável texto, modificada, na qual as palavras marcadas 
consecutivas são associadas. 
 Fracionar as respostas para os separadores escolhidos. Essa função cria uma nova base, 
na qual as observações iniciais são fracionadas em função dos separadores que elas 
contêm. Essa função permite fazer variar o nível de análise (documento, parágrafo, ...). 
 
Segmentos repetidos 
 Pesquisa de todas as seqüências de palavras sucessivas presentes no corpo. 
 Parametragem da pesquisa: comprimento dos segmentos, freqüência, conteúdo. 
 Possibilidade de ignorar as palavras-ferramentas. 
 Criação de uma variável associando os segmentos. 
 
Processamento das palavras compostas e expressões 
 Criação e utilização de listas de expressões a partir das palavras do léxico ou de um 
dicionário, pesquisa das expressões da lista no corpo do texto. 
 
Produção de índice 
 Cálculo, para cada palavra, do léxico dos números de observações contendo essas 
palavras, possibilidade de fabricar índices. 
 
Ambiente de uma palavra 
 Concordância: apresentação do trecho do texto (frase, grupo, ...) contendo a palavra 
selecionada. Apresentação da lista de fragmentos em questão. 
 Opções de apresentação da lista das concordâncias: centrada ou não sobre a palavra 
selecionada, com ou sem as palavras suprimidas eventualmente do léxico. 
 Léxicos relativos: apresentação pela ordem das ocorrências decrescentes dos léxicos, à 
esquerda e à direita da palavra da qual estamos procurando o ambiente (palavra pivô). 
 Definição dos léxicos: 4 léxicos (pivô-2, pivô-1, pivô+1, pivô+2), 2 léxicos (pivô-2 a -1, 
pivô 1 a 2), 1 léxico (pivô -2 a 2). 
 Cálculos: número de ocorrências em um lugar (a), número total de ocorrências (b), 
percentual (a/b). 
 Possibilidade de parametrizar os separadores para a pesquisa das concordâncias e léxicos 
relativos (separador de frase, grupo ou outro separador). 
 Saída das listas e léxicos relativos à impressora, em um fichário ou no bloco de notas. 
Opções de apresentaçãoem linha ou em coluna. 
 Definição e seleção das frases mais características. 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.174 
 
 
Lematização 
 O Sphinx utiliza um instrumento de análise sintática e um dicionário de francês de 
61.400 entradas, 521.400 formas lexicais e 25.600 locuções, produzido pela Langage 
Naturel SA. (sistema externo ao Sphinx, disponível somente em francês e em inglês, não 
disponibilizado em português). 
 Criação de uma nova variável texto a partir do corpo do texto lematizado. 
 Criação de um corpo lematizado, no qual cada palavra aparece sob a sua forma canônica 
(masculino singular para os substantivos e os adjetivos, infinitivo para os verbos), 
provida de uma marca definindo sua classe gramatical. 
 
Tabela lexical 
 Cruzamento das palavras selecionadas no corpo do texto com uma ou várias variáveis 
fechadas. Cálculo do número de vezes em que as palavras em linha estão presentes numa 
resposta correspondendo às categorias em coluna. 
 Cálculo dos percentuais em linha, coluna, testes do qui-quadrado, testes de 
especificidade. 
 Possibilidade de imprimir ou copiar a tabela. 
 
6. Aprofundar a estatística
Análise de médias 
 Cruzamento de uma questão fechada com uma ou mais variáveis numéricas ou escalares 
(até 50 modalidades possíveis). 
 Para cada categoria correspondendo às categorias da questão fechada, cálculo da soma, 
da média e do desvio-padrão das variáveis numéricas. 
 Para cada variável numérica, teste de comparação entre a média de cada categoria ou 
modalidade e a média para todos os indivíduos. Teste t. 
 Para cada variável numérica, análise da variância aplicada à divisão em categorias. 
 Advertência na tela das células para as quais o Teste t ou Fischer são significativos. 
 Definição dos níveis de significância. 
 Apresentação da tabela de médias, desvios-padrão, freqüências. 
 Supressão de colunas ou linhas, reagrupamento de modalidades ou categorias. 
 Permutação da tabela conforme a ordem crescente ou decrescente da coluna. 
 Gráfico de dispersão, gráfico perfil, etc. 
 Análise dos componentes principais (ACP) dos dados da tabela. 
 Matriz ou diagrama dos coeficientes de correlação. 
 Mapa dos planos fatoriais (combinação dos 5 primeiros componentes). Apresentação 
seletiva das categorias, dos critérios e do círculo de correlação. 
 
Classificação automática 
 Classificação em relação a variáveis quantitativas e qualitativas ou quantitativas e 
booleanas. 
 Método de centros móveis (nuvens dinâmicas; K-means). 
 Escolha do número de classes com uma divisão inicial aleatória. 
 Ajustamento de uma classificação inicial criada por uma variável escolhida. 
 Criação de uma nova variável identificando cada indivíduo pertencente a uma das 
classes. 
 Cálculo dos indicadores caracterizando a classificação obtida (homogeneidade, poder 
discriminante). 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.175 
 
 
Análise fatorial das correspondências múltiplas (AFC) 
 Análise multi-variada de questões fechadas. 
 Tabela de freqüências, extração dos 5 primeiros eixos, tabela de contribuições, 
percentual de variância explicada. 
 Mapas fatoriais, escores fatoriais e tipologia. 
 
Análise dos componentes principais (ACP) 
 Análise multi-variada de variáveis numéricas e escalares. 
 Matriz ou gráfico dos coeficientes de correlação, extração dos 5 primeiros componentes, 
tabela das contribuições, percentual de variância explicada. 
 Mapas fatoriais, escores fatoriais e tipologia interativa. 
 
Mapas fatoriais 
 Escolha do plano de projeção pela permutação dos eixos horizontais ou verticais. 
 Ajuste do limite de projeção dos pontos em função do seu ângulo com o plano, e 
indicação do número de pontos não-projetados. 
 Exibição dos indivíduos ou das categorias/critérios (opções dos nº do indivíduo, tamanho 
dos pontos, detalhamento das respostas relativas a uma observação, cores, etc.) 
 Apresentação dos indivíduos ou categorias proporcionalmente às freqüências. 
 Grade de contagem dos indivíduos por zona. 
 Copiar/Colar num editor de textos (imagem vetorizada) o mapa corrente e as matrizes de 
correlação, tabela de BURT e contribuições. 
 
Tipologia 
 Definição interativa das classes de indivíduos em função da sua posição no mapa atual. 
 Agregação dos indivíduos por proximidade aos pontos móveis. 
 Adicionar/suprimir novos centros de classes. 
 Estabelecimento de cores dos indivíduos-pontos em função da sua proximidade e sua 
vinculação à uma classe. 
 
Criação de variáveis 
 Escores fatoriais (variável contendo a coordenada do ponto para o eixo ou o componente 
escolhido) e variável tipológica (variável fechada indicando a vinculação de cada ponto a 
um dos grupos definidos no mapa atual). 
 
Correlação e regressão múltipla 
 Até 20 variáveis explicativas, matriz e diagrama de correlação. 
 Perfil gráfico dos coeficientes de correlação das variáveis explicativas com a variável 
explicada, opções de classificação, gráfico simultâneo do valor médio das variáveis 
explicativas e do coeficiente de correlação com a variável explicada. 
 Regressão múltipla passo a passo. Acréscimo ou supressão de variáveis explicativas. 
 Criação de uma nova variável igual ao valor calculado da variável a explicar. 
 Criação de uma nova variável igual ao resíduo. 
 
Combinar variáveis 
 Variável contador: variável numérica, soma respostas (categorias ou intervalos) 
indicadas, ponderadas por um coeficiente; Escolha das questões e categorias (operadores 
=, _, <, >), entrada do valor para cálculo. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.176 
 
 
 Variável perfil: variável fechada cujas categorias correspondem a combinações lógicas 
multi-variáveis; Definição das combinações qualificando cada modalidade do perfil 
(operadores =, _, >, >, e, ou, exceto). 
 Variável fusão: variável fechada tendo por categorias as categorias de duas variáveis 
(fusão simples) ou todas para os casos obtidos pelo cruzamento destas variáveis (fusão 
cruzada); Escolha das variáveis a fusionar (reunir) e da opção (fusão simples ou fusão 
cruzada). 
 Variável Multi_Sim/Não criação de uma variável fechada múltipla a partir de n 
variáveis de respostas tipo sim/não. 
 Variável Verbose: variável aberta tipo texto reunindo as respostas com várias questões 
de diferentes tipos. 
 Identificador: variável de tipo código, identificando uma observação pelo seu número ou 
suas iniciais (ou cifras) das respostas a diferentes variáveis. 
 Estrato: variável fechada cujas modalidades são escolhidas dentre os estratos definidos. 
 Duração: variável numérica, diferença em dias (ou horas) de duas datas (tempo). 
 
Calcular uma nova variável 
 Definição de uma nova variável definida como função algébrica ou lógica de várias 
outras (Constantes, operadores aritméticos, funções potência, log., exp., cos., etc.) 
 Digitação direta da expressão (ou indicador) como uma fórmula matemática. 
 Definição calculadora da expressão pela seleção das variáveis e ação sobre os botões 
 Possibilidade de substituir as não-respostas pela média das variáveis. 
 
7. Relatório - elaboração 
 Todos os testes estatísticos são interpretados e são objeto de uma mensagem formal. 
 Possibilidade de modificar os títulos e os comentários provenientes do Sphinx. 
 Impressão de todas as análises (tabelas, gráficos, comentários). 
 Alta precisão na impressão a laser ou a jato de tinta (modo vetorial). 
 Opções de paginação (orientação das folhas, paginação das tabelas e gráficos, modo 
especial para retroprojeção). Opção Copiar/Colar (títulos, comentários, tabelas ou gráficos, textos). 
 Criação de documentos no Word contendo textos, imagens ou tabelas. possibilidade de 
ativar os estilos e níveis de plano do Word. 
 Comunicação direta com o editor de textos: a opção Incluir no relatório (menu Arquivo) 
permite inserir diretamente em um documento a análise atual. 
 Exportação num arquivo texto dos valores de uma tabela (para criar gráficos em um 
sistema especializado, como o Excel® ou o PowerPoint®). 
 Possibilidade de ativar as ações de gestão de arquivos, edição de listas de mala direta, 
consulta de fichas graças às funções Definir um estrato, Exportar e Consultar. 
 
8. Funções de ajuda (help) e ferramentas em linha (on line) 
 Help on line: acesso pelo contexto ou pelo índice. Envios ao interior da ajuda. 
 Ajuda personalizada, criada e modificável pelo usuário. 
 Acesso direto à calculadora, ao bloco de notas e ao gerenciador de arquivos. 
 Definição do tipo de caractere, cores e opções de apresentação. 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.177 
 
 
 
 
Sphinx: fácil, pedagógico e inovador 
 
Receba maiores informações sobre os sistemas e serviços Sphinx®. 
Basta retornar este formulário preenchido. 
 
Retornar para Sphinx Consultoria Ltda. 
Rua Peru 211 – Canoas RS – cep 92420-300 
Fone/fax 0xx51 3477 3610 
e-mail: sphinx@portoweb.com.br 
Nome: 
Empresa: 
Endereço: 
Cidade/UF: 
Fone/fax: 
E-mail: 
Sim, eu tenho interesse em receber maiores informações sobre: 
Os sistemas 
[ ] Sphinx Léxica 
[ ] Sphinx Plus2 
[ ] Sphinx Primo 
[ ] Eurêka! 
Os módulos* 
[ ] Sphinx Scanner 
[ ] Sphinx Data Entry 
[ ] Sphinx Multimídia 
[ ] Sphinx ODBC 
[ ] Sphinx Print 
[ ] Sphinx Basic 
[ ] Sphinx Ergo-3d 
[ ] Sphinx Multilíngua 
*
so
m
en
te p
a
ra
 q
u
em
 já
 p
o
ssu
i u
m
 d
o
s 
sistem
a
s S
p
h
in
x 
 
 
Os serviços Sphinx® 
[ ] Treinamento in company 
[ ] Treinamento por turma 
[ ] Suporte 
 
 
Acesse nosso site: http://www.sphinxbr.com.br 
 
Distribuidor EXCLUSIVO do Sphinx 
Único certificado e autorizado SPHINX na América Latina 
 
 
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.178

Mais conteúdos dessa disciplina