Baixe o app para aproveitar ainda mais
Prévia do material em texto
Freitas & Janissek – Análise léxica e Análise de conteúdo – p.1 Freitas & Janissek – Análise léxica e Análise de conteúdo – p.2 ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO: Técnicas complementares, sequenciais e recorrentes para exploração de dados qualitativos Freitas & Janissek – Análise léxica e Análise de conteúdo – p.3 Sphinx ® – sistemas para pesquisas e análises de dados Sphinx Consultoria - Distribuidor EXCLUSIVO do Sphinx Único certificado e autorizado SPHINX na América Latina tel/fax: 0xx51-4773610 e-mail: sphinx@portoweb.com.br http://www.sphinxbr.com.br Freitas & Janissek – Análise léxica e Análise de conteúdo – p.4 ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO: Técnicas complementares, sequenciais e recorrentes para exploração de dados qualitativos Henrique Freitas & Raquel Janissek 2000 Distribuição: Sphinx ® Freitas & Janissek – Análise léxica e Análise de conteúdo – p.5 Supervisão gráfica: terceirizada Capa: Fernando K. Andriotti, Maurício G. Testa e André Panisson Edição: Fernando K. Andriotti Impressão: Gráfica La Salle. Dados internacionais de Catalogação na Publicação (CIP) (Câmara Brasileira do Livro, SP, Brasil) FREITAS, Henrique Mello Rodrigues de. Análise léxica e análise de conteúdo: técnicas complementares, sequenciais e recorrentes para exploração de dados qualitativos / Henrique Mello Rodrigues de Freitas e Raquel Janissek. Porto Alegre: Sphinx: Editora Sagra Luzzatto, 2000. 176 p.: il. Bibliografia: 85-241-0637-9 1. Metodologia da Pesquisa. 2. Técnicas de pesquisa. 3. Análise de Dados: pesquisa. I. Janissek, Raquel . II. Título Índice para catálogo sistemático: 1. Pesquisa e métodos – 001.4 2. Ciências sociais – 306.3 3. Análise de dados – 001.642 © Henrique Freitas & Raquel Janissek Todos os direitos estão reservados à Sphinx ® Impresso em Junho 2000. Também disponível via Internet (http://www.sphinxbr.com.br e http://www.adm.ufrgs.br/professores/hfreitas). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.6 Agradecimentos Esta iniciativa teve origem na discussão entre professores da Escola de Administração sobre o que deveria ou não ser feito como análise de dados em um determinado estudo. O resultado, demonstrado neste documento, expressa nossa convicção na resposta que deveria ser aportada. A eles, pela provocação, nosso agradecimento especial! Esta realização só foi possível com o apoio da Sphinx Consultoria-Canoas RS, bem como da Escola de Administração da UFRGS e do Gesid-PPGA/EA/UFRGS. Em especial, nossa equipe de suporte (Fernando Kuhn Andriotti e outros bolsistas). Ao doutorando Jorge Audy (PPGA/EA/UFRGS), agradecemos a leitura e crítica da versão preliminar, bem como o prefácio do ponto de vista de quem necessita recorrer a este tipo de conhecimento aqui elaborado. Agradecemos em especial aos parceiros franceses de concepção e desenvolvimento de sistemas para análises de dados quanti-qualitativos, professores Jean Moscarola (Annecy) e Yves Baulac (Grenoble), pelas discussões intelectuais e pela motivação, sobretudo pela parceria promissora e sua amizade. Nossas famílias certamente são nossas fontes de energia, e merecem nosso agradecimento especial. Henrique Freitas & Raquel Janissek Freitas & Janissek – Análise léxica e Análise de conteúdo – p.7 Sumário Apresentação .............................................................................................................. 8 Prefácio dos Autores ................................................................................................... 9 Dados dos Autores .................................................................................................... 11 Prefácio ..................................................................................................................... 12 1. Explorando dados textuais para identificar oportunidades e antecipar problemas 13 2. Dados qualitativos: problemas e questões inerentes à sua coleta e análise .......... 16 3. Análise quali ou quantitativa de dados textuais? .................................................. 22 3.1. A Análise Léxica .......................................................................................... 32 3.2. A Análise de Conteúdo ................................................................................. 38 4. Aplicações de análise qualitativa em gestão e em sistemas de informação .......... 64 5. Ferramentas para Análises Léxica e de Conteúdo ................................................ 70 6. Aplicação de análise de dados qualitativos: pesquisa sobre internet e negócios . 78 6.1. As questões abertas da pesquisa.................................................................... 80 6.2. Como analisar os dados qualitativos? ........................................................... 84 6.3. Análise léxica dos dados abertos da pesquisa: palavras e expressões .......... 88 6.4. Análise de Conteúdo das questões abertas .................................................. 109 6.5. Aprofundando a análise de dados através da Análise de Correspondência . 134 7. Considerações Finais .......................................................................................... 140 8. Referências bibliográficas .................................................................................. 144 Índice Remissivo .................................................................................................... 149 Índice de Autores .................................................................................................... 155 Apêndice - Sistema Sphinx® para pesquisas e análises de dados ........................... 157 Freitas & Janissek – Análise léxica e Análise de conteúdo – p.8 Apresentação O diferencial proporcionado pelos métodos, bem como a isenção conferida pelo pesquisador que respeita estes métodos, retratam as diferenças das competências e das intenções em uma pesquisa. Todo profissional deve desenvolver habilidades e dominar sistemas, técnicas e métodos inerentes à necessidade por construção de conhecimento a partir de dados disponíveis de uma ou outra forma dentro do seu contexto de atuação. Mostra-se que é viável, com o auxílio de instrumental adequado, explorar dados quanti-qualitativos e produzir informações consistentes que possam trazer respostas ágeis a muitos questionamentos que surgem no dia-a-dia de uma organização e mesmo no trabalho do profissional de pesquisa. Com o uso de dados qualitativos, seja de que natureza for, pode-se ter a chance de identificar oportunidades ou antecipar problemas de forma bem mais pontual, precisa e com um custo operacional bem menor. Existem várias técnicas de coleta e de análise de dados que permitem capturar automática e quase gratuitamente dados qualitativos. Além disso, esse tipo de dado pode ser explorado mais de uma vez, constituindo-se numa fonte diferenciada para a geração denovos, diferentes e curiosos dados, os quais podem ser produzidos diretamente pelo pesquisador. Este livro demonstra algumas técnicas para realizar análise de dados textuais, em especial as análises léxica e de conteúdo, buscando repassar ao leitor condições para uma investigação prática e eficaz. Estas técnicas são apresentadas enfatizando o seu uso em conjunto. O pesquisador ou analista tem, nelas, diferentes recursos que permitem a exploração adequada dos dados, através de procedimentos sistematizados. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.9 Prefácio dos Autores Este livro propõe uma abordagem para a condução de análises de dados qualitativos. Nosso propósito é descrever caminhos para o uso conjunto de diferentes técnicas de análises de dados. Em particular, são apresentadas as idéias de complementaridade, recorrência e sequencialidade do uso das análises léxica e de conteúdo, abordando diferentes aspectos metodológicos para a exploração mais criteriosa da análise de dados qualitativos. Esta iniciativa nasceu de nossa compreensão de que diversos pesquisadores pensam, de forma equivocada, que a escolha deve recair sobre uma ou outra técnica. Ora, a riqueza de análise só pode ser atingida com a variação e a aplicação conjunta de diferentes técnicas! Mostra-se em detalhe a utilização de métodos e técnicas para o desenvolvimento de análises de dados qualitativos, bem como são desenvolvidos exemplos - passo a passo - de como realizar tais análises. Para tal, utiliza-se uma pesquisa essencialmente qualitativa (com entrevistas em profundidade) para demonstrar a forma de implementar as idéias aqui propostas. Ao mesmo tempo, uma revisão da literatura pertinente, nacional e internacional, é apresentada, assim como são evocados exemplos de aplicações deste tipo de análise na área de gestão e sistemas de informação. Além disso, algumas ferramentas que podem ser utilizadas para este tipo de análise são ilustradas, em especial o sistema Sphinx Léxica ®. Nosso intuito é, sobretudo, fornecer aos gerentes, pesquisadores, professores e alunos de diversos níveis de formação, recursos que permitam a exploração adequada de dados qualitativos, Freitas & Janissek – Análise léxica e Análise de conteúdo – p.10 através de procedimentos sistematizados que assegurem a qualidade e mesmo originalidade das descobertas. Enfim, quando as pessoas e as organizações começam a prestar atenção nos telefonemas que recebem, nas sugestões e reclamações da clientela ou de fornecedores, e quando a academia começa a valorizar bem mais as questões subjetivas em harmonia com aquelas em demasia objetivas, temos firme convicção da potencial contribuição deste trabalho. A todos, bom proveito! Henrique Freitas & Raquel Janissek Freitas & Janissek – Análise léxica e Análise de conteúdo – p.11 Dados dos Autores Henrique Freitas é Professor Adjunto da Escola de Administração da UFRGS (desde 1994), onde integra a equipe do Gesid- PPGA/EA/UFRGS (Grupo de Estudos em Sistemas de Informação e apoio à Decisão do Programa de Pós-Graduação em Administração). É, desde 1993, Pesquisador 2A CNPq, onde já coordenou e realizou diversos projetos. Cursou Economia na UFRGS (1982), Especialização em Análise de sistemas na PUCRS (1983), Mestrado em Administração na UFRGS (1989), Doutorado em gestão na Université de Grenoble 2 – França (1993) e Pós- doutoramento em sistemas de informação na University of Baltimore (MD, EUA, 1997-98). Já orientou 4 teses de doutorado e 17 dissertações de mestrado e orienta, atualmente, 2 doutorandos e 12 mestrandos. Publicou 3 livros e dezenas de artigos nacionais e internacionais, é coordenador nacional da área de Administração da informação da ANPAD e integra o comitê editorial do Journal of AIS. Desde 1989, em parceria com Jean Moscarola e Yves Baulac, coopera na melhoria dos Sistemas Sphinx. e-mail: hfreitas@portoweb.com.br http://www.adm.ufrgs.br/professores/hfreitas Raquel Janissek é Analista de Sistemas. Cursou Informática na UNIJUI (1995) e Mestrado em Administração: Sistemas de Informação – Gesid-PPGA/EA/UFRGS (2000). A partir de setembro de 2000, dando continuidade ao trabalho de cooperação do Prof. Henrique Freitas com a equipe do Prof. Humbert Lesca, inicia seu Doutorado em Sistemas de Informação na Université Pierre Mendes France - Grenoble 2 (França). De 1996 a 1999, foi professora de Análise de Sistemas e Informática na Universidade Regional Integrada (URI), onde coordenou o Estágio Supervisionado do Curso Técnico em Informática e orientou trabalhos de conclusão de cursos. A partir de 2000, integra a equipe de suporte eletrônico dos usuários Sphinx, bem como coopera no desenvolvimento dos produtos e sistemas. e-mail: raquelj@portoweb.com.br http://www.missoes.com.br/raquel Freitas & Janissek – Análise léxica e Análise de conteúdo – p.12 Prefácio O uso de métodos qualitativos em pesquisa na área de SI tem crescido nos últimos anos. Esta abordagem aprofunda-se no mundo dos significados das ações e relações humanas, um dado pouco perceptível ou captável pelos métodos quantitativos. O grande desafio para os pesquisadores da área está pois relacionado com a análise de dados em uma pesquisa cada vez com base mais qualitativa. Este livro, oferecido pelos professores Henrique e Raquel, é uma significativa contribuição na busca de uma resposta para este desafio, avaliando algumas das principais abordagens de análise de dados e propondo uma sistematização clara e operacional para a exploração de dados qualitativos, em especial na área de SI. Contudo, pela escassez de literatura em língua portuguesa, e mesmo pela qualidade e clareza do material produzido, este é um documento certamente útil para todos pesquisadores das diferentes áreas de Administração, e mesmo das Ciências Sociais. Particularmente, como pesquisador envolvido na realização de uma tese de doutorado, na qual devia explorar dados coletados em diversas entrevistas em profundidade, a literatura e os exemplos aqui resgatados e relatados em detalhe me foram de grande valia. Jorge Audy Doutorando Gesid/PPGA/EA/UFRGS Professor Informática/PUCRS Freitas & Janissek – Análise léxica e Análise de conteúdo – p.13 1. Explorando dados textuais para identificar oportunidades e antecipar problemas A realização de pesquisas acadêmicas ou profissionais tem cada vez mais desafiado os analistas e pesquisadores visto que a objetividade dos dados coletados em uma pesquisa não é mais condição suficiente para a compreensão de um fenômeno (como por exemplo a opinião de um certo público, satisfação do cliente, resistência dos usuários finais de uma tecnologia recentemente adotada). De fato, a subjetividade é que vai permitir explicar ou compreender as verdadeiras razões do comportamento ou preferência de um certo grupo por algum produto, sistema, serviço, etc. A questão inerente é a de como o pesquisador, o analista, ou mesmo o gerente ou executivo poderia realizar tal tipo de análise ou exploração de dados. Ora, qual seria o gerente que não gostaria de – rapidamente – percorrer todos os dados captados através de uma linha 0800, como a do serviço de suporte, a de help desk ou outro, e se dar conta das principais reclamações ou sugestões atuais dos seus clientes? Não seriaeste tipo de dado, que fica esquecido, engavetado ou nem mesmo pensado como um recurso, uma fonte nobre de dados gerados sem nenhum custo adicional para a organização? Da mesma forma, como poderia este mesmo gerente ousar pensar nisso se ele nem imagina que existam métodos e técnicas para tal? Ele pode muito bem imaginar uma pesquisa onde os clientes dizem se estão ou não satisfeitos com os serviços prestados numa escala de totalmente satisfeitos a totalmente insatisfeitos, mas não se dá conta talvez que poderia saber disso sem mesmo ter que indagar aos clientes. De fato, a técnica quantitativa e supostamente bem dominada aporta um tipo de resposta que é em diversos casos Freitas & Janissek – Análise léxica e Análise de conteúdo – p.14 superficial no sentido que não permite uma qualificação ou um refinamento da opinião. No final, isto pode mesmo ser mais oneroso, pois quando os procedimentos de pesquisa são estabelecidos de maneira formal, há um viés natural na resposta oferecida pelas pessoas ou clientes, e o que se tem de volta são quantidades. Ao passo que, usando dados qualitativos, opiniões mais abertas, espontâneas ou mesmo – e porque não principalmente – aquelas coletadas de forma indireta (como a do setor de pós-venda ou de atendimento ao cliente), pode-se ter a chance de identificar oportunidades ou antecipar problemas de forma bem mais pontual, precisa e com um custo operacional bem menor, ainda por cima a partir da exploração de um dado completamente espontâneo, não induzido de forma alguma. Não são só as técnicas de coleta e de análise quantitativa de dados que foram aperfeiçoadas com o tempo. Hoje em dia, são factíveis e diversas as formas e tecnologias de se capturar automática e praticamente gratuitamente dados qualitativos (subjetivos, textos enfim) que nos denotem as preferências e comportamentos de um certo grupo de pessoas. Os procedimentos, métodos e ferramentas que possibilitam isso são cada vez mais presentes na literatura e no mercado. Há todo um leque de possibilidades que pode ser utilizado (WEITZMAN e MILES, 1995; FREITAS, MOSCAROLA e CUNHA, 1997 e MOSCAROLA, 1990). O que existe, contudo, é uma confusão conceitual ou mesmo prática sobre em que consistem e mesmo de como essas técnicas e ferramentas poderiam ser utilizadas. Em que implica cada uma delas? Como se poderia aplicar e explorar em benefício próprio cada uma delas? Enfim, há mesmo uma ignorância sobre a existência da análise léxica e da análise de conteúdo1, sobre as distintas finalidades de uma e outra. Há ainda uma idéia equivocada de que se deve escolher uma 1 WEBER (1990, p.9) define Análise de Conteúdo como um método de pesquisa que utiliza um conjunto de procedimentos para tornar válidas inferências a partir de um texto. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.15 OU outra para uma dada análise ou exploração de dados, quando na verdade os autores procuram neste livro demonstrar que pesquisadores acadêmicos ou analistas em geral DEVEM ter uma clara visão das vantagens em explorar estes recursos de análise de forma sequencial, recorrente e sobretudo complementar. Na sequência, faz-se uma discussão sobre o valor e importância da coleta e análise de dados qualitativos (seção 2). Logo após, na seção 3, apresentam-se definições conceituais de análise léxica e de análise de conteúdo. A seção 4 evoca exemplos da literatura e de pesquisas realizadas recorrendo a estas técnicas, e a seção 5 levanta e indica ferramentas disponíveis para tal. Em função do foco deste livro, a seção 6 detalha uma pesquisa essencialmente qualitativa, explorando as duas técnicas em questão na análise de dados coletados em entrevistas estruturadas (com guia de entrevista), buscando-se ser didático e ilustrar passo a passo a sua aplicação. Finalmente, na seção 7, faz-se uma reflexão final sobre o uso potencial destas análises no dia-a-dia das organizações, bem como no contexto de pesquisa acadêmica. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.16 2. Dados qualitativos: problemas e questões inerentes à sua coleta e análise Não obstante as colocações recém realizadas, tentando olhar de forma mais precisa um processo de pesquisa qualquer, vai-se notar que dificilmente ele deixa de recorrer a mais de uma técnica de coleta de dados, bem como mais de uma fonte, fazendo inclusive recurso a diferentes técnicas de análise de dados. É pois tempo de método múltiplo de pesquisa, onde o pesquisador ou o analista comercial, financeiro, etc, tem cada vez mais e mais clara a necessidade de estar em contato com diferentes visões das situações reais. E isto utilizando-se de fontes de dados e de técnicas diversas, levando em consideração o rigor das pesquisas. Isto só reforça o valor, utilidade e oportunidade de se abordar de forma mais organizada e mesmo didática as técnicas e ferramentas no que se refere a dados qualitativos. Cada vez mais forte é a tendência de que uma pesquisa quantitativa, mais objetiva, deve ser precedida de uma atividade mais subjetiva, qualitativa, que permita melhor definir o escopo e a forma de focar o estudo. Também tem sido consenso que, mesmo sendo objetiva em sua essência, sempre se pode recorrer a algum tipo de opinião mais espontânea ou aberta, de forma a captar ‘um algo mais’ da parte do respondente. Tudo isto valoriza a questão de como se tratar questões ditas qualitativas. Tais debates foram objetos de recente congresso internacional (LEE, LIEBENAU e DEGROSS, 1997). A estratégia de uso de questões abertas ou fechadas num instrumento é debatida por LEBART e SALEM (1994, p.25-28). Além disso, nas pesquisas, de forma geral, uma etapa pouco valorizada ou um tanto negligenciada é a de preparação de dados: há todo um esforço para que os dados sejam coletados, de forma que não Freitas & Janissek – Análise léxica e Análise de conteúdo – p.17 se dispõe de muito tempo quando os dados poderiam e deveriam ser analisados a fundo, em termos de significado e implicações. Ocorre que, antes de analisar os dados e cruzá-los das mais diferentes formas na busca por relações causais ou possíveis explicações para hipóteses previamente formuladas, é necessário que sejam preparados certos tipos de dados. Exemplos disso podem ser dados objetivos e numéricos como a idade e o salário, na busca por faixas etárias e salariais adequadas para os cruzamentos posteriores a serem realizados (pode-se gerar novos dados escalares a partir dos numéricos). Da mesma forma, é necessário um investimento (mais de tempo de análise do que outro recurso) para que sejam criadas categorias pertinentes e claras a partir de dados tipo texto, ou seja, efetivamente qualitativos. Um exemplo pode ser a criação de um dado novo a partir de uma questão texto que poderia ser “quais as sugestões que você apresentaria para a melhoria dos nossos serviços?” ou então mesmo “quais as principais reclamações que você poderia apresentar?”. Normalmente, pesquisadores e analistas desavisados ou talvez despreparados ou inadvertidos sobrecarregam suas pesquisas com questões abertas, criando uma expectativa em quem responde, a qual se torna ‘falsa expectativa’, visto que tais respostas nunca serão tabuladas e avaliadas como se deveria. Logo, o aprendizado que tal conteúdo permitiria não será jamais produzido. Cuidado especial é necessário no sentidode não se abusar de questões abertas num instrumento de pesquisa, pois seu excesso exige que o respondente se concentre bem mais que o normal: ele poderá pois ficar gradativamente desatento nas suas respostas e mesmo se desinteressar pelas questões posteriores. Cria-se pois uma falsa de idéia de que um dado espontâneo como esse dos exemplos recém evocados deve ser analisado uma só vez, quando ele poderia ser uma fonte bastante grande e diferenciada Freitas & Janissek – Análise léxica e Análise de conteúdo – p.18 para a geração de novos, diferentes e curiosos dados. Esta geração de novos dados a partir de um dado texto pode emergir do próprio texto de cada respondente, como uma lista mais objetiva de sugestões ou de reclamações (no caso dos dois exemplos citados). Mas tal fonte de dados também pode ser objeto de um julgamento a partir de critérios a priori adotados pelo gerente, analista ou pesquisador, como por exemplo gerar um indicador de satisfação a partir da simples leitura das sugestões ou das reclamações emitidas pelo respondente. Ou seja, ao invés de perguntar se o cliente está muito ou pouco satisfeito, o avaliador poderia ler cada uma das respostas emitidas e registradas e iria ele próprio julgar se o respondente está ou não satisfeito. Isto é claro de forma subjetiva, contudo, muitas vezes este dado poderá ser melhor considerado para fins de análise. Ou seja, a um dado aberto e espontâneo, devem corresponder n dados objetivos, gerados seja pela análise e identificação gradativa de um protocolo (como a lista de sugestões que se faz emergir do texto), seja pela avaliação da opinião de cada pessoa em relação a um protocolo ou mesmo escala de medida preparada pelo analista (como por exemplo ‘satisfeito’ ou ‘insatisfeito’). Além disso, um ponto importante diz respeito à definição de quem deveria realizar as análises (e quem finalmente as realiza!): normalmente, solicita-se a um terceiro (aluno, auxiliar, etc) para realizar esta única codificação, quando ela poderia ser rica em aprendizado caso feita pessoalmente pelo analista ou pesquisador. Esta atividade exige a leitura de cada uma das respostas, gerando, neste processo, novas idéias de análise e uma riqueza de compreensão e percepção sem iguais para o analista responsável. Este seria um motivo forte para que se repense cada decisão ou solicitação de codificação a terceiros: a pessoa está implicada no processo? Conhece o métier ou contexto pesquisado? Tem engajamento ou responsabilidade em relação ao objeto pesquisado? Sobretudo, tem Freitas & Janissek – Análise léxica e Análise de conteúdo – p.19 como associar a sua tarefa isolada de codificação a todo resto do processo e atividades desse projeto? Terá a iniciativa de sugerir novas dimensões de análise identificadas no decorrer da própria atividade de codificação? Talvez seja melhor arrumar uma resposta adequada a estas questões ou então de fato decidir que o pesquisador se responsabilizará pela realização da tarefa ou pela supervisão estreita desse processo. Normalmente, uma codificação derivada de uma análise vai gerar um novo dado de múltipla escolha (das diversas categorias criadas, algumas serão marcadas para cada resposta emitida por cada respondente). Este novo dado retratará de forma bem mais objetiva o conteúdo de cada opinião ou resposta. A construção das opções ou categorias desse novo dado gerado deve ser realizada segundo certas regras, de forma a se poder ter confiança na sua coerência, consistência, força enfim. Entretanto, muito da prática empresarial que se tem podido observar (em contato com institutos de pesquisa por ocasião de assessorias de tecnologia ou método) mostra que pessoas não tão bem preparadas realizam tal função. Ocorre que tal novo dado vai ser certamente a base para decisões estratégicas ou operacionais importantes para a organização envolvida. Logo, é de extrema importância a adequada e mesmo rigorosa formulação destas categorias. De fato, cada categoria pode implicar em n ações empresariais, que exigirão alocação de recursos, etc., ou seja, as implicações das corretas definições de categorias podem ser enormes para a organização. Caso as categorias não sejam pertinentes, todas análises, decisões e ações estarão igualmente comprometidas. Não é esta uma atividade para ser realizada com adivinhações ou amadorismos de qualquer sorte. Conceitos, técnicas, métodos e ferramentas são em muito necessários. É então fundamental que se desenvolva um conjunto de diretrizes ou procedimentos que possam ser seguidos: tal é o objetivo deste livro, com o exemplo desenvolvido Freitas & Janissek – Análise léxica e Análise de conteúdo – p.20 na seção 6 e com os conceitos e ferramentas abordados na seção 3 e 5, respectivamente. A preparação e análise de dados provenientes de pesquisas ou captura de dados, sejam eles qualitativos ou quantitativos, passa então pela identificação e categorização adequada dos seus conteúdos, na busca pela produção de conhecimentos e identificação de relações que nos permitam avançar na compreensão dos fenômenos investigados. Esta busca por informações consistentes, relevantes e fidedignas requer tempo e dedicação por parte do analista ou pesquisador, no intuito de gerar resultados que traduzam a realidade ou contexto estudado. Entretanto, não raro estas análises levantam dúvidas quanto à efetividade dos termos e resultados obtidos, especificamente pela não sistematização da sequência de análise dos dados ou por outros motivos, como a inadequação do próprio perfil ou preparação de quem analisa, como recém evocado. Ainda, há toda uma polêmica sobre a legitimidade de se ter somente uma pessoa responsável por uma dada codificação: seria válida tal categorização? Por quê? Seria necessário se ter mais de uma pessoa a codificar? Será que realmente esta segunda pessoa aportaria um ganho de qualidade na codificação realizada? Será que ela estaria engajada o suficiente no mesmo processo de forma a contribuir? Será ainda que este engajamento seria condição importante? Será que tal esforço e mesmo gasto de tempo seria necessário e mesmo compensador? Tendo-se uma segunda pessoa, seria então esperado que se pudesse confrontar as categorias criadas por cada um, consolidá-las num só conjunto (após discussão de cada discordância), e, além disso, comparar uma a uma cada uma das marcações (para cada resposta, cada dos 2 avaliadores ou analistas marcaria as categorias que julga que ali se manifestaram implícita ou explicitamente), dando-se conta do que fecha e do que não fecha em termos de classificação das categorias para cada uma das respostas de Freitas & Janissek – Análise léxica e Análise de conteúdo – p.21 cada respondente. É também nosso objetivo apresentar – na sequência - algumas posições sobre essas colocações. O uso de técnicas de análise de dados qualitativos é pois um tema de crescente interesse e importância no campo da gestão e da informação. Este documento contribui colocando a questão da complementaridade das técnicas de análise léxica e de análise de conteúdo, evocando exemplos da literatura e sobretudo apresentando didaticamente um exemplo no qual aplica estes conceitos e técnicas. Nossa proposta – reforce-se - é de que as duas técnicas sejam utilizadas de forma sequencial (uma após a outra), recorrente (pode- se ir e vir, deve-se mesmo ir e vir de uma a outra) e complementar (elas não são excludentes,ou seja, não se deve escolher uma ou outra, deve-se adquirir finalmente a visão, a consciência de que os recursos de ambas são excelentes ferramentas na mão do analista e que ele deve fazer bom uso e não isolar uma em detrimento de outra). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.22 3. Análise quali ou quantitativa de dados textuais? A busca por informações consistentes e válidas não deve se deter somente nos dados estruturados, puramente quantitativos, tal qual os imagina-se - na forma de clássicas planilhas, relatórios volumosos, números, percentuais e gráficos: cada vez mais precisa-se recorrer aos dados de natureza qualitativa, como textos, discursos, entrevistas, trechos de livros, reportagens, etc. Dados estes que envolvem elementos que muitas vezes desafiam a astúcia do pesquisador ou do homem de negócios, pois escondem em suas entrelinhas posicionamentos, opiniões, perfis, que exigem uma leitura atenta e ferramentas que possibilitem chegar com maior rapidez (condição de sobrevivência) às informações realmente pertinentes (POZZEBON e FREITAS, 1996; LESCA, FREITAS e CUNHA, 1996; LESCA, FREITAS, POZZEBON, PETRINI e BECKER, 1998). Deve-se poder ir do dado bruto ou puro ao dado elaborado, via interpretação, análise e síntese, e, a partir disso, por uma constatação ou curiosidade, poder rapidamente aprofundar a investigação, eventualmente voltando à fonte e ao dado bruto como recurso mesmo de sustentação de argumento ou simplesmente de ilustração. É importante explorar e sobretudo cruzar de todas as formas possíveis dados quantitativos e qualitativos (Figura 1 - FREITAS, 2000) para a geração de idéias, a verificação de hipóteses, a elaboração de conclusões ou indicação de planos de ação, etc. O uso de técnicas qualitativas x quantitativas, tanto para coleta quanto análise de dados, permitem, quando combinadas, estabelecer conclusões mais significativas a partir dos dados coletados, conclusões estas que balizariam condutas e formas de atuação em diferentes contextos. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.23 A abordagem literária, dita qualitativa, mais associada às técnicas de análise léxica e de conteúdo (abordadas nas seções 3.1 e 3.2), pressupõe a análise de poucas fontes ou dados, num procedimento exploratório ou de elaboração de hipóteses. A abordagem mais científica, dita quantitativa, pressupõe grande quantidade de dados num procedimento de confirmação de hipóteses. Há necessidade de se tratar do quantitativo, enriquecendo-o com informações qualitativas em grande número, de forma a ganhar força de argumento e qualidade nas conclusões e relatórios: o desafio é a busca da associação entre o quantitativo e o qualitativo, onde, por exemplo, o procedimento exploratório ganha força, visto que se poderá multiplicar os dados tratados, reforçando sobremaneira (e mesmo garantindo o ‘bom caminho’) o procedimento confirmatório. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.24 Figura 1 - O desafio de associar qualitativo e quantitativo (FREITAS, 2000) Freitas & Janissek – Análise léxica e Análise de conteúdo – p.25 Segundo KELLE (1995, p.15), "espera-se que as forças de ambas abordagens possam se reforçar mutuamente: a intersubjetividade e a fidedignidade ou confiabilidade providas pela informação padronizada derivada de amplas amostras, por um lado, e o conhecimento íntimo de um simples caso ou passagem de um texto adquirido pela análise interpretativa, por outro lado. A questão essencial nesse tipo de análise seria como transformar o significado da análise textual numa matriz de dados quantitativa, isto de maneira didática e sistemática". A utilidade da combinação destes métodos tem sido assunto discutido fortemente na comunidade acadêmica internacional (MASON, 1997; LEE, LIEBENAU e DEGROSS, 1997), apresentando-nos grande variedade de aspectos a serem levados em conta quando da formulação de questões com vistas à obtenção e análise de dados, sejam eles qualitativos x quantitativos, sejam eles diretos x indiretos, abertos ou fechados. É tempo de seguir em frente com mais estudos qualitativos (MILES e HUBERMAN, 1997), e educar nossos gerentes, começando pelas nossas crianças, que o mundo não é somente quantitativo, e sim qualitativo. Pelo menos, que bom estudo quantitativo não deveria ser precedido por um qualitativo? CRESWELL (1998), e também KIRK e MILLER (1986) oferecem- nos alguns conceitos e discussões a respeito de pesquisa qualitativa e principalmente sobre confiabilidade (ou fidedignidade) e validade desse tipo de estudo. Da mesma maneira, a revista MIS Quarterly (v.21, no.3, September 1997) publicou 3 papers baseados em pesquisa qualitativa deste mesmo assunto. MASON (1997, p.9-34) oferece-nos alguns insights sobre essa discussão: o que deveria ser uma pesquisa qualitativa? De que forma relacionar aspectos quali e quanti em uma pesquisa ? Estas pesquisas, seja na obtenção dos dados seja no tratamento destes, deveriam ser sistemática, rigorosa e estrategicamente conduzidas, ainda flexíveis e Freitas & Janissek – Análise léxica e Análise de conteúdo – p.26 contextuais, deveriam envolver críticas auto-construtivas pelo pesquisador, ou provocar reflexões. Também deveriam produzir explicações sociais para charadas ou quebra-cabeças intelectuais permitindo a generalização de alguma forma ou então, permitindo ampla aplicação. Não ser vistas como um corpo unificado de filosofia e prática, cujos métodos podem simplesmente ser combinados sem problemas, nem ser vistas como necessariamente opostas e não complementares. Ainda, deveriam ser conduzidas como uma prática ética levando em consideração o contexto político. De fato, sejam quais forem os fenômenos, entidades ou realidade objetos de investigação, o uso conjunto destes métodos qualitativos e quantitativos permitiriam um maior aprofundamento no conhecimento dos dados, evidenciando-se aspectos do que se deseja investigar e, da mesma forma, possibilitando focar o pensamento sobre o assunto, decidir e executar. O uso conjunto destes dois tipos de análise permite estabelecer conclusões: é importante, pois, diferenciar ambos enfoques, identificando as possibilidades de cada um. Existem ainda outras oposições qualitativo-quantitativo: impressionismo versus sistematização, hipóteses versus verificação, flexibilidade e liberdade versus rigidez (FREITAS, CUNHA e MOSCAROLA, 1997). Enquanto a análise qualitativa se baseia na presença ou ausência de uma dada característica, a análise quantitativa busca identificar a frequência dos temas, palavras, expressões ou símbolos considerados. A noção de importância deve ser clara em cada uma destas análises: o que aparece seguido é o que importa na análise quantitativa, enquanto a qualitativa valoriza a novidade, o interesse, os aspectos que permanecem na esfera do subjetivo. Tem-se assim um dilema de análise: adotar categorias específicas, retratando fielmente a realidade, mas com uma lista de temas cuja frequência será fraca, ou então reagrupar deliberadamente os dados num pequeno número de Freitas & Janissek – Análise léxica e Análise de conteúdo – p.27 categorias, não sem sacrificar informação talvez essencial, a qual ficará perdida no resultado final (FREITAS, CUNHA e MOSCAROLA,1997). São diversas as fontes e motivações que podem viabilizar a coleta de dados textuais (todo dado cujo conteúdo é texto ou alfanumérico): questões abertas de pesquisas de opinião de mercado e outras; o conteúdo de respostas de entrevistas; mensagens recebidas e enviadas; livros, artigos e textos quaisquer; campos tipo texto nas bases de dados corporativas ou outras; o registro automatizado de telefonemas profissionais ou mesmo pessoais (como os de serviço de atendimento ao cliente); o registro automatizado das operações de consulta de sistemas corporativos como o registro de logs Internet, Intranets e outros sistemas, como por exemplo transações bancárias, suporte técnico, todas operações das caixas de supermercado, etc. Todas estas fontes de dados devem ser exploradas via quantificação e resumo, de forma a permitir a melhor compreensão e interpretação do seu conteúdo, visando daí depreender idéias, ações, enfim, produzir uma informação mais rica para embasar as decisões. Algumas outras aplicações de análise de dados qualitativos são: análise de entrevistas não diretivas, focus group; análise de mídia (TV, imprensa, ...); controle de redação; pesquisas de mercado e de opinião; marketing direto a partir de arquivos internos ou externos; análise de documentos; auditoria na comunicação interna; inteligência Competitiva (patentes, pesq. bibliográfica); gestão de RH (sondagem opinião interna,...), etc. A análise de documentos, sejam eles originários de pesquisas quali ou quantitativas, inclui análise léxica e análise de conteúdo. Ela apresenta um conjunto de características racionais, sendo mais ou menos intuitiva, pessoal e subjetiva. Como outros métodos, apresenta problemas de validade, como autenticidade do texto, validade de interpretação e veracidade dos fatos. Tem ainda, em muitos casos, o Freitas & Janissek – Análise léxica e Análise de conteúdo – p.28 defeito do trabalho não sistematizado, dependendo fortemente do valor e competência do pesquisador. Com o uso conjunto destas técnicas de análise de textos é possível produzir novos dados que podem, por sua vez, ser confrontados especialmente com dados sócio-demográficos, como por exemplo um elenco de reclamações ou sugestões agora vistas por sexo, por faixa etária, por renda, por departamento ou qualquer outro dado mais objetivo ou quantitativo. Antecipar a análise léxica à de conteúdo faria com que a análise de dados se desse de uma maneira plena, ou seja, o uso destas duas técnicas encobrem diversas das possibilidades que dali poderiam surgir ou fazer emergir. Ao final de um esforço de análise de dados, poderia-se dispor de resultados significativos aplicáveis à uma dada realidade. Como isso deve ser feito? De que maneira combinar o uso destas duas formas de análise? Os dois tipos de análise de questões abertas são representados na Figura 2 (FREITAS e MOSCAROLA, 2000). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.29 Figura 2 - A análise de conteúdo e a análise léxica (FREITAS e MOSCAROLA, 2000) Freitas & Janissek – Análise léxica e Análise de conteúdo – p.30 A Análise Léxica (FREITAS e MOSCAROLA, 2000) consiste em se passar da análise do texto para a análise do léxico (o conjunto de todas as palavras encontradas nos depoimentos ou respostas). Já a Análise de Conteúdo (FRANKFORT-NACHMIAS e NACHMIAS, 1996, p.324-330), que consiste em uma leitura aprofundada de cada uma das respostas, onde, codificando-se cada uma, obtém-se uma idéia sobre o todo (FREITAS, 2000). WEBER (1990, p.10) apresenta algumas vantagens da análise de conteúdo, destacando sua aplicabilidade na análise de textos de comunicação de toda natureza, bem como o fato de permitir combinar métodos quanti e qualitativos, e mesmo explorar séries longitudinais de documentos ou fontes múltiplas, e enfim o fato de poder tratar com dados ditos mais espontâneos (e não induzidos ou expressamente perguntados). Com base em textos europeus (GRAWITZ, 1993; GAVARD- PERRET e MOSCAROLA, 1995), FREITAS, CUNHA e MOSCAROLA (1997) apresentam noções gerais sobre a análise de dados textuais, com sete diferentes níveis de aplicação e desenvolvimento da análise léxica, ilustrando a aplicação e uso dessas técnicas. Este tipo de análise contribui para a interpretação das questões abertas ou textos, a partir da descrição objetiva, sistemática e quantitativa do seu conteúdo. Diversas referências podem ser consultadas para um maior aprofundamento nas questões da análise de dados qualitativos. WEBER (1990) publicou o livro “Basic Content Analysis”, SILVERMAN (1993) descreve métodos para analisar discursos, textos e interações, no livro “Interpreting Qualitative Data”, MILES e HUBERMAN (1994) publicaram o livro “Qualitative Data Analysis”, o Journal of Applied Management Studies, inglês, publicou dois papers com aplicação de análise de conteúdo e análise léxica: CROUCH e BASCH, “The Structure Of Managerial Thinking”, e OSWICK, KEENOY e GRANT, “Managerial Discourses...”. A MIS Freitas & Janissek – Análise léxica e Análise de conteúdo – p.31 Quarterly também publicou pesquisa qualitativa durante 1997, mostrando disposição da comunidade (e dos editores!) rumo a estudos qualitativos. A literatura francesa também está recebendo novos textos, da parte de BARDIN (1996), e de LEBART e SALEM (1994). Na sequência são apresentadas tais técnicas de análise, buscando enfatizar sua complementaridade. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.32 3.1. A Análise Léxica Toda a análise de textos começa pela organização completa do vocabulário utilizado. Mais do que palavras, fala-se de formas gráficas ou simplesmente de formas breves em razão de uma certa ambigüidade da palavra. A organização consiste em isolar cada forma gráfica supostamente delimitada por dois caracteres separadores que na maioria das vezes são os próprios espaços, mas também podem ser sinais de pontuação. Cada aparição de uma forma de dado é chamada ocorrência, as quais são evidentemente contabilizadas para formar o léxico. O léxico é então, por definição, a lista de todas as formas gráficas utilizadas, cada qual estando munida de um número de ordem ou frequência (LAGARDE, 1995, p.144-145), ou ainda o conjunto das palavras diferentes usadas nesse texto, com a sua frequência de aparição (FREITAS, 2000). Já a Análise Léxica consiste em averiguar ou medir a dimensão das respostas: as pessoas responderam de forma extensa ou concisa? Cria-se uma hipótese de que aqueles que deram respostas extensas têm um interesse maior do que os demais. Uma hipótese discutível que dará, porém, uma indicação (FREITAS, 2000). Nesse tipo de técnica são feitas análises de palavras, e não de respondentes. Por exemplo, caso uma dada palavra apareça n vezes após realizada uma contagem, isso não significa que aquela palavra, ou aquela idéia, possa ser generalizada para grande parte dos respondentes ou representar uma idéia que tenha aparecido em várias opiniões: pode muito bem ocorrer que determinado respondente, ou um pequeno grupo destes, tenham enfaticamente apontado para aquela idéia, repetidamente (por que não?), diferentemente de uma Análise de Conteúdo, onde são identificadas idéias por respondentes, independentemente deste ter citado a palavra 1, 2 ou mais vezes. Freitas & Janissek –Análise léxica e Análise de conteúdo – p.33 Então pode-se dizer que a análise léxica é o estudo científico do vocabulário, com aplicações de métodos estatísticos para a descrição do vocabulário: ela permite identificar com maior detalhe as citações dos participantes, utilizando indicadores que relacionam aspectos relativos às citações e às palavras (BARDIN, 1996). A evolução se dá da visão geral do texto para os dados na sua essência, sejam eles palavras ou expressões (LEBART e SALEM, 1994, p.58- 69), onde posteriormente serão novamente analisados com vistas ao universo total de informações. Pode-se ainda colocar que, através de processos automáticos que associam a matemática e a estatística, o uso da Análise Léxica permite rapidamente interpretar e fazer uma leitura adequada e dinâmica das questões abertas das enquêtes. Esse procedimento não é mais rigoroso do que a Análise de Conteúdo clássica. Seu tratamento dos dados é objetivo, mas a leitura subjetiva também é realizada: tem- se, assim, acesso a um processo de leitura mais rápido, automatizado e que, por outro lado, encontra um certo número de justificativas (FREITAS, 2000). A partir do corpo do texto, ou seja, o conteúdo das respostas abertas, evolui-se para analisar palavras e expressões, o léxico. Ao fazer isso, parte-se de um nível que se pode chamar de macroestatístico, iniciando com as entrevistas que foram realizadas e elencando as palavras produzidas nas respostas (GRAWITZ, 1993). Um esquema geral (Figura 3) para Análise Léxica é proposto por FREITAS, MOSCAROLA e JENKINS (1998). Uma Análise Léxica inicia sempre pela contagem das palavras, avançando sistematicamente na direção de identificação da dimensão das respostas. Nos casos de respostas abertas, normalmente são feitas aproximações ou agrupamentos que permitam apresentar critérios mais frequentemente citados, agrupando palavras afins, deletando palavras que não interessam, até resultar num conjunto tal de palavras Freitas & Janissek – Análise léxica e Análise de conteúdo – p.34 que representem na essência as principais descrições citadas nos textos. Tudo depende do quão sutil é feita a análise pelo pesquisador e da qualidade dos dados (amostra). Uma análise rápida em uma pequena amostra normalmente apresentará problemas de dispersão de um mesmo tema, de uma mesma idéia, até mesmo problemas de sinônimos. O tratamento para tal seria o correto agrupamento de palavras em critérios semelhantes. Nestes casos, as frequências permitem consolidar a aplicação de um tema ou locução, possibilitando uma análise de contexto onde as categorias identificadas representem a essência das idéias apresentadas (LEBART e SALEM, 1994, p.135-142). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.35 Corpo do Texto Navegação Léxica Reduzindo e Estruturando o Léxico Lematizador Corpo do texto lematizado Dicionário Estrutura Estatística Variáveis De Contexto Verbatim Medidas Lexicais: Intensidade banalidade Variáveis fechadas do léxico Figura 3 - Esquema para Análise Léxica Fonte: FREITAS, MOSCAROLA e JENKINS (1998) Freitas & Janissek – Análise léxica e Análise de conteúdo – p.36 Como ilustra a Figura 3, a realização de uma análise léxica se dá da seguinte forma: faz-se inicialmente o tratamento deste do conteúdo de um texto ou respostas abertas, através da identificação de número total de ocorrências de cada palavra, número total de palavras, número total de palavras diferentes ou vocábulos e a riqueza de vocabulário para produzir uma resposta (LEBART e SALEM, 1994, p.247). Além disso, classificam-se tais unidades de vocabulário em palavras ricas com algum significado, como verbos, substantivos e adjetivos, além de palavras instrumentais como artigos, preposições, etc. É também possível identificar o tempo aplicado a cada resposta, se isso, é claro, for aplicável naquela situação. A organização da frase, e certos aspectos sintáticos, são suscetíveis de revelar certas características de um discurso ou apontar confirmações de certas hipóteses formuladas, além das comparações entre estas. Para isso, deve-se ir além da Análise Léxica, iniciando a Análise de Conteúdo (BARDIN, 1996, p.82-92). Há recursos e técnicas que podem ser aplicados para ter um corpo do texto lematizado, ou seja, transformar as palavras que ainda constituirão o léxico na sua forma infinitiva ou na sua forma original (fala-se aqui no que diz respeito a verbos, substantivos e adjetivos). Pode-se assim reduzir significativamente o léxico, e, a partir daí, criar novos dados, objetivos (fechados sobre palavras do léxico), bem como gerar novos dados com medidas lexicais (intensidade lexical, banalidade ou trivialidade e ainda originalidade) (SPHINX, 1997). Tal análise, representada na Figura 3, inicia pela aproximação lexical sumária, que consiste em reduzir o texto apresentando as palavras mais frequentes que permitem uma idéia do seu conteúdo. Em seguida é realizada a aproximação lexical controlada, que reduz o texto ao seu léxico e controla, via navegação lexical, a validade e o fundamento das interpretações elaboradas a partir do léxico. Após isso, é realizada a aproximação lexical seletiva, eliminando palavras- Freitas & Janissek – Análise léxica e Análise de conteúdo – p.37 ferramentas e concentrando a atenção no exame de substantivos, verbos e adjetivos via utilização de dicionários e de um lematizador. Em seguida, é realizada a pesquisa das especificidades lexicais, que estabelece uma estatística das palavras do texto, segundo uma variável externa não textual (por exemplo país, região, departamento). A descrição do texto através de variáveis nominais e o cálculo das intensidades lexicais permitem que cada resposta seja descrita pela intensidade segundo a qual se manifestam os diferentes campos estudados. O aprofundamento da análise pode se dar com a análise bi ou multivariada dos dados textuais em função de outros dados, integrando-a desta forma com a análise de dados clássica (FREITAS, CUNHA e MOSCAROLA, 1997). Com a Análise Léxica, é possível apresentar opções (palavras, agrupamentos, expressões) para desvendar caminhos e descobrir opiniões, identificar necessidades, obsessões, seja qual for a intenção da pesquisa ali aplicada. Descobrir as razões de tal objeto de estudo significa passar da indecisão para a riqueza da leitura, e isso pode ser feito com o uso combinado das técnicas apresentadas neste livro. Desta forma, não somente pode-se contar com uma leitura das respostas, o que por si só já nos diz muita coisa, mas também com a identificação das opiniões expressas nas entrelinhas destes mesmos textos. Se em uma leitura espontânea já se pode identificar idéias, o que se poderia dizer de uma leitura e categorização mais atenta no sentido de observar e descobrir conteúdos ali ditos de forma indireta ou até mesmo obscura, permitindo descobrir significados e elementos suscetíveis não identificados a priori. De fato, a aplicação sequencial e recorrente destas técnicas permite assim avançar. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.38 3.2. A Análise de Conteúdo Quando os dados a analisar se apresentam sob a forma de um texto ou de um conjunto de textosao invés de uma tabela com valores, a análise correspondente assume o nome de Análise de Conteúdo – neste texto AC (LAGARDE, 1995, p.143). A AC é uma técnica de pesquisa para tornar replicáveis e validar inferências de dados de um contexto que envolve procedimentos especializados para processamentos de dados de forma científica. Seu propósito é prover conhecimento, novos insights obtidos a partir destes dados (KRIPPENDORFF, 1980). Uma parte importante do comportamento, opinião ou idéias de pessoas se exprime sob a forma verbal ou escrita. A Análise de Conteúdo destas informações deve normalmente permitir a obtenção destas informações resumidas, organizadas. A AC pode ser usada para analisar em profundidade cada expressão específica de uma pessoa ou grupo envolvido num debate. WEBER (1990, p.9) apresenta alguns propósitos para uso de AC. Permite também observar motivos de satisfação, insatisfação ou opiniões subentendidas, natureza de problemas, etc, estudando as várias formas de comunicação. É um método de observação indireto, já que é a expressão verbal ou escrita do respondente que será observada. Não existiria dentro desse método uma riqueza e uma diversidade de modos de expressão? A AC torna possível analisar as entrelinhas das opiniões das pessoas, não se restringindo unicamente às palavras expressas diretamente, mas também àquelas que estão subentendidas no discurso, fala ou resposta de um respondente (PERRIEN, CHÉRON e ZINS, 1984, p.27). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.39 O objetivo da AC é a inferência2 de conhecimentos relativos às condições de produção com a ajuda de indicadores. A AC é como um trabalho de um arqueólogo: ele trabalha sobre os traços dos documentos que ele pode encontrar ou suscitar, traços estes que são a manifestação de estados, dados, características ou fenômenos. Existe alguma coisa a descobrir sobre eles, e o analista pode manipular esses dados por inferência de conhecimentos sobre o emissor da mensagem ou pelo conhecimento do assunto estudado de forma a obter resultados significativos a partir dos dados (Figura 4). Ele trabalha explorando os dados, como um detetive (BARDIN, 1996, p.43-44). Nesse sentido, a descrição do conteúdo é a primeira etapa a ser cumprida, a qual passa pela já citada Análise Léxica pela possibilidade de leitura rápida do conteúdo das respostas através de resultados tabulados das frequências das mesmas. Parte-se de dados qualitativos - fazendo um agrupamento quantitativo - para análise qualitativa novamente. 2 Inferência: operação lógica, pela qual se aprova uma proposição em verdade de sua ligação com outras proposições já tênues por verdades (BARDIN, 1996, p.43). Este tema é desenvolvido por BARDIN (1996, p.169-177). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.40 Leitura Normal Variáveis Inferidas / Análise de Conteúdo Figura 4 – Análise de Conteúdo BARDIN (1996, p.46) Freitas & Janissek – Análise léxica e Análise de conteúdo – p.41 Fazer o processo dedutivo ou inferencial a partir de índices (palavras) ou indicadores não é raro dentro da prática científica. O médico faz suas deduções sobre a saúde de seu paciente graças aos seus sintomas, o meteorologista faz a previsão do tempo inferindo sobre estados ou posições da natureza. Ocorre o mesmo dentro da Análise de Conteúdo, pela dedução através da leitura e compreensão das mensagens. Os fatos, deduzidos logicamente a partir de indicadores, permitem tirar conclusões, obter novas informações ou completar conhecimentos através do exame detalhado dos dados. Ser objetivo, visto que a análise deve proceder segundo as regras pré- estabelecidas, obedecendo a diretrizes suficientemente claras e precisas de forma a propiciar que diferentes analistas, trabalhando sobre o mesmo conteúdo, obtenham os mesmos resultados. Ser também sistemático, pois todo o conteúdo deve ser ordenado e integrado nas categorias escolhidas, em função do objetivo perseguido, e elementos de informação associados ou relativos ao objetivo não devem ser deixados de lado. Ser ainda quantitativo, pela possibilidade de evidenciar os elementos significativos, calcular a sua frequência, etc., esta condição não sendo indispensável visto que certas análises de cunho qualitativo buscam mais os temas do que a sua exata medida ou importância. Segundo GRAWITZ (1993, p.534), tais características formam os atributos da Análise de Conteúdo, o que é reforçado por PERRIEN, CHÉRON e ZINS (1984) e FREITAS, MOSCAROLA e JENKINS (1998). Pode-se, ainda, classificar a AC de acordo com o propósito de investigação, que pode ser a descrição de características de comunicação - perguntando o quê, como e de quem alguém disse tal coisa, a inferência dos antecedentes da comunicação - que envolve perguntar porque alguém disse alguma coisa - ou ainda fazer inferências sobre os efeitos da comunicação - perguntando com que Freitas & Janissek – Análise léxica e Análise de conteúdo – p.42 intenção alguém disse tal coisa (HOLSTI, 1969 e JANIS, 1965 apud KRIPPENDORFF, 1980, p.34). De fato, a Análise de Conteúdo é “uma técnica de pesquisa utilizada para tornar replicáveis e validar inferências de dados para seu contexto, segundo seus componentes, relações ou transformações entre estes” (KRIPPENDORFF, 1980, p.35). Para BARDIN (1996, p.47), AC é “um conjunto de técnicas de análise das comunicações que, através de procedimentos sistemáticos e objetivos de descrição do conteúdo das mensagens, visa obter indicadores (quantitativos ou não) que permitam a inferência de conhecimentos relativos às condições de produção e de recepção (variáveis inferidas) destas mensagens”. A seguir, abordam-se alguns tópicos inerentes, como: os tipos de Análise de Conteúdo, as suas etapas, o seu valor como instrumento ou técnica de pesquisa, bem como seu uso e aplicação. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.43 3.2.1. Tipos de Análise de Conteúdo Uma vez que diferentes fontes de dados estão normalmente disponíveis, pode-se usar vários modelos para explorar, processar e analisar dados. GRAWITZ (1993) desenvolve 3 diferentes enfoques (valorizados por FREITAS, MOSCAROLA e JENKINS, 1998): Verificação ou Exploração? Deve-se fazer distinção entre a análise de documentos tendo como objetivo a hipótese de verificação (sabendo-se o que se busca e podendo-se quantificar os resultados - neste caso o objeto é preciso), e aquela análise cujo objetivo seja exploração ou definição de hipóteses, onde a análise é menos rigorosa e sistemática, seguindo papéis e técnicas que não podem ser padronizadas, visto que faz apelo à intuição e à experiência. Análise quantitativa ou análise qualitativa? A análise quantitativa tenta acumular a frequência de temas, palavras ou símbolos, enquanto análise qualitativa é baseada na presença ou ausência de dadas características. Outra dicotomia quali-quanti é impressões versus sistematizações, hipóteses ao invés de verificações, e flexibilidade como oposto à rigidez. O que é importante deve estar claro em cada um dos tipos de análise. O número de vezes que um dado elemento ocorre é o que conta para a análise quantitativa, enquanto a novidade, interesse,tema ou atributo subjetivo é o objeto da análise quali. Sempre se tem um dilema: adotar categorias representativas, ou reagrupar deliberadamente os dados em um pequeno número de categorias, sacrificando informações. BERELSON (1971, apud FRANKFORT-NACHMIAS e NACHMIAS, 1996, p.328) Freitas & Janissek – Análise léxica e Análise de conteúdo – p.44 define que “a Análise de Conteúdo se sustenta ou se destrói pelas suas categorias”. FRANKFORT-NACHMIAS e NACHMIAS apontam, baseados na literatura, uma série de categorias mais frequentemente empregadas, do tipo “o que é dito” (tema, sentido, padrão, valores, métodos, características, origem, tempo, conflito, etc) e “como é dito” (forma ou tipo de comunicação, método ou técnica utilizada, forma de definição). Análise direta ou indireta? A análise quantitativa direta, medida mais comumente utilizada, consiste em contabilizar as respostas tal qual elas aparecem; já a análise quantitativa indireta pode, por vezes, além do que se tem como resultado claro e manifesto, obter por inferência, até mesmo aquilo que o autor deixou subentendido. Este tipo de informação (escolha das palavras, ritmo do discurso, etc) pode ser muito reveladora. Pode-se, então, a partir de uma análise quantitativa, buscar uma interpretação mais sutil, ou o que é latente sob a linguagem explícita utilizada no texto. A interpretação indireta, que vai além do que é dito, não é algo amparado apenas no qualitativo, ela pode perfeitamente se apoiar num conteúdo quantificado (e que possa ser destacado como exemplo). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.45 3.2.2. Etapas da Análise de Conteúdo Toda a análise de conteúdo deve seguir uma série de etapas precisas, que se iniciam pela definição do universo estudado, delimitando e definindo claramente, desta forma, o que estará e o que não estará envolvido. Uma vez estando o universo corretamente definido, inicia-se sua categorização, que significa determinar as dimensões que serão analisadas, dimensões estas que definem a teia da grade de análise. Estas categorias serão determinadas em função da necessidade de informação a testar: elas constituirão o coração da Análise de Conteúdo. A categorização é uma etapa delicada, não sendo evidente determinar a priori suas principais categorias: na verdade, a categorização (processo de redução do texto no qual as muitas palavras e expressões do texto são transformadas em poucas categorias) é o problema central da AC (WEBER, 1990, p.15). Em certos casos, sua origem será empírica: a partir de um estudo de um certo número de casos, as categorias serão formadas a posteriori. Na definição das categorias, é importante utilizar-se dos critérios ou palavras identificadas na Análise Léxica. Tais critérios muito provavelmente serão agrupados ou reagrupados, formando então as categorias. É o que ilustra a Figura 5 (PERRIEN, CHÉRON e ZINS, (1984, p.275-277). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.46 Figura 5 – Análise de Conteúdo em etapas Freitas & Janissek – Análise léxica e Análise de conteúdo – p.47 As categorias são as rubricas significativas em função das quais o conteúdo será classificado e eventualmente quantificado. WEBER (1990, p.56-57) aborda a questão da contagem de categorias. No caso de uma enquête, pode-se prever categorias já em forma de código. A Análise de Conteúdo deve normalmente permitir o aparecimento de variáveis e fatores de influência que se ignorava no início dos trabalhos. As categorias, quando não se tem uma idéia precisa, devem surgir com base no próprio conteúdo. Na enquête de exploração, as categorias constituem elas próprias o quadro, objeto ou contexto de análise, enquanto que, na busca de verificação de uma hipótese, pode-se ter categorias pré- definidas. De fato, um mesmo dado aberto pode servir de base aos dois exercícios ou lógicas ou estratégias de análise recém evocados. Pode-se explorar um dado para saber o que dele pode emergir como categorias (a lista de reclamações dos clientes, por exemplo), assim como se pode utilizar esse mesmo dado para julgar se a clientela está ou não satisfeita (classificação já pronta para se categorizar cada respondente em ‘satisfeito’ ou ‘insatisfeito’). As categorias devem se originar seja do documento objeto da análise, seja de um certo conhecimento geral da área ou atividade na qual ele se insere. Das respostas, caso se trate de uma entrevista; dos objetivos, intenções, crenças do emissor, no caso de um texto; não sem considerar elementos ausentes que podem ser significativos. A escolha das categorias é o procedimento essencial da Análise de Conteúdo; visto que elas fazem a ligação entre os objetivos de pesquisa e seus resultados. O valor da análise fica sujeito ao valor ou legitimidade das categorias de análise. É o objetivo perseguido que deve pautar a escolha ou definição do que deve ser quantificado. Segundo WEBER (1990) e BARDIN (1996), as categorias devem ser exaustivas (percorrer todo o conjunto do texto), exclusivas (os mesmos elementos não podem pertencem a diversas categorias), Freitas & Janissek – Análise léxica e Análise de conteúdo – p.48 objetivas (características claras de modo a permitir seu uso por diferentes analistas em um mesmo texto) e pertinentes (em relação com os objetivos perseguidos e com o conteúdo tratado). A escolha das unidades de análise é a etapa seguinte: o conteúdo de um texto pode ser analisado de diferentes maneiras, conforme as unidades de análise que serão definidas. Vários autores tratam das unidades de análises, apresentando-as com alguns enfoques ou rótulos diferentes. Além de LEBART e SALEM (1994, p.46-50) e de WEBER (1990, p.21-24), destacam-se: Para PERRIEN, CHÉRON e ZINS (1984), as unidades classificam-se em (1) palavras, que são as unidades de análise mais desagregadas, pois muitas vezes expressam situações momentâneas, medidas por estímulos situacionais; (2) em tema, que pode ser definido como a unidade mais manipulável, uma vez que compreende proposições ou afirmações de um sujeito - a presença ou ausência de um tema pode ser rica em informações; (3) em personagens, que representam um outro sujeito de interesse, sobre os quais pode-se manipular determinadas características e tomá-las como foco de análise e ainda (4) as características espaciais ou temporais, que implicam em relacionar e medir um certo número de especificidades dos textos, evidenciando o conjunto total das idéias apresentadas. Segundo KRIPPENDORFF (1980, p.57), as unidades de análise classificam-se em (1) unidades amostrais, que são aquelas partes da observação real, registradas independentemente das outras que a acompanham; (2) unidades de registro, que são segmentos específicos do conteúdo, Freitas & Janissek – Análise léxica e Análise de conteúdo – p.49 caracterizados por situarem-se dentro de uma dada categoria e descritas separadamente, podendo então serem registradas como partes analisáveis separadamente das unidades amostrais, e (3) unidades de contexto, que fixam limites de informações contextuais que podem apresentar a descrição de uma unidade de registro. Elas delineiam aquela parte do material necessário para ser examinado paraque uma unidade de registro seja caracterizada. A quantificação é a última etapa da Análise de Conteúdo, cujo objetivo é permitir o relacionamento das características dos textos combinadas ao universo estudado. A presença ou ausência de uma unidade igual ao nome das unidades, representa uma quantificação ao nível nominal (PERRIEN, CHÉRON e ZINS, 1984, p.274-277). Freitas & Janissek – Análise léxica e Análise de conteúdo – p.50 3.2.3. O valor da Análise de Conteúdo A Análise de Conteúdo é uma técnica refinada, delicada, e requer muita dedicação, paciência e tempo para satisfazer a curiosidade do investigador. Além disso, são necessárias intuição, imaginação e observação do que é importante, além de criatividade para escolha das categorias já citadas. Ao mesmo tempo, o analista deve ter disciplina, perseverança, e ainda rigidez na decomposição do conteúdo ou na contagem dos resultados das análises. Existem alguns aspectos que GRAWITZ (1993, p.553-558) resgata com relação à AC, os quais são abordados e reforçados por FREITAS, MOSCAROLA e JENKINS (1998): Confiabilidade: A Análise de Conteúdo deve ser objetiva, e os resultados devem ser independentes do instrumento utilizado para medição, sendo conveniente minimizar as diferenças dos pontos de vista entre os analistas. Mas isso é um velho problema das ciências sociais, a confiabilidade não deve ser encarada da mesma forma quando se trata de análises quantitativas de um conteúdo claro e óbvio, como quando se trata de uma análise mais qualitativa, onde se procura identificar intenções ocultas, onde é preciso identificar presença ou ausência de um elemento e não a sua frequência. Segundo KRIPPENDORFF (1980, p.146), a verificação da confiabilidade visa prover uma base para inferências, recomendações, suporte à decisão ou mesmo a aceitação de um fato. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.51 Validade lógica: o instrumento realmente mede o que ele se propõe a medir? Uma análise é válida quando a descrição quantificada que ela oferece a respeito de conteúdo é significativa para o problema original e reproduz fielmente a realidade dos fatos que ele representa. É claro, isso é condição essencial da representatividade da amostra e supõe que certas condições técnicas inerentes a cada estágio sejam observadas satisfatoriamente. A inferência: este ponto merece especial atenção porque algumas das expressões têm mais de uma interpretação, até mesmo interpretações positivas ou negativas, dependendo do contexto. Validade empírica: a predição inerente é justa ou precisa? Uma difícil questão para responder. Em lugar de convicções, prudência e humildade são recomendadas ao traçar as conclusões. Contudo, GRAWITZ (1993) acredita que a experiência e o treinamento do analista assinam a validade de sua análise. O valor da Análise de Conteúdo depende da qualidade da elaboração conceitual feita a priori pelo pesquisador, e da exatidão com a qual ele irá traduzi-la em variáveis, esboço de pesquisa ou categorias. Segundo WEBER (1990, p.15), uma variável baseada na classificação de um conteúdo é válida na medida em que de fato mede o construto que o pesquisador tenciona medir. Os assuntos guiados pelas categorias podem suscitar hipóteses interessantes (FREITAS, MOSCAROLA e JENKINS, 1998). Qualquer esforço nessa direção Freitas & Janissek – Análise léxica e Análise de conteúdo – p.52 deve passar pela confiabilidade e validade dos resultados gerados (KIRK e MILLER, 1986, p.21-24 e p.41-42). Para os resultados de pesquisa serem válidos, os dados nos quais eles serão baseados, bem como os indivíduos envolvidos na sua análise e ainda o processo que vai gerar os resultados devem ser, todos eles, confiáveis. A confiabilidade é necessária, ainda que não seja uma condição suficiente por si só para a validade. A importância da confiabilidade está baseada na sua garantia de que os dados são obtidos independentemente do evento de medição, instrumento ou pessoa (KRIPPENDORFF, 1980). Dados confiáveis, por definição, são dados que permanecem constantes através das variações do processo de medida (KAPLAN e GOLDSEN, apud KRIPPENDORFF, 1980, p.129). A confiabilidade é vista como um problema no contexto de pesquisa qualitativa, em relação à sua estrutura de codificação, que poderia ser vista por ela mesma como confiável se, em qualquer recodificação subsequente, os mesmos códigos fossem repetidos por um diferente codificador com uma margem aceitável de erro. KRIPPENDORFF (1980, p.130-154) aborda em detalhe esta questão da concordância, observando (p.146-147) que adotou em sua equipe a diretriz de reter variáveis cuja concordância nesse sentido fosse de pelo menos 80% entre os dois codificadores (necessariamente independentes, somente discutindo, como último recurso, sobre efetivas dúvidas, e não buscando influenciar um no protocolo do outro), mas que seriam igualmente retidas ou consideradas variáveis cuja concordância fosse entre 67 e 80% (muito embora se deva ser sempre cauteloso ao concluir sobre estes resultados)3. Ele observa ainda que o custo de não ser zeloso nesse sentido é o de se chegar a 3 OLIVEIRA (1999, p.176-178) evoca referencial sobre o grau aceitável de concordância, inclusive identificando na literatura que as chances de concordância entre os classificadores é maior à medida que o número de opções ou categorias é menor. Freitas & Janissek – Análise léxica e Análise de conteúdo – p.53 conclusões equivocadas nas pesquisas. O autor observa (p.147) que se as implicações de uma AC forem consideradas drásticas, deve-se ser rigoroso na consideração de níveis de concordância; porém, em se tratando de estudos exploratórios sem sérias consequências, o nível da concordância "pode ser consideravelmente relaxado, contudo, não tão baixo que não permita levar a sério as descobertas". Para alcançar um bom nível de concordância, deve-se ter cuidado e construir categorias codificadas que sejam mutuamente exclusivas e não ambíguas. Não se deve confundir os requisitos que surgem na pesquisa hipotético-dedutiva com as demandas da pesquisa qualitativa exploratória. Numa abordagem hipotético-dedutiva para análise de textos, categorias (pré-definidas) serviriam para condensar informações relevantes contidas nos dados, as quais seriam representadas através de frequências. Já durante um estudo exploratório, a codificação deve ser construída através do próprio processo de análise de dados. Deve-se entender que cada abordagem requer um enfoque diferente de confiabilidade: um estágio dito exploratório, onde o ambiente (categorias e propriedades) é desenvolvido e hipóteses são geradas, e um estágio de construção de teoria baseada em dados, onde as hipóteses são refinadas com maior detalhe (KELLE, 1995, p.25). SILVERMAN (1993, p.149) discute validade como sendo ‘verdade’, ou seja, ele recorre a HAMMERSLEY, para quem validade é “interpretada como a extensão ou medida pela qual uma apuração, contagem ou codificação representa efetivamente o fenômeno social ao qual se refere”. SILVERMAN (1993, p.156-157) descreve duas formas de validação na pesquisa qualitativa: a “triangulação” (comparar diferentes tipos de dados, quanti e qualitativos, obtidos pelo uso de diferentes métodos, como observação e entrevistas, de forma
Compartilhar