Baixe o app para aproveitar ainda mais
Prévia do material em texto
Qualidade de Dados para Gestão de Conhecimento na Área de Saúde Valéria Farinazzo Martins Salvador1,2, Mozart Britto3, Lincoln de Assis Moura Jr.4, Jorge Rady de Almeida Junior5 1,3,5 USP/Poli - Departamento de Engenharia de Computação e Sistemas Digitais 2Centro Universitário São Camilo 4 Vidatis - Sistemas de Informação em Saúde Resumo - A gestão de conhecimento tem sido um dos temas mais discutidos na atualidade. Muitas empresas constataram que o capital intelectual constitui-se no recurso mais valioso dentro das organizações. Por outro lado, a qualidade de dados passa a ser observada dentro das empresas, pois se começa a perceber que a falta de qualidade de dados é um dos principais causadores de perdas de tempo, dinheiro e oportunidades dentro dos negócios. Este artigo tem por objetivo apresentar questões sobre qualidade de dados aplicada à gestão de conhecimento, especialmente na área de saúde. Palavras-chave: Qualidade de Dados, Dados Médicos, Gestão do Conhecimento. Abstract – Knowledge management has been the one of the most discussed subjects currently. Many enterprises have understood that intelectual power is the most valuable resource in the organizations. On the other hand, data quality has been considered within enterprises, as low qualitiy is the one of the main problems leading waste of time, money and business opportunities. This paper presents some issues on data quality applied to knowledge management, especially in the healthcare area. Keywords: Data Quality, Health Information, Knowledge Managment. Introdução A gestão do conhecimento tem sido um dos temas mais abordados nos últimos tempos. Notadamente o tema está em voga porque a globalização, a preferência por organizações mais ágeis e o grande crescimento da tecnologia, especialmente na área da informação e das telecomunicações, proporcionou o tratamento de fatores como a competição, demanda por qualidade e processos produtivos mais eficazes, regidos pela administração das organizações. Por outro lado, a qualidade de dados está ganhando cada vez mais a atenção nas organizações. As empresas estão descobrindo que seus dados possuem, em muitos casos, baixa qualidade. Porém, a maioria das pessoas não consegue perceber a magnitude do impacto deste problema nas organizações. Atividades de correção, re-trabalho e re-processamento de pedidos são tidas como parte da vida da empresa. No entanto, algumas companhias estão descobrindo que as questões de qualidade de dados são grandes causadoras de perda de dinheiro, tempo e oportunidades. O custo da baixa qualidade de dados está geralmente escondido e não é óbvio para aqueles que não estão especificamente atentos a estes problemas. Qualidade de dados pode ser definida como “adequação ao uso”, o que implica ser este um conceito relativo. Dados considerados de qualidade apropriada para determinado uso podem não ter qualidade suficiente para outro uso [1]. Entenda-se também por qualidade de dados o grau de aderência entre as visões apresentadas pelo sistema de informação e os mesmos dados no mundo real. Um sistema com qualidade de dados de 100% indicaria perfeita aderência com o mundo real, enquanto uma qualidade de dados de 0% constituiria total falta de aderência. Ter um dado preciso é um requisito fundamental de bons sistemas de informação; porém, a maioria dos sistemas de informação contém uma quantidade significativa de dados imprecisos. A precisão dos dados não é alcançada facilmente; os dados devem receber atenção direta durante o processo de concepção do sistema, monitoração constante da coleção de dados, e ações agressivas para corrigir problemas que possam gerar ou propagar imprecisões. Para ter dados precisos é necessário um programa formal de garantia da qualidade de dados com um componente específico dedicado à precisão [2]. Tecnologias de gerenciamento de dados têm voltado a atenção para os repositórios de dados. Muitos sistemas de gerenciamento de bases de dados robustos, serviços de replicação de dados, suporte à segurança e backup têm sido construídos. Também muitas tecnologias de acesso aos dados têm sido criadas nestes anos: data warehouse, data mart, data mining e tecnologias de suporte à decisão. Porém muito pouca coisa tem sido feita com relação ao dado propriamente dito. O grande ponto é que para haver uma gestão do conhecimento válida é necessário que este conhecimento (e a informação que o gerou) esteja realmente com uma boa qualidade. Caso contrário, a organização gerará conhecimento incorreto que poderá abalar sua competitividade no mercado. Metodologia O presente estudo pode ser definido como exploratório descritivo, já que seu propósito não é fornecer uma resposta definitiva ao problema proposto, mas fornecer uma visão geral da idéia de qualidade de dados e como isto pode estar afetando os sistemas de informação em saúde. A pesquisa está baseada no mapeamento e análise da literatura sobre a área de Qualidade de Dados e Informática em Saúde, através de pesquisa bibliográfica a livros, teses de doutorado, dissertações de mestrado, artigos, apresentações e sites. Também foi observada a qualidade dos dados de alguns sistemas informatizados em hospitais e também relatos de profissionais de saúde no que se refere à qualidade dos dados percebidos por eles em seu trabalho cotidiano. Resultados A partir da metodologia deste trabalho, é apresentada uma visão geral da área de Qualidade de Dados, abordando suas principais características e problemas, assim como os principais problemas de qualidade de dados inseridos no contexto dos sistemas de informação em saúde; também são destacadas algumas recomendações para qualidade de dados em saúde retiradas do Manual de Requisitos de Segurança, Conteúdo e Funcionalidades para Sistemas de Registro Eletrônico em Saúde (RES). Dimensões de Qualidade de Dados Segundo Orr [3], nenhum sistema de informação de grande porte tem qualidade de dados de 100%. A grande questão não é garantir que a qualidade de dados seja perfeita, mas sim que seja suficientemente precisa, atualizada e consistente para que a organização possa sobreviver e tomar decisões com base em dados confiáveis. Alta qualidade de dados significa que os dados estão adequados para serem usados por seus consumidores. Um dado tem qualidade se satisfaz os requisitos de uso desejados; para isto, o dado deve ser [2], [4]: • Preciso: é a medida de quão correto, quão livre de erros, quão próximo está este dado do fato verdadeiro. É medida fundamental da qualidade de dados; se um dado não é correto, as outras dimensões são menos importantes. Para ser correto, um valor deve ser certo e deve ser representado de uma forma consistente e sem ambigüidade. • Disponível em tempo: os dados estão suficientemente atualizados para as tarefas que os necessitam; • Relevante: importante para o tomador de decisões em um contexto; é útil e aplicável à tarefa em questão; • Completo: deve conter todos os fatos importantes, na amplitude e profundidade adequadas às suas necessidades; • Simples/Compreendido: evitando a chamada “sobrecarga de informação”; • Confiável: dependente da fonte ou método de coleta. Estas são características observáveis e passíveis de serem medidas e avaliadas. Embora as características apontadas acima sejam bastante disseminadas na literatura, outras classificações podem ser encontradas, como a encontrada em [5], que traz 16 dimensões para a qualidade de dados: livre de erro, objetividade, reputação, credibilidade, relevância, valor adicionado, em tempo, completude, quantidade apropriada de informação, capacidade de interpretação, compreensão, representaçãoconsistente, representação concisa, facilidade de manipulação, acessibilidade e segurança. Problemas de Qualidade de Dados São inúmeros os fatores que causam problemas de imprecisão em uma base de dados, entre eles [2]: • Entrada Inicial de Dados com Problema: entre os quais: digitação incorreta, seleção incorreta de um item em um formulário, valores corretos em campos errados, campos no formulário que confundem o usuário; erros intencionais ocasionados porque: o usuário não conhece o dado correto, mas precisa/ quer terminar de preencher o formulário; o usuário não quer que o dado correto seja conhecido por considerar invasão de privacidade, comum em sistemas de relacionamento com o cliente (CRM) e Internet; a entrada incorreta de dados pode gerar um benefício para o usuário; • Degradação: dados inicialmente corretos que, com o passar do tempo, tornaram-se inadequados. É o caso, por exemplo, de dados pessoais de um paciente que nunca tenham sido atualizados; • Mudanças e Reestruturação: dados imprecisos que são gerados a partir de dados perfeitamente corretos nos processos de mudanças e reestruturação. Estes processos são comumente usados para extrair dados de bases de dados operacionais, sendo inseridos em data warehouses e data marts, consolidação de servidores e migração para pacotes de software (ERP, por exemplo). Os principais problemas estão relacionados à falta de compreensão total das bases de dados origem e destino quando se migram os dados e ao fato de que sistemas fonte dificilmente são projetados para sofrerem mudanças. Entre os principais problemas pode-se citar: o Campos Overloaded: contêm informações sobre múltiplos e diferentes fatos armazenados. Isto acontece quando, ao invés de criar um novo campo para uma nova informação, se re-aproveita um campo existente. Um exemplo disso é utilizar o campo NOME com a informação MORTO se a pessoa já faleceu. O problema de campos overloaded é que raramente são documentados; o Matching entre Base de Dados Origem e Destino: os problemas surgem quando não há um total entendimento de ambos sistemas (origem e destino) ou quando a combinação entre estas bases de dados não é óbvia, tais como: a representação diferente de valores, por exemplo, em um sistema o campo SEXO é “f” e “m” e em outro 1 e 2; o escopo de valores pode diferir - um sistema tem dois tipos possíveis para um campo, e o outro deve ter três; um sistema pode guardar informações de um nível mais baixo de granularidade do que o outro; o Extração: normalmente envolve a leitura da base de dados origem e a construção de arquivos de saída para serem usados nos processos subseqüentes. Os arquivos de saída são, quase sempre, esperados em uma forma normalizada. Dependendo da complexidade de como os dados estão armazenados no sistema origem, normalizá-los pode ser uma tarefa bastante árdua que está suscetível a todos os tipos de erros; o Limpeza de registros de dados: envolve identificar valores incorretos de dados e então corrigi-los ou rejeitá-los. Os problemas ocorrem quando se tem uma falta de entendimento do dado-fonte e os valores que tem um especial significado são rejeitados, ou quando rotinas de limpeza de registros de dados rejeitam um valor que é claramente retificável (por exemplo, uma digitação errada). Estas rotinas podem identificar valores errados, mas geralmente não podem corrigi-los; o Transformações: A rotina de transformar o valor, sem afetar o conteúdo - por exemplo, sexo indicado como "1" e "2" para "M" e "F" - pode conter 2 áreas principais de problemas: code page crossovers (por exemplo, migração de dados com caracteres especiais para uma base de dados que não possua esta representação) e translação de moeda (uso inadequado de um valor sem as casas decimais, que mal compreendido, leva à migração de valores maiores); o Carga: No último passo do processo de migração, em que já está definida apropriadamente a base de dados destino, o problema que pode surgir é quando deve-se considerar uma quantidade maior de fontes, sendo necessário assegurar que todos os dados de todas as fontes obtidas serão carregados ao mesmo tempo para criar um sistema destino completo. Uma das principais questões de data warehouse e de data mart é garantir que isto seja feito e que os dados não estarão liberados para a comunidade de usuários até que a carga completa seja realizada. Outra questão é o que fazer se os dados são rejeitados com relação a questões de tipos de dados, definição de chaves e violações. • Uso de Dados: no processo de inserção de dados em objetos de negócios tais como relatórios, consultas na tela e portais, e seu uso subseqüente pelos profissionais de negócio, pode haver imprecisão se o usuário não compreender o significado deste dado (mesmo correto) ou se o contexto em que ele está inserido, sua interpretação e uso estiverem com problema. Qualidade de Dados Médicos para Gestão do Conhecimento A gestão do conhecimento aplicada ao Prontuário Eletrônico do Paciente (PEP) poderia incluir protocolos clínicos gerados a partir de dados comprovadamente positivos de diagnósticos, exames, tratamentos e prescrições; alertas sobre combinação de medicamentos errados; experiências de médicos relatadas no PEP; casos clínicos dentro e fora do hospital; e casos semelhantes. Isto pode ser conseguido, em parte, através da medicina baseada em evidências. A medicina baseada em evidências tem sido considerada como um paradigma a ser seguido para se obter a boa prática médica, podendo ser utilizada como a melhor evidência corrente para tomada de decisão para o cuidado médico de pacientes individuais, que possibilitará maiores chances de efetividade, eficiência e segurança. A medicina baseada em evidências parte do princípio de que as ferramentas e técnicas recentemente desenvolvidas poderiam ajudar profissionais da saúde a entenderem melhor o que funciona no tratamento dos pacientes, reduzindo incertezas. A redução da incerteza pode ser feita pelo “desenvolvimento da pesquisa de resultados, com estudos sistemáticos e de larga escala, para verificação dos efeitos das diferentes ferramentas de diagnósticos ou terapias, quando aplicadas a um largo número de pacientes”, podendo diminuir o efeito do acaso. Esta prática foi facilitada pelo uso, em grande escala, de computadores para armazenamento e análise de dados médicos e a padronização de dados de combate e de tratamento disponibilizando, teoricamente, o conhecimento mais preciso e certo sobre o que é, e o que não é a terapia efetiva [6], [7]. Gouvêa et al [8] já relatavam problemas devido à qualidade de dados para a verificação da qualidade dos serviços de saúde. Eles explicam que as bases de dados projetadas para fins administrativos dentro das instituições de saúde oferecem grandes vantagens para avaliação de qualidade por conterem grande volume de dados, disponíveis com grande proximidade da ocorrência da internação, reduzindo consideravelmente o custo das avaliações. Porém, algumas desvantagens podem ser apontadas: insuficiência de dados para distinguir pacientes com níveis de gravidade distintos; baixa qualidade dos dados – informações demográficas mostram-se mais confiáveis que informações médicas, tais como diagnósticos e tratamentos. Em estudos realizados sobre o ano de 1986, [9] apud [8] já tratava sobre confiabilidade em um estudo realizado em rede privada credenciada ao INAMPS, no Rio de Janeiro. O item de menor confiabilidade foi o de diagnóstico principal, enquanto que o procedimento realizado, os óbitos e as transferências mostraram ser os itens com melhor grau de confiabilidade. Outro problemagrave é a não inclusão de diagnósticos secundários, impossibilitando a classificação do paciente por níveis de gravidade. Problemas de Qualidade de Dados Médicos É sabido que os dados em saúde são especiais, pois são muito variados, muito pouco estruturados, altamente volumosos, gerados e utilizados em uma estrutura complexa: os serviços de saúde. Verifica-se que o desenvolvimento e o uso inadequado dos sistemas em saúde comprometem a qualidade de dados. Entre os principais problemas, podem ser destacados: • A precisão dos dados é comprometida por: preenchimento oportuno de campos para, por exemplo, aprovação de exames e pagamentos, evitando glosas; preenchimento incorreto por falta de treinamento no sistema; digitação incorreta por pressa ou falta de experiência; reentrada de dados em diferentes sistemas causando inconsistências ou duplicidades; • Falta de comprometimento e entendimento por parte dos usuários do sistema sobre a necessidade de se registrar as informações no momento em que o fato ocorre. Por exemplo: uma liberação de quarto, que não seja efetivada no momento, pode gerar uma cobrança a mais de diárias; • Difícil identificação da relevância dos dados: no PEP torna-se difícil compreender o que é relevante, pois há uma quantidade muito grande de informações e uma equipe multidisciplinar envolvida; • Falta de completude: nem sempre são preenchidos todos os campos necessários por pressa ou falta de comprometimento do profissional ou falta da informação; • Além disto, a grande maioria dos sistemas em saúde não possui um bom design de interface, necessitando um grande esforço cognitivo de pessoas, muitas vezes, leigas, na utilização de sistemas computadorizados e com campos que podem confundir o usuário. Uma conseqüência de dados com baixa qualidade na área médica é citada por [10] que diz que análises realizadas, no Estado do Rio de Janeiro e região metropolitana de São Paulo, entre 1996 e 1998, sobre a qualidade dos dados sobre a mortalidade hospitalar por infarto agudo do miocárdio (IAM), foram constatados que o número de óbitos notificados no Sistema de Informação Hospitalar do SUS (SIH/SUS) foi bastante inferior ao notificado no Sistema de Informação de Mortalidade (SIM). Isto sugere a existência de problemas na notificação de mortes por IAM entre esses sistemas de informação, que poderiam estar relacionados à sub-notificação de admissões por IAM no SIH/SUS e erros na escolha do diagnóstico principal. Recomendações para Sistemas de Registro Eletrônico em Saúde (RES) Através do Manual de Requisitos de Segurança, Conteúdo e Funcionalidades para Sistemas de Registro Eletrônico em Saúde [11] é possível verificar que algumas recomendações têm sido feitas quanto à qualidade de dados em saúde, entre as quais podem ser citadas: • Dados Seguros e Confiáveis: políticas de controle de acesso por perfis ou grupos; permissão somente para inserção de dados, exclusões e alterações de dados já cadastrados não devem ser permitidas; mecanismos de certificação de origem para garantir comunicação segura entre servidor e estações; somente conexões de rede autorizadas possam manipular e visualizar informações da base de dados; criptografia de dados para comunicação na rede; • Precisão: garantia da integridade dos dados; adoção de padrões para representar, de forma não-ambígua, informações sobre pacientes, profissionais envolvidos, local, data e hora; regras claras de consistência para entrada e acréscimos de dados; • Simplicidade: as informações do RES devem ser armazenadas em diferentes seções para facilitar a consulta, a navegação e seu uso secundário: dados epidemiológicos, gestão e faturamento; armazenamento de dados simples, preservando a associação entre nome do dado e seu valor; • Complexidade e Relevância: clara especificação de todos os dados que devem compor o RES; capacidade de registrar qualquer tipo de informação relevante à assistência ao paciente; suportar o processo de assistência integral incluindo cuidados multidisciplinares e em diferentes níveis de atenção em saúde. Discussão e Conclusões Atualmente, a qualidade de dados começa a ganhar ênfase nas organizações e percebe-se que ela é responsável por perdas de tempo, dinheiro e oportunidades. Porém, é preciso tratá-la não como um processo natural, mas como algo que pode ser melhorado. Infelizmente, em muitas organizações, a questão de qualidade de dados recebe baixa prioridade. O conceito de qualidade de dados ficou melhor compreendido no sentido de “adequação ao uso”, evidenciando tratar-se de um conceito relativo, em que a qualidade de dados de um sistema pode ser suficiente em um contexto mas ser inadequada em outro. Para que uma organização possa dimensionar a quantidade de esforço e recursos a serem exigidos para garantir a qualidade dos dados, é essencial que se determine o nível de qualidade de dados necessário para a organização. Esta tarefa é, geralmente, bastante complexa, uma vez que diferentes usuários têm diferentes necessidades. Além disso, há o problema da semântica, pois para um usuário que tem profundo contato com os dados e suas nuances, o significado que ele atribui à informação pode ser muito diferente de outros usuários [1]. Na área de saúde, a ausência de regras explícitas em relação à emissão e ao preenchimento corretos dos sistemas hospitalares e de treinamento padronizado das equipes responsáveis pelos registros nos sistemas afeta diretamente a qualidade dos dados, interferindo na utilização dessas informações para a epidemiologia, avaliação dos serviços e gestão; a qualidade de dados médicos influencia diretamente a qualidade da assistência hospitalar. A medicina baseada em evidências pode ser o meio para se obter a boa prática médica, porém, é necessário que haja confiabilidade e precisão dos dados depositados nas grandes bases de dados para pesquisa de resultados. Sem isto, pode estar havendo um grande engano nesta nova arte. É necessário criar e implementar medidas, tal como a metodologia consolidada para Gerenciamento de Qualidade Total nos Dados (GQTD) proposta por [5] para organizações, que visem a melhoria da qualidade da informação de todos os sistemas de informação em saúde, privados e públicos: padronização dos processos, padronização do preenchimento dos prontuários médicos e demais sistemas e o treinamento das equipes responsáveis pelos registros nos sistemas. Sem a garantia de dados com qualidade na área de saúde, dificilmente se conseguirá atingir um sistema que possa gerar protocolos clínicos e alertas eficientes, permitindo uma disseminação de conhecimento clínico. Alguns problemas de degradação de dados poderiam ser melhorados pelo uso de Banco de Dados Temporais. Alguns elementos de qualidade de dados podem ser controlados pelas próprias regras de negócio ou regras do Sistema Gerenciador de Banco de Dados. Erros de digitação que introduzem erros na base de dados podem ser evitados facilmente através de uma verificação de ortografia ou por seleção de itens. Referências Tayi, G. T., Ballou, D. P. (1998) “Examining Data Quality”, Communications of the ACM, V. 41, no 2, february. Olson, J. E. (2003) Data Quality – The accuracy dimension. San Francisco, CA: Morgan Kaufmann Publishers, ISBN: 1-55860-891-5. Orr, K. (1998) “Data Quality and Systems Theory”, Communications of the ACM, V. 41, no 2, february. Lee, Y. W., Strong, D. M. (2003) “Process Knowledge and Data Quality Outcomes”, Proceedings of the Eighth International Conference on Information Quality (ICIQ-03). Wang, R. Y. (1998) A “Product Perspective on Total Data QualityManagement”, Communications of the ACM, V. 41, no 2, february. Instituto de Combate ao Enfarte do Miocárdio, [http://www.infarctcombat.org/polemica- 34/icem.html] Atallah, A. N. (2004) “A incerteza, a ciência e a evidência”, Revista Diagnóstico & Tratamento, Volume 9 - Edição 1 Jan/Fev/Mar Gouvêa, C. S. D. de, Travassos, C., Fernandes, C. “Production of services and quality of hospital care in a Southeastern State of Brazil - 1992 to 1995”, Rev. Saúde Pública. [online]. Dec. 1997, vol.31, no.6 [cited 07 November 2005], p.601- 617. [http://www.scielosp.org/scielo.php?script=sci_ar ttext&pid=S0034-89101997000700009&lng= en&nrm=iso]. ISSN 0034-8910. Travassos, V.C.M. (1992) Equity in the use of private hospitals contracted by a compulsory insurance scheme in the city of Rio de Janeiro, tese de doutorado, London School of Economics and Political Science, Londres. Melo, E. C. P., Travassos, C., Carvalho, M. S. “Quality of data on myocardial infarction deaths, Brazil”. Rev. Saúde Pública. [online]. June 2004, vol.38, no.3 [cited 07 November 2005], p.385- 391.[http://www.scielo.br/scielo.php?script=sci_a rttext&pid=S0034-89102004000300008&lng =en&nrm=iso]. ISSN 0034-8910. Manual de Requisitos de Segurança, Conteúdo e Funcionalidades para Sistemas de Registro Eletrônico em Saúde (RES), [www.sbis.org.br] Contatos Valéria Farinazzo Martins Salvador valeria@scamilo.edu.br Doutoranda pela USP/Poli - Departamento de Engenharia Elétrica. Av. Prof. Luciano Gualberto, trav.03, nº 158 - São Paulo – SP. Professora do Centro Universitário São Camilo. Raul Pompéia, 144 – CEP 05025-010 - São Paulo – SP Mozart Britto mozartsb@hotmail.com Mestrando pela USP/Poli - Departamento de Engenharia de Computação e Sistemas Digitais. Av. Prof. Luciano Gualberto, trav.03, nº 158- São Paulo – SP. Lincoln A Moura Jr lincoln.moura@vidatis.com.br Presidente da Vidatis - Sistemas de Informação em Saúde. Rua do Rocio, 313 - 5º andar - CEP 04552- 000 - São Paulo, SP. Jorge Rady de Almeida Junior jorge.almeida@poli.usp.br Professor Livre Docente do Departamento de Engenharia de Computação e Sistemas Digitais, Escola Politécnica da Universidade de São Paulo. Av. Prof. Luciano Gualberto, trav.03, nº 158- São Paulo – SP.
Compartilhar