Buscar

Qualidade de Dados para Gestao de Conhec

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

Qualidade de Dados para Gestão de Conhecimento 
na Área de Saúde 
 
Valéria Farinazzo Martins Salvador1,2, Mozart Britto3, Lincoln de Assis Moura Jr.4, Jorge Rady 
de Almeida Junior5
 
1,3,5 USP/Poli - Departamento de Engenharia de Computação e Sistemas Digitais 
 2Centro Universitário São Camilo 
4 Vidatis - Sistemas de Informação em Saúde 
 
 
 
Resumo - A gestão de conhecimento tem sido um dos temas mais discutidos na atualidade. Muitas empresas 
constataram que o capital intelectual constitui-se no recurso mais valioso dentro das organizações. Por outro 
lado, a qualidade de dados passa a ser observada dentro das empresas, pois se começa a perceber que a falta 
de qualidade de dados é um dos principais causadores de perdas de tempo, dinheiro e oportunidades dentro 
dos negócios. Este artigo tem por objetivo apresentar questões sobre qualidade de dados aplicada à gestão de 
conhecimento, especialmente na área de saúde. 
 
Palavras-chave: Qualidade de Dados, Dados Médicos, Gestão do Conhecimento. 
 
Abstract – Knowledge management has been the one of the most discussed subjects currently. Many 
enterprises have understood that intelectual power is the most valuable resource in the organizations. On the 
other hand, data quality has been considered within enterprises, as low qualitiy is the one of the main problems 
leading waste of time, money and business opportunities. This paper presents some issues on data quality 
applied to knowledge management, especially in the healthcare area. 
 
Keywords: Data Quality, Health Information, Knowledge Managment. 
 
 
Introdução 
 
A gestão do conhecimento tem sido um dos 
temas mais abordados nos últimos tempos. 
Notadamente o tema está em voga porque a 
globalização, a preferência por organizações mais 
ágeis e o grande crescimento da tecnologia, 
especialmente na área da informação e das 
telecomunicações, proporcionou o tratamento de 
fatores como a competição, demanda por qualidade 
e processos produtivos mais eficazes, regidos pela 
administração das organizações. 
Por outro lado, a qualidade de dados está 
ganhando cada vez mais a atenção nas 
organizações. As empresas estão descobrindo que 
seus dados possuem, em muitos casos, baixa 
qualidade. Porém, a maioria das pessoas não 
consegue perceber a magnitude do impacto deste 
problema nas organizações. Atividades de correção, 
re-trabalho e re-processamento de pedidos são tidas 
como parte da vida da empresa. No entanto, 
algumas companhias estão descobrindo que as 
questões de qualidade de dados são grandes 
causadoras de perda de dinheiro, tempo e 
oportunidades. O custo da baixa qualidade de dados 
está geralmente escondido e não é óbvio para 
aqueles que não estão especificamente atentos a 
estes problemas. 
Qualidade de dados pode ser definida como 
“adequação ao uso”, o que implica ser este um 
conceito relativo. Dados considerados de qualidade 
apropriada para determinado uso podem não ter 
qualidade suficiente para outro uso [1]. Entenda-se 
também por qualidade de dados o grau de 
aderência entre as visões apresentadas pelo 
sistema de informação e os mesmos dados no 
mundo real. Um sistema com qualidade de dados de 
100% indicaria perfeita aderência com o mundo real, 
enquanto uma qualidade de dados de 0% 
constituiria total falta de aderência. 
Ter um dado preciso é um requisito 
fundamental de bons sistemas de informação; 
porém, a maioria dos sistemas de informação 
contém uma quantidade significativa de dados 
imprecisos. A precisão dos dados não é alcançada 
facilmente; os dados devem receber atenção direta 
durante o processo de concepção do sistema, 
monitoração constante da coleção de dados, e 
ações agressivas para corrigir problemas que 
possam gerar ou propagar imprecisões. Para ter 
dados precisos é necessário um programa formal de 
garantia da qualidade de dados com um 
componente específico dedicado à precisão [2]. 
Tecnologias de gerenciamento de dados têm 
voltado a atenção para os repositórios de dados. 
Muitos sistemas de gerenciamento de bases de 
dados robustos, serviços de replicação de dados, 
suporte à segurança e backup têm sido construídos. 
Também muitas tecnologias de acesso aos dados 
têm sido criadas nestes anos: data warehouse, data 
mart, data mining e tecnologias de suporte à 
decisão. Porém muito pouca coisa tem sido feita 
com relação ao dado propriamente dito. 
O grande ponto é que para haver uma gestão 
do conhecimento válida é necessário que este 
conhecimento (e a informação que o gerou) esteja 
realmente com uma boa qualidade. Caso contrário, 
a organização gerará conhecimento incorreto que 
poderá abalar sua competitividade no mercado. 
 
Metodologia 
 
O presente estudo pode ser definido como 
exploratório descritivo, já que seu propósito não é 
fornecer uma resposta definitiva ao problema 
proposto, mas fornecer uma visão geral da idéia de 
qualidade de dados e como isto pode estar afetando 
os sistemas de informação em saúde. A pesquisa 
está baseada no mapeamento e análise da literatura 
sobre a área de Qualidade de Dados e Informática 
em Saúde, através de pesquisa bibliográfica a livros, 
teses de doutorado, dissertações de mestrado, 
artigos, apresentações e sites. Também foi 
observada a qualidade dos dados de alguns 
sistemas informatizados em hospitais e também 
relatos de profissionais de saúde no que se refere à 
qualidade dos dados percebidos por eles em seu 
trabalho cotidiano. 
 
Resultados 
 
A partir da metodologia deste trabalho, é 
apresentada uma visão geral da área de Qualidade 
de Dados, abordando suas principais características 
e problemas, assim como os principais problemas 
de qualidade de dados inseridos no contexto dos 
sistemas de informação em saúde; também são 
destacadas algumas recomendações para qualidade 
de dados em saúde retiradas do Manual de 
Requisitos de Segurança, Conteúdo e 
Funcionalidades para Sistemas de Registro 
Eletrônico em Saúde (RES). 
 
Dimensões de Qualidade de Dados 
 
Segundo Orr [3], nenhum sistema de 
informação de grande porte tem qualidade de dados 
de 100%. A grande questão não é garantir que a 
qualidade de dados seja perfeita, mas sim que seja 
suficientemente precisa, atualizada e consistente 
para que a organização possa sobreviver e tomar 
decisões com base em dados confiáveis. Alta 
qualidade de dados significa que os dados estão 
adequados para serem usados por seus 
consumidores. 
Um dado tem qualidade se satisfaz os 
requisitos de uso desejados; para isto, o dado deve 
ser [2], [4]: 
• Preciso: é a medida de quão correto, quão 
livre de erros, quão próximo está este dado 
do fato verdadeiro. É medida fundamental 
da qualidade de dados; se um dado não é 
correto, as outras dimensões são menos 
importantes. Para ser correto, um valor deve 
ser certo e deve ser representado de uma 
forma consistente e sem ambigüidade. 
• Disponível em tempo: os dados estão 
suficientemente atualizados para as tarefas 
que os necessitam; 
• Relevante: importante para o tomador de 
decisões em um contexto; é útil e aplicável à 
tarefa em questão; 
• Completo: deve conter todos os fatos 
importantes, na amplitude e profundidade 
adequadas às suas necessidades; 
• Simples/Compreendido: evitando a 
chamada “sobrecarga de informação”; 
• Confiável: dependente da fonte ou método 
de coleta. 
Estas são características observáveis e 
passíveis de serem medidas e avaliadas. Embora 
as características apontadas acima sejam 
bastante disseminadas na literatura, outras 
classificações podem ser encontradas, como a 
encontrada em [5], que traz 16 dimensões para a 
qualidade de dados: livre de erro, objetividade, 
reputação, credibilidade, relevância, valor 
adicionado, em tempo, completude, quantidade 
apropriada de informação, capacidade de 
interpretação, compreensão, representaçãoconsistente, representação concisa, facilidade de 
manipulação, acessibilidade e segurança. 
 
Problemas de Qualidade de Dados 
 
São inúmeros os fatores que causam 
problemas de imprecisão em uma base de dados, 
entre eles [2]: 
• Entrada Inicial de Dados com Problema: 
entre os quais: digitação incorreta, seleção 
incorreta de um item em um formulário, 
valores corretos em campos errados, 
campos no formulário que confundem o 
usuário; erros intencionais ocasionados 
porque: o usuário não conhece o dado 
correto, mas precisa/ quer terminar de 
preencher o formulário; o usuário não quer 
que o dado correto seja conhecido por 
considerar invasão de privacidade, comum 
em sistemas de relacionamento com o 
cliente (CRM) e Internet; a entrada incorreta 
de dados pode gerar um benefício para o 
usuário; 
• Degradação: dados inicialmente corretos 
que, com o passar do tempo, tornaram-se 
inadequados. É o caso, por exemplo, de 
dados pessoais de um paciente que nunca 
tenham sido atualizados; 
• Mudanças e Reestruturação: dados 
imprecisos que são gerados a partir de 
dados perfeitamente corretos nos processos 
de mudanças e reestruturação. Estes 
processos são comumente usados para 
extrair dados de bases de dados 
operacionais, sendo inseridos em data 
warehouses e data marts, consolidação de 
servidores e migração para pacotes de 
software (ERP, por exemplo). Os principais 
problemas estão relacionados à falta de 
compreensão total das bases de dados 
origem e destino quando se migram os 
dados e ao fato de que sistemas fonte 
dificilmente são projetados para sofrerem 
mudanças. Entre os principais problemas 
pode-se citar: 
o Campos Overloaded: contêm 
informações sobre múltiplos e diferentes 
fatos armazenados. Isto acontece 
quando, ao invés de criar um novo 
campo para uma nova informação, se 
re-aproveita um campo existente. Um 
exemplo disso é utilizar o campo NOME 
com a informação MORTO se a pessoa 
já faleceu. O problema de campos 
overloaded é que raramente são 
documentados; 
o Matching entre Base de Dados Origem 
e Destino: os problemas surgem quando 
não há um total entendimento de ambos 
sistemas (origem e destino) ou quando a 
combinação entre estas bases de dados 
não é óbvia, tais como: a representação 
diferente de valores, por exemplo, em 
um sistema o campo SEXO é “f” e “m” e 
em outro 1 e 2; o escopo de valores 
pode diferir - um sistema tem dois tipos 
possíveis para um campo, e o outro 
deve ter três; um sistema pode guardar 
informações de um nível mais baixo de 
granularidade do que o outro; 
o Extração: normalmente envolve a leitura 
da base de dados origem e a construção 
de arquivos de saída para serem usados 
nos processos subseqüentes. Os 
arquivos de saída são, quase sempre, 
esperados em uma forma normalizada. 
Dependendo da complexidade de como 
os dados estão armazenados no 
sistema origem, normalizá-los pode ser 
uma tarefa bastante árdua que está 
suscetível a todos os tipos de erros; 
o Limpeza de registros de dados: envolve 
identificar valores incorretos de dados e 
então corrigi-los ou rejeitá-los. Os 
problemas ocorrem quando se tem uma 
falta de entendimento do dado-fonte e 
os valores que tem um especial 
significado são rejeitados, ou quando 
rotinas de limpeza de registros de dados 
rejeitam um valor que é claramente 
retificável (por exemplo, uma digitação 
errada). Estas rotinas podem identificar 
valores errados, mas geralmente não 
podem corrigi-los; 
o Transformações: A rotina de transformar 
o valor, sem afetar o conteúdo - por 
exemplo, sexo indicado como "1" e "2" 
para "M" e "F" - pode conter 2 áreas 
principais de problemas: code page 
crossovers (por exemplo, migração de 
dados com caracteres especiais para 
uma base de dados que não possua 
esta representação) e translação de 
moeda (uso inadequado de um valor 
sem as casas decimais, que mal 
compreendido, leva à migração de 
valores maiores); 
o Carga: No último passo do processo de 
migração, em que já está definida 
apropriadamente a base de dados 
destino, o problema que pode surgir é 
quando deve-se considerar uma 
quantidade maior de fontes, sendo 
necessário assegurar que todos os 
dados de todas as fontes obtidas serão 
carregados ao mesmo tempo para criar 
um sistema destino completo. Uma das 
principais questões de data warehouse 
e de data mart é garantir que isto seja 
feito e que os dados não estarão 
liberados para a comunidade de 
usuários até que a carga completa seja 
realizada. Outra questão é o que fazer 
se os dados são rejeitados com relação 
a questões de tipos de dados, definição 
de chaves e violações. 
• Uso de Dados: no processo de inserção de 
dados em objetos de negócios tais como 
relatórios, consultas na tela e portais, e seu 
uso subseqüente pelos profissionais de 
negócio, pode haver imprecisão se o usuário 
não compreender o significado deste dado 
(mesmo correto) ou se o contexto em que 
ele está inserido, sua interpretação e uso 
estiverem com problema. 
 
Qualidade de Dados Médicos para Gestão do 
Conhecimento 
 
A gestão do conhecimento aplicada ao 
Prontuário Eletrônico do Paciente (PEP) poderia 
incluir protocolos clínicos gerados a partir de dados 
comprovadamente positivos de diagnósticos, 
exames, tratamentos e prescrições; alertas sobre 
combinação de medicamentos errados; experiências 
de médicos relatadas no PEP; casos clínicos dentro 
e fora do hospital; e casos semelhantes. Isto pode 
ser conseguido, em parte, através da medicina 
baseada em evidências. 
A medicina baseada em evidências tem sido 
considerada como um paradigma a ser seguido para 
se obter a boa prática médica, podendo ser utilizada 
como a melhor evidência corrente para tomada de 
decisão para o cuidado médico de pacientes 
individuais, que possibilitará maiores chances de 
efetividade, eficiência e segurança. A medicina 
baseada em evidências parte do princípio de que as 
ferramentas e técnicas recentemente desenvolvidas 
poderiam ajudar profissionais da saúde a 
entenderem melhor o que funciona no tratamento 
dos pacientes, reduzindo incertezas. 
A redução da incerteza pode ser feita pelo 
“desenvolvimento da pesquisa de resultados, com 
estudos sistemáticos e de larga escala, para 
verificação dos efeitos das diferentes ferramentas de 
diagnósticos ou terapias, quando aplicadas a um 
largo número de pacientes”, podendo diminuir o 
efeito do acaso. Esta prática foi facilitada pelo uso, 
em grande escala, de computadores para 
armazenamento e análise de dados médicos e a 
padronização de dados de combate e de tratamento 
disponibilizando, teoricamente, o conhecimento mais 
preciso e certo sobre o que é, e o que não é a 
terapia efetiva [6], [7]. 
Gouvêa et al [8] já relatavam problemas 
devido à qualidade de dados para a verificação da 
qualidade dos serviços de saúde. Eles explicam que 
as bases de dados projetadas para fins 
administrativos dentro das instituições de saúde 
oferecem grandes vantagens para avaliação de 
qualidade por conterem grande volume de dados, 
disponíveis com grande proximidade da ocorrência 
da internação, reduzindo consideravelmente o custo 
das avaliações. Porém, algumas desvantagens 
podem ser apontadas: insuficiência de dados para 
distinguir pacientes com níveis de gravidade 
distintos; baixa qualidade dos dados – informações 
demográficas mostram-se mais confiáveis que 
informações médicas, tais como diagnósticos e 
tratamentos. Em estudos realizados sobre o ano de 
1986, [9] apud [8] já tratava sobre confiabilidade em 
um estudo realizado em rede privada credenciada 
ao INAMPS, no Rio de Janeiro. O item de menor 
confiabilidade foi o de diagnóstico principal, 
enquanto que o procedimento realizado, os óbitos e 
as transferências mostraram ser os itens com 
melhor grau de confiabilidade. Outro problemagrave 
é a não inclusão de diagnósticos secundários, 
impossibilitando a classificação do paciente por 
níveis de gravidade. 
 
Problemas de Qualidade de Dados Médicos 
 
É sabido que os dados em saúde são 
especiais, pois são muito variados, muito pouco 
estruturados, altamente volumosos, gerados e 
utilizados em uma estrutura complexa: os serviços 
de saúde. 
Verifica-se que o desenvolvimento e o uso 
inadequado dos sistemas em saúde comprometem 
a qualidade de dados. Entre os principais 
problemas, podem ser destacados: 
• A precisão dos dados é comprometida por: 
preenchimento oportuno de campos para, 
por exemplo, aprovação de exames e 
pagamentos, evitando glosas; 
preenchimento incorreto por falta de 
treinamento no sistema; digitação incorreta 
por pressa ou falta de experiência; reentrada 
de dados em diferentes sistemas causando 
inconsistências ou duplicidades; 
• Falta de comprometimento e entendimento 
por parte dos usuários do sistema sobre a 
necessidade de se registrar as informações 
no momento em que o fato ocorre. Por 
exemplo: uma liberação de quarto, que não 
seja efetivada no momento, pode gerar uma 
cobrança a mais de diárias; 
• Difícil identificação da relevância dos dados: 
no PEP torna-se difícil compreender o que é 
relevante, pois há uma quantidade muito 
grande de informações e uma equipe 
multidisciplinar envolvida; 
• Falta de completude: nem sempre são 
preenchidos todos os campos necessários 
por pressa ou falta de comprometimento do 
profissional ou falta da informação; 
• Além disto, a grande maioria dos sistemas 
em saúde não possui um bom design de 
interface, necessitando um grande esforço 
cognitivo de pessoas, muitas vezes, leigas, 
na utilização de sistemas computadorizados 
e com campos que podem confundir o 
usuário. 
Uma conseqüência de dados com baixa 
qualidade na área médica é citada por [10] que diz 
que análises realizadas, no Estado do Rio de 
Janeiro e região metropolitana de São Paulo, entre 
1996 e 1998, sobre a qualidade dos dados sobre a 
mortalidade hospitalar por infarto agudo do 
miocárdio (IAM), foram constatados que o número 
de óbitos notificados no Sistema de Informação 
Hospitalar do SUS (SIH/SUS) foi bastante inferior ao 
notificado no Sistema de Informação de Mortalidade 
(SIM). Isto sugere a existência de problemas na 
notificação de mortes por IAM entre esses sistemas 
de informação, que poderiam estar relacionados à 
sub-notificação de admissões por IAM no SIH/SUS e 
erros na escolha do diagnóstico principal. 
 
Recomendações para Sistemas de Registro 
Eletrônico em Saúde (RES) 
 
Através do Manual de Requisitos de 
Segurança, Conteúdo e Funcionalidades para 
Sistemas de Registro Eletrônico em Saúde [11] é 
possível verificar que algumas recomendações têm 
sido feitas quanto à qualidade de dados em saúde, 
entre as quais podem ser citadas: 
• Dados Seguros e Confiáveis: políticas de 
controle de acesso por perfis ou grupos; 
permissão somente para inserção de dados, 
exclusões e alterações de dados já 
cadastrados não devem ser permitidas; 
mecanismos de certificação de origem para 
garantir comunicação segura entre servidor 
e estações; somente conexões de rede 
autorizadas possam manipular e visualizar 
informações da base de dados; criptografia 
de dados para comunicação na rede; 
• Precisão: garantia da integridade dos 
dados; adoção de padrões para representar, 
de forma não-ambígua, informações sobre 
pacientes, profissionais envolvidos, local, 
data e hora; regras claras de consistência 
para entrada e acréscimos de dados; 
• Simplicidade: as informações do RES 
devem ser armazenadas em diferentes 
seções para facilitar a consulta, a 
navegação e seu uso secundário: dados 
epidemiológicos, gestão e faturamento; 
armazenamento de dados simples, 
preservando a associação entre nome do 
dado e seu valor; 
• Complexidade e Relevância: clara 
especificação de todos os dados que devem 
compor o RES; capacidade de registrar 
qualquer tipo de informação relevante à 
assistência ao paciente; suportar o processo 
de assistência integral incluindo cuidados 
multidisciplinares e em diferentes níveis de 
atenção em saúde. 
 
Discussão e Conclusões 
 
Atualmente, a qualidade de dados começa a 
ganhar ênfase nas organizações e percebe-se que 
ela é responsável por perdas de tempo, dinheiro e 
oportunidades. Porém, é preciso tratá-la não como 
um processo natural, mas como algo que pode ser 
melhorado. Infelizmente, em muitas organizações, a 
questão de qualidade de dados recebe baixa 
prioridade. 
O conceito de qualidade de dados ficou 
melhor compreendido no sentido de “adequação ao 
uso”, evidenciando tratar-se de um conceito relativo, 
em que a qualidade de dados de um sistema pode 
ser suficiente em um contexto mas ser inadequada 
em outro. Para que uma organização possa 
dimensionar a quantidade de esforço e recursos a 
serem exigidos para garantir a qualidade dos dados, 
é essencial que se determine o nível de qualidade 
de dados necessário para a organização. Esta tarefa 
é, geralmente, bastante complexa, uma vez que 
diferentes usuários têm diferentes necessidades. 
Além disso, há o problema da semântica, pois para 
um usuário que tem profundo contato com os dados 
e suas nuances, o significado que ele atribui à 
informação pode ser muito diferente de outros 
usuários [1]. 
Na área de saúde, a ausência de regras 
explícitas em relação à emissão e ao preenchimento 
corretos dos sistemas hospitalares e de treinamento 
padronizado das equipes responsáveis pelos 
registros nos sistemas afeta diretamente a qualidade 
dos dados, interferindo na utilização dessas 
informações para a epidemiologia, avaliação dos 
serviços e gestão; a qualidade de dados médicos 
influencia diretamente a qualidade da assistência 
hospitalar. 
A medicina baseada em evidências pode ser 
o meio para se obter a boa prática médica, porém, é 
necessário que haja confiabilidade e precisão dos 
dados depositados nas grandes bases de dados 
para pesquisa de resultados. Sem isto, pode estar 
havendo um grande engano nesta nova arte. 
É necessário criar e implementar medidas, tal 
como a metodologia consolidada para 
Gerenciamento de Qualidade Total nos Dados 
(GQTD) proposta por [5] para organizações, que 
visem a melhoria da qualidade da informação de 
todos os sistemas de informação em saúde, 
privados e públicos: padronização dos processos, 
padronização do preenchimento dos prontuários 
médicos e demais sistemas e o treinamento das 
equipes responsáveis pelos registros nos sistemas. 
Sem a garantia de dados com qualidade na 
área de saúde, dificilmente se conseguirá atingir um 
sistema que possa gerar protocolos clínicos e 
alertas eficientes, permitindo uma disseminação de 
conhecimento clínico. 
Alguns problemas de degradação de dados 
poderiam ser melhorados pelo uso de Banco de 
Dados Temporais. Alguns elementos de qualidade 
de dados podem ser controlados pelas próprias 
regras de negócio ou regras do Sistema 
Gerenciador de Banco de Dados. Erros de digitação 
que introduzem erros na base de dados podem ser 
evitados facilmente através de uma verificação de 
ortografia ou por seleção de itens. 
 
Referências 
 
Tayi, G. T., Ballou, D. P. (1998) “Examining Data 
Quality”, Communications of the ACM, V. 41, no 
2, february. 
 
Olson, J. E. (2003) Data Quality – The accuracy 
dimension. San Francisco, CA: Morgan 
Kaufmann Publishers, ISBN: 1-55860-891-5. 
 
Orr, K. (1998) “Data Quality and Systems Theory”, 
Communications of the ACM, V. 41, no 2, 
february. 
 
Lee, Y. W., Strong, D. M. (2003) “Process 
Knowledge and Data Quality Outcomes”, 
Proceedings of the Eighth International 
Conference on Information Quality (ICIQ-03). 
 
Wang, R. Y. (1998) A “Product Perspective on Total 
Data QualityManagement”, Communications of 
the ACM, V. 41, no 2, february. 
 
Instituto de Combate ao Enfarte do Miocárdio, 
[http://www.infarctcombat.org/polemica-
34/icem.html] 
 
Atallah, A. N. (2004) “A incerteza, a ciência e a 
evidência”, Revista Diagnóstico & Tratamento, 
Volume 9 - Edição 1 Jan/Fev/Mar 
 
Gouvêa, C. S. D. de, Travassos, C., Fernandes, C. 
“Production of services and quality of hospital 
care in a Southeastern State of Brazil - 1992 to 
1995”, Rev. Saúde Pública. [online]. Dec. 1997, 
vol.31, no.6 [cited 07 November 2005], p.601-
617. 
[http://www.scielosp.org/scielo.php?script=sci_ar
ttext&pid=S0034-89101997000700009&lng= 
en&nrm=iso]. ISSN 0034-8910. 
 
Travassos, V.C.M. (1992) Equity in the use of private 
hospitals contracted by a compulsory insurance 
scheme in the city of Rio de Janeiro, tese de 
doutorado, London School of Economics and 
Political Science, Londres. 
 
Melo, E. C. P., Travassos, C., Carvalho, M. S. 
“Quality of data on myocardial infarction deaths, 
Brazil”. Rev. Saúde Pública. [online]. June 2004, 
vol.38, no.3 [cited 07 November 2005], p.385-
391.[http://www.scielo.br/scielo.php?script=sci_a
rttext&pid=S0034-89102004000300008&lng 
=en&nrm=iso]. ISSN 0034-8910. 
 
Manual de Requisitos de Segurança, Conteúdo e 
Funcionalidades para Sistemas de Registro 
Eletrônico em Saúde (RES), [www.sbis.org.br] 
 
Contatos 
 
Valéria Farinazzo Martins Salvador 
valeria@scamilo.edu.br 
Doutoranda pela USP/Poli - Departamento de 
Engenharia Elétrica. Av. Prof. Luciano Gualberto, 
trav.03, nº 158 - São Paulo – SP. 
Professora do Centro Universitário São Camilo. Raul 
Pompéia, 144 – CEP 05025-010 - São Paulo – SP 
 
Mozart Britto 
mozartsb@hotmail.com 
Mestrando pela USP/Poli - Departamento de 
Engenharia de Computação e Sistemas Digitais. Av. 
Prof. Luciano Gualberto, trav.03, nº 158- São Paulo 
– SP. 
 
Lincoln A Moura Jr 
lincoln.moura@vidatis.com.br 
Presidente da Vidatis - Sistemas de Informação em 
Saúde. Rua do Rocio, 313 - 5º andar - CEP 04552-
000 - São Paulo, SP. 
 
Jorge Rady de Almeida Junior 
jorge.almeida@poli.usp.br 
Professor Livre Docente do Departamento de 
Engenharia de Computação e Sistemas Digitais, 
Escola Politécnica da Universidade de São Paulo. 
Av. Prof. Luciano Gualberto, trav.03, nº 158- São 
Paulo – SP.

Outros materiais