Prévia do material em texto
1UNIDADE: BIOQUÍMICA CLÍNICA LABORATÓRIO CLÍNICO: DA TEORIA À PRÁTICA Heloísa Ciol OLÁ! Você está na unidade Laboratório clínico: da teoria à prática. Conheça aqui a dinâmica de um laboratório de análises clínicas desde a coleta até o processamento das amostras; como esse laboratório se estrutura, que inclui o ambiente físico da coleta, os equipamentos necessários para realização dos exames e quais as principais técnicas utilizadas para exames de diagnóstico clínico. Aprenda sobre a importância do equilíbrio hidroeletrolítico e ácido-base no diagnóstico clínico, além dos conceitos fisiopatológicos de uma doença de grande importância de saúde pública: a diabetes mellitus. Estude as características dessa patologia, suas classificações, quais exames são indicados para o seu diagnóstico e como interpretá-los com base nos conhecimentos de fisiologia que a unidade proporciona. Bons estudos! 1 Dinâmica do laboratório na coleta de amostras Laboratórios ou postos de coleta de material para exames são estruturas físicas de entidades públicas ou particulares que fornecem atendimento e orientação para pacientes que precisam realizar coletas de material biológico para diversas finalidades de exames. A estrutura desses laboratórios precisa seguir recomendações técnicas para estabelecer um fluxo de trabalho que não comprometa as amostras nem a saúde dos profissionais (BRASIL, 2002b). 1.1 Biossegurança e proteção individual adequada Os profissionais que realizam coletas, chamados de flebotomistas, precisam de equipamentos de proteção individual (EPI) antes de entrar em contato com o paciente. Confira os principais equipamentos utilizados no quadro abaixo. Quadro 1 - Itens essenciais de equipamento de proteção individual (EPI)Fonte: Elaborado pela autora, baseado em BRASIL, 2002b. #PraCegoVer: na imagem, há um quadro trazendo os principais itens de segurança que devem ser utilizados por um profissional de coleta, bem como suas respectivas funções. 1.2 Cuidados com materiais perfurocortantes Materiais contaminantes como seringas, tubos e agulhas devem ser descartáveis e de uso exclusivo e individual para o paciente. Após o uso, esses materiais devem ser descartados em caixa exclusiva para descarte de perfurocortantes. Uma vez cheias, as caixas para descarte devem ser recolhidas pelo serviço de coleta hospitalar da cidade ou região (BRASIL 2002). 1.3 Coleta de sangue Para a coleta de sangue, o profissional deve estar devidamente paramentado para a realizar a coleta. Após colocar o garrote, o profissional deve solicitar que o paciente abra e feche as mãos, e o local da punção deve ser limpo com isopropanol, álcool etílico 70% ou solução de iodeto antes de inserir a agulha. 1.4 Amostras Se as amostras forem coletadas com seringa, devem ser despejadas gentilmente no tubo, de forma a escorrer pelas laterais do tubo, para evitar hemólise. Amostras coletadas diretamente em tubos a vácuo devem ser misturadas por inversão de cinco a dez vezes antes de levadas para transporte. As amostras devem ser protegidas da exposição direta à luz, principalmente em exames cujos compostos analisados podem degradar facilmente se expostos a ela (exemplo: bilirrubina) (BRASIL, 2002b). 1.5 Transporte para o laboratório As amostras coletadas devem ser acondicionadas em sacos plásticos, caixa térmica e, caso precisem ser levadas a um laboratório fora da planta do posto de coleta, em caixa com gelo, de preferência, reciclável, atentando para que as amostras não fiquem em contato direto com o gelo. 1.6 Processamento O tempo de armazenagem interfere diretamente na contagem de plaquetas em análises hematológicas. Amostras de soro devem ser centrifugadas imediatamente após a coagulação para análise. Amostras de plasma precisam ser centrifugadas imediatamente após a coleta. Após tais processos, as amostras devem ser mantidas refrigeradas e, preferencialmente, sem troca de tubos. 2 Coleta de sangue para exames: a venopunção Agora, vamos estudar um pouco mais sobre punção de sangue venoso, também conhecido como venopunção. Além da técnica para a coleta de sangue, existem, ainda, diferentes itens de coleta que merecem a devida atenção, os quais serão destacados neste tópico. 2.1 Local da punção e o preparo do profissional flebotomista Os flebotomistas devem escolher veias calibrosas, comumente localizadas na parte interna do braço, um pouco abaixo da dobra do cotovelo. Essa região recebe o nome de fossa antecubital, e por ela passam várias veias próximas à pele, que facilitam a visualização e a punção. Dentre essas veias, a de maior interesse para o profissional de coleta de sangue em laboratório clínico são as veias cefálica, basílica, cefálica mediana e cubital mediana, que são identificadas na figura abaixo. Figura 1 - Veias principais do braço utilizadas na venopunçãoFonte: Blamb, Shutterstock, 2020. #PraCegoVer: na imagem, há a figura frontal de um braço em posição anatômica apresentando as principais veias que participam da circulação, dentre elas as veias cefálica, basílica, cefálica mediana e cubital mediana. As veias do dorso da mão podem ser usadas caso o acesso às veias da fossa antecubital não esteja disponível. Veias nos membros inferiores só devem ser puncionadas com autorização médica, por aumentarem o risco de flebites, tromboses ou mesmo necrose tissular (SUMITA, 2010). Uma vez identificada a veia para punção, o profissional deve solicitar ao paciente que abaixe o braço e abra e feche as mãos, para relaxar a musculatura e reduzir a pressão no interior dos vasos antes de proceder com o uso do garrote ou torniquete. 2.2 Garrote ou torniquete É utilizado para aumentar a pressão interna dos vasos e facilitar a coleta de sangue nos tubos de ensaio. Pode ser de uso individual ou não e, preferencialmente, não devem ser de látex, pois vários pacientes têm alergia a esse tipo de material. Caso ocorra contaminação do torniquete com sangue do paciente, deve ser descartado imediatamente em local adequado. O torniquete deve ser posicionado de 7,5 cm a 10 cm acima da fossa antecubital e sua aplicação não deve exceder o tempo de um minuto. Tempos maiores que um minuto levam a alterações laboratoriais, pois a estase sanguínea leva a um quadro de hemoconconcetração e infiltração de sangue para os tecidos, refletindo em alteração do volume celular, hemólise e nos índices de íons potássio e cálcio e homólise. 2.3 Recomendações ao paciente Ao paciente que fará o exame, recomenda-se jejum adequado conforme o exame indicado (o tempo de jejum varia de acordo com a análise que será realizada) antes de realizar a coleta. Na sala de coleta, deve ser acondicionado em cadeira com um suporte para braço, que deve estar a uma altura abaixo da altura do ombro e que permita que o paciente fique com o braço esticado ou levemente inclinado para baixo durante a coleta. 3 Interferências nos exames laboratoriais Embora pareça simples, a coleta de sangue é uma tarefa que exige concentração, cuidado e habilidade do flebotomista para evitar interferência nos resultados coletados. Neste tópico, você verá quais fatores são responsáveis pelas variações em resultados e como a conduta do paciente e do profissional de saúde são imprescindíveis para evitar resultados equivocados por má conduta da coleta, processamento ou análise das amostras. 3.1 Relação do paciente com os resultados do exame Diversos exames podem sofrer alterações se colhidos em condições inadequadas. No quadro abaixo estão alguns fatores que influenciam em variações nos exames. Quadro 2 - Fatores de interferência em exames e sua relação com o resultadoFonte: Elaborado pela autora, baseado em SUMITA, 2010. #PraCegoVer: na imagem, há um quadro contendo os fatores que influenciam nos resultados dos exames no ato da coleta e quais são as implicações desses fatores nos resultados esperados. 3.2 Amostras e variações: a influência da conduta do profissional e do cuidado das amostras A estabilidade das amostras coletadas é crucial para uma boa análise e um bom resultado clínico dosexames. O tempo de espera, temperatura e condições de transporte têm grande papel na manutenção da qualidade das amostras, uma vez que variações bruscas de temperatura, choques mecânicos ou permanência prolongada das amostras antes do processamento podem contribuir para agregação de moléculas, hemólise e reações enzimáticas que muitas vezes comprometem a análise. Idealmente, a amostra não deve exceder o tempo de espera de uma hora antes do início do processamento. Análises que utilizarão soro ou plasma devem ser centrifugadas após a coagulação do sangue, quando necessário, e mantidas sob refrigeração até o início das análises. A temperatura tem um papel fundamental na qualidade das amostras, pois muitos compostos, como enzimas e fatores de coagulação, são termoinstáveis. Caso o material precise ser enviado para um outro laboratório para análise, o laboratório precisa seguir as diretrizes da terceirização, destacadas na Lei nº 6.019, de 1974, na Lei nº 7.102, de 1983, e nas diretrizes da Resolução GMC 50/08, de 2009, documentos que contêm toda a regulamentação técnica para transporte de substâncias infecciosas e amostras biológicas (SUMITA, 2010). 4 Fases do exame: pré-analítica, analítica e pós-analítica Os exames laboratoriais podem ser categorizados em três fases distintas de acordo com o estágio do processo de coleta: pré-analítica, analítica e pós-analítica. No quadro abaixo, temos as colunas correspondentes a cada uma das fases, destacando os estágios, principais fontes de erro e contribuição percentual de erro de cada uma dessas fases para a qualidade e confiabilidade dos resultados. Quadro 3 - Fases laboratoriais: estágios e principais erros envolvidosFonte: Elaborado pela autora, baseado em SILVA et al., 2015. #PraCegoVer: na imagem, há um quadro com três colunas, separadas em fase pré-analítica, analítica e pós-analítica. Essas colunas trazem informações de estágios de cada uma dessas fases, bem como os principais erros envolvidos em cada uma delas, além de informar o quanto cada fase corresponde, percentualmente, aos erros relacionados à qualidade e confiabilidade de resultados. 5 Estrutura física do posto de coleta As dimensões da estrutura física do posto de coleta podem variar conforme as necessidades da região. De qualquer forma, segundo a normativa da ANVISA RDC 50/02 (BRASIL, 2002a), é obrigatório que os postos de coleta sigam as regras de dimensão física: ● recepção para registro de pacientes, com cadeiras para espera; ● box de coleta com 1,5 m2 ou sala de coleta com pelo menos 3,6 m2; ● um dos boxes precisa ter maca e dimensões para tal; ● sanitários; ● O número de box deve suprir a demanda de 1 para 15 coletas/hora. Quanto à construção e estrutura física, o local deve ter: ● pisos e paredes revestidos de material de fácil limpeza e lavagem, sem frestas; ● bancadas com cantos arredondados feitas de materiais com baixa ou nenhuma porosidade; ● prateleiras devem ser de materiais laváveis, devendo ter portas se localizadas acima da cabeça dos funcionários; ● pia para higienização das mãos. As normativas se estendem, ainda, para a arquitetura do prédio, e o posto de coleta e o laboratório devem: ● respeitar o espaço mínimo para conforto dos pacientes; ● ter construções resistentes ao fogo; ● saídas de emergências devidamente sinalizadas; ● portas e corredores com largura adequada; ● proteção automática contra incêndio. É importante que haja aparelhos para desinfecção, como autoclaves, nos postos de coleta, além de centrífugas e banho-maria para auxiliar nas fases de pré-processamento das amostras, quando necessário. 5.1 Limpeza e desinfecção das facilidades A solução de hipoclorito de sódio na concentração de 1% é uma ótima solução desinfetante e deve ser utilizada para limpeza de geladeiras, banho-maria e vidrarias (que devem permanecer em molho por 30 minutos antes de serem lavadas). As macas e prateleiras devem permanecer sempre limpas e higienizadas (BRASIL, 2002b). 5.2 Descarte de materiais perfurocortantes Todos os materiais perfurocortantes utilizados na coleta devem ser descartados em recipiente com paredes rígidas e resistentes à perfuração, como caixas coletoras específicas, até o preenchimento de dois terços de sua capacidade. As caixas devem ser fechadas e seladas corretamente antes de serem encaminhados para a coleta específica, seguindo as normativas da Associação Brasileira de Normas Técnicas – ABNT (NBR 12.810/93) (BRASIL, 2002b). 6 Materiais utilizados na coleta em bioquímica clínica Neste momento, adentaremos um pouco mais a fundo nos itens necessários para fazer a coleta de sangue do paciente, como seringas, agulhas e tubos. Para isso, vamos recapitular os passos necessários até aqui para que o profissional esteja preparado para a coleta, de forma a minimizar ou mesmo eliminar os erros relacionados à qualidade do exame: ● Verificar se o paciente está preparado corretamente para o exame (jejum, dieta, repouso). ● Checar todos os pedidos de exame e identificar corretamente os tubos de coleta. ● Uso correto de EPIs para segurança do profissional. ● Escolha da veia para venopunção. ● Uso do garrote ou torniquete e suas orientações. 6.1 Venopunção: posição da agulha e recomendações A punção venosa pode ser feita tanto com sistemas a vácuo quanto com seringa e agulha. Vamos ver a diferença entre eles na próxima seção, mas, independente da escolha, a técnica de venopunção é a mesma para ambos, e deve ser monitorada para evitar inserções erradas ou perfurações dos vasos. 6.2 Tipos de agulha As agulhas para procedimentos possuem três partes: canhão, haste ou corpo e biesel. O canhão é a parte que se encaixa à seringa; o corpo ou haste é a agulha propriamente dita; e biesel é o nome que se dá à ponta da agulha, que pode ser bifacetado, trifacetado e tratado com silicone ou não. Uma quantidade maior de faces e o tratamento com silicone permitem uma penetração mais suave da agulha na pele do paciente. Figura 2 - Agulha para procedimentos e suas partesFonte: Alexander Baumann, Shutterstock, 2020. #PraCegoVer: a imagem mostra uma seringa preenchida com líquido vermelho e uma agulha acoplada a ela, com o intuito de identificar o canhão, a haste e o biesel da agulha. Nos sistemas de punção a vácuo, as agulhas não possuem canhão, mas sim uma outra ponta, geralmente protegida por um adaptador de sistema a vácuo para que o tubo possa ser inserido, aspirando o sangue da veia devido à presença do vácuo no interior dos tubos. O calibre e o tamanho da agulha podem variar conforme a idade do paciente. 6.3 A técnica para a punção A punção venosa deve ser feita suavemente, formando um ângulo de 15° entre a agulha e o braço, com o biesel da agulha voltado para cima até que o sangue flua livremente pela agulha. Uma vez que o sangue entrar no biesel, o flebotomista pode soltar o torniquete do paciente. No caso do uso de seringas, o profissional deve puxar o êmbolo lentamente para evitar hemólise. Nos sistemas a vácuo, o profissional deve encaixar gentilmente o tubo na seringa localizada dentro do adaptador de sistema a vácuo. O esquema ilustrado abaixo, baseado em Silva et al. (2015), mostra a técnica correta de inserção da agulha a 15°, além de três exemplos de inserções incorretas que podem prejudicar a coleta de sangue do paciente. Figura 3 - Técnica de inserção da agulha para punção venosa e exemplos de inserções incorretasFonte: Elaborada pela autora, baseada em SILVA et al., 2015. #PraCegoVer: a imagem mostra um esquema de uma agulha inserida corretamente na pele até atingir uma veia e três exemplos de inserções incorretas em relação à posição do biesel (virado para baixo), inserção parcial ou além da veia. 6.4 O uso de seringas e agulhas As seringas foram usadas como método para punções venosas até meados da década de 1940, quando surgiram os sistemas de punção a vácuo. Atualmente, a venopunção com seringas é pouco usada, sendo substituída na grande maioria dos postos pela coleta com sistema a vácuo. O sistema de coleta com seringas é tambémchamado de sistema aberto, pois o sangue do paciente precisa ser realocado aos tubos após a coleta. O uso de seringas na coleta aumenta o risco de erros e perda da qualidade das amostras na fase pré-analítica, pois o profissional precisa coletar o sangue e depois repassá-lo aos tubos de ensaio. Isso pode levar a erros na transferência do material, aumentar o risco de contaminação das amostras e reduzir a qualidade do material colhido para exame. Além disso, aumenta o risco de contaminação do profissional de saúde pela exposição direta ao sangue do paciente. 6.5 O sistema de coleta a vácuo O sistema de coleta a vácuo é também chamado de sistema fechado, pois o sangue do paciente não precisa de transferências entre tubos, pois já é coletado isoladamente no tubo de análise. O sistema consiste em uma agulha acoplada a um adaptador de vácuo que protege tanto o profissional da coleta quanto a amostra, pois o encaixe de cada tubo à agulha é protegido por esse adaptador. Em alguns casos, dependendo do acesso à veia do paciente ou da quantidade de material para a coleta, o flebotomista também pode optar pelo uso de um escalpe. Figura 4 - Sistema de coleta de sangue a vácuo Fonte: Andrii Bezvershenko, Shutterstock, 2020. #PraCegoVer: a imagem mostra um sistema de coleta de sangue a vácuo, que consiste em uma agulha acoplada a um sistema adaptador de tubos, onde a outra extremidade da agulha fica protegida e onde os tubos de coleta serão acoplados para a coleta. 6.6 Tipos de tubos de coleta Os tubos de coleta de sangue podem ser de vidro ou de plástico. Os feitos em vidro são menos resistentes a choques mecânicos e altas velocidades de centrifugação, não têm tanta flexibilidade para serem usados diretamente em equipamentos e, além disso, oferecem maior risco por quebrarem facilmente (SILVA et al., 2015). Ainda, as paredes dos tubos de vidro podem interferir em exames laboratoriais, principalmente os que investigam fatores da cascata de coagulação (SILVA et al., 2015). Os tubos de plástico, por sua vez, apresentam maior resistência a choques mecânicos e conferem maior proteção aos profissionais que manipulam as amostras. Justamente por serem mais maleáveis, podem ser centrifugados e utilizados diretamente em outros maquinários, evitando o risco de contaminação ou perda da amostra pelos processos de transferência. 6.7 Aditivos usados nos tubos e suas relações com os exames Uma forma de preservar o sangue por mais tempo para as análises é adicionar um anticoagulante à amostra, pois ele impede que a cascata de coagulação se inicie por meio da inibição da coagulação. Esse aditivo, porém, pode interagir com componentes do sangue e alterar resultados de análises. Devido a isso, cada tipo de exame requer a coleta com um ou mais coagulantes específicos, a fim de manter a qualidade da amostra. O anticoagulante deve ser utilizado em uma concentração específica para o volume de sangue coletado. A coagulação é um processo fisiológico para controlar sangramentos e reparar lesão tecidual. É uma sequência de reações – chamada de cascata de coagulação – que envolve plaquetas e fatores de coagulação (proteínas), até a formação de uma rede de fibrina – o coágulo. Além dos fatores de coagulação, há ainda cofatores, como o cálcio e a vitamina K, que auxiliam na sequência de reações até a formação final do coágulo de fibrina. Agora, veremos alguns tipos de anticoagulante. Ácido etilenodiaminotetracético (EDTA) O EDTA é uma molécula que se liga fortemente ao cálcio iônico do plasma sanguíneo, bloqueando, assim, a cascata de coagulação. Sua molécula, no entanto, pode provocar alterações estruturais em fatores de coagulação e substâncias associadas, como o fator V, o fibrinogênio e a trombina, por isso, não pode ser usado como anticoagulante em exames que irão analisar fatores relacionados à coagulação do paciente (SILVA et al., 2015). Normalmente, os sais de EDTA são adicionados aos tubos de coleta, vaporizados na parede do tubo em uma quantidade de 1,5 mg a 2,2 mg de sal de ml de sangue. Esses valores foram preconizados pelo conselho internacional de padronização em hematologia (International Council for Starndardization in Heamatology – ICSH). Os sais de EDTA podem ser sais de sódio (EDTA-Na2) ou potássio (EDTA-K2 ou EDTA-K3) (SILVA et al., 2015). As amostras coletadas em EDTA têm maior durabilidade quando refrigeradas, mas, ainda assim, a longa exposição do sangue ao sal de EDTA pode levar a alterações na morfologia celular e gerar resultados de exames equivocados. Por conta disso, recomenda-se que sejam processadas em, no máximo, 24h, para evitar resultados equivocados (SILVA et al., 2015). Citrato de sódio Assim como o EDTA, o citrato de sódio também é um sal que se liga ao cálcio para impedir a coagulação sanguínea. O uso desse sal como anticoagulante é recomendado pela Organização Mundial de Saúde (OMS) preferencialmente na concentração de 3,2% na forma de sal di-hidratado (Na3C6H5O7.2H2O) (SILVA et al., 2015). Heparina A heparina é um outro anticoagulante bastante utilizado na clínica, mas cuja ação é inibir a molécula de antitrombina e parar a coagulação. A concentração de uso dessa molécula é de 10 a 30 U/mL de sangue (SILVA et al., 2015). A heparina é amplamente utilizada para exames que dependem das características morfológicas das células, mas não é indicada para avaliar hemograma completo do paciente, por induzir aglutinação de leucócitos e plaquetas. Ainda, a heparina inibe atividades enzimáticas, e por isso não deve ser usada em exames que dependerão de enzimas para serem realizados, como é o caso das reações em cadeia da polimerase (PCR) (SILVA et al., 2015). Fluoreto de sódio O fluoreto de sódio é um adjuvante utilizado primordialmente para inibir a via glicolítica e impedir a degradação da glicose nas amostras de sangue. A ação anticoagulante do fluoreto de sódio é fraca, e por isso ele normalmente é utilizado em conjunto com EDTA ou oxalato (outro quelante de cálcio). Recomenda-se para uso a concentração de 2 a 3 mg de sal por mL de sangue. Basicamente, o fluoreto de sódio atua como inibidor da enzima enolase, uma enzima da cadeia glicolítica. A inibição dessa enzima previne que a glicose do sangue seja metabolizada pelas células após a coleta. É o adjuvante usado nos exames para a dosagem da glicemia (SILVA et al., 2015). 6.8 Padrão de identificação dos tubos de coleta Como acabamos de ver, existem diversos tipos de adjuvantes e anticoagulantes que são utilizados na coleta de sangue para preservar a amostra até o seu processamento. Além disso, vimos que o sistema de coleta a vácuo, hoje, é o sistema de escolha para testes clínicos por ser um sistema fechado que garante esterilidade à amostra e segurança ao profissional de saúde. Justamente pela escolha de um sistema fechado, a indústria de insumos bioquímicos aprimorou os tubos de coleta, e hoje eles podem ser encontrados já com o adjuvante na concentração ideal para cerca de 10 mL de sangue. Esses tubos, no entanto, precisam conter uma identificação que os diferencie uns dos outros e que seja intuitiva, para que o flebotomista não cometa equívocos entre o tipo de adjuvante e as amostras para análise. Essa identificação, ainda, precisa ser padronizada para evitar erros entre marcas diferentes de tubos a vácuo. A coleta de sangue deve seguir uma sequência dos tubos para evitar contaminações do sangue com substratos incompatíveis às análises. Para isso, o Instituto de Padrões Clínicos e Laboratoriais (CLSI) criou uma ordem correta para a coleta com tubos a vácuo, que pode ser visualizada no quadro abaixo. Quadro 4 - Ordem dos tubos e razões para talFonte: Elaborado pela autora, baseado em SILVA et al., 2015. #PraCegoVer: na imagem, há um quadro apresentando a ordem dos tubos de coleta em quatro colunas, sendo que a primeira coluna mostra a ordem da coleta; a segunda, o aditivo contido no tubo de coleta; a terceira, a cor da tampa do tubo; e a quarta, que mostra o motivo da escolha dessa ordem. 7 Conhecendo o laboratório de bioquímicaVocê já parou para pensar como são realizados os exames laboratoriais em geral? Já se perguntou como seria se todos os processos dependessem exclusivamente de técnicos, funcionários e profissionais desempenhando todas as funções e etapas dos exames? Com o avanço da tecnologia, principalmente na área de saúde, a automação se tornou uma realidade necessária e obrigatória a laboratórios clínicos, tanto para agilizar a análise de exames quanto para refinar a padronização e dar maior confiabilidade aos resultados. Foi com essa finalidade que ela entrou como um passo essencial na medicina laboratorial nas últimas décadas (CAMPANA; OPLUSTIL, 2011). A definição de Campana e Oplustil (2011, p. 120) sobre automação resume sucintamente esse conceito: Automação é a aplicação de técnicas computadorizadas ou mecânicas com o objetivo de tornar um processo mais eficiente, maximizando a produção com menor gasto de energia e gerando maior segurança. Entendemos por gasto de energia a aplicação de mão de obra especializada em atividades de baixa geração de valor, gasto de tempo, desperdícios etc. Ela permite conferir maior precisão na leitura das amostras, reduzir os erros de análise, reduzir os gastos com insumos e profissionais pelo processamento de várias amostras simultaneamente em um mesmo equipamento, gerenciar remotamente os processos analíticos, a padronização de protocolos e favorecer a elaboração de laudos através da integração de diferentes plataformas. Neste tópico, vamos conhecer um pouco mais sobre estes maquinários que compõem um laboratório bioquímico e como e para que são utilizados. 7.1 A automação nas diferentes fases analíticas da amostra A automação pode favorecer um laboratório clínico desde a fase pré-analítica até a fase pós-analítica. O investimento em maquinários para essas etapas precisa estar ligado à demanda do laboratório e à sua capacidade de processamento de amostras, pois existem diversos sistemas de automação, dos mais simples, como uma centrífuga de bancada, aos mais complexos, como robôs e braços robóticos. A automação está mais presente na fase analítica dos exames, na qual inúmeros testes são parcial ou totalmente automatizados. No entanto, grandes centros de análise podem expandir essa automação tanto para as fases pré quanto pós-analítica. Na fase pré-analítica, grandes centros de análise podem automatizar o processamento e o transporte das amostras com o uso de robôs móveis, esteiras de transporte ou braços robóticos, reduzindo os impactos do transporte e do tempo de espera pra o processamento inicial das amostras. Na fase analítica, o uso e adaptação de técnicas biofísicas e conhecimentos bioquímicos permitiram automatizar praticamente todos os ensaios hematológicos, bioquímicos e imunológicos que são realizados atualmente. Com a automação, dezenas ou centenas de amostras podem ser processadas por hora, permitindo além disso reduzir o consumo de insumos e o lixo gerado. Na fase pós-analítica, pode-se encontrar a automação completa do armazenamento de amostras e organização de bibliotecas de soro (soroteca). Vamos focar, agora, nos equipamentos mais utilizados no laboratório durante a fase analítica e conhecer um pouco mais sobre as técnicas biofísicas e bioquímicas utilizadas para gerar laudos e resultados. 7.2 Os equipamentos necessários para um laboratório clínico Em um laboratório clínico, você irá encontrar equipamentos dos mais simples aos mais automatizados, mas que são essenciais para um bom funcionamento dos ensaios que ali serão realizados. No quadro abaixo, temos descritos os principais equipamentos que são encontrados em laboratórios. Quadro 5 - Equipamentos essenciais em um laboratório clínicoFonte: Elaborado pela autora, baseado em BRASIL, 2002b. #PraCegoVer: na figura, há um quadro que destaca os equipamentos essenciais em um laboratório clínico, listando na coluna da esquerda quais são esses itens, e na da direita as suas funções. Esses equipamentos podem estar presentes nas quantidades necessárias para cada demanda, mas são itens essenciais para a montagem de um laboratório clínico. A seguir, vamos destacar algumas técnicas e instrumentação em laboratório para que você possa compreender um pouco mais como os ensaios são realizados. 7.3 Espectrofotometria A espectrofotometria é uma técnica física baseada em dois princípios básicos: A absorção da luz por substâncias em comprimentos de onda específicos. A quantidade de luz absorvida é proporcional à quantidade de substância em um determinado caminho óptico com tamanho definido (ARNESON; BRICKELL, 2007). Cada substância tem características próprias que resultam em uma absorbância maior ou menor de luz. Nem sempre toda a luz é absorvida quando passa por um meio, e a quantidade de luz transmitida quando um feixe passa por uma determinada substância (chamada de transmitância) também pode fornecer resultados importantes. Espectrofotômetros são equipamentos que medem a quantidade de luz absorvida por uma substância através de uma comparação inicial e final da quantidade de luz emitida pelo feixe. Esses equipamentos podem varrer uma grande faixa de comprimentos de onda, indo do UV até a o infravermelho. De forma simplificada, um espectrofotômetro é composto por: ● Uma ou duas fontes de luz – Vão do espectro visível ao ultravioleta (geralmente, lâmpadas de tungstênio para o espectro visível – 380 a 750 nm – e lâmpada de deutério para a faixa do ultravioleta – 100 a 380 nm). ● Monocromador – Um filtro de luz que permite filtrar um único comprimento ou faixa de comprimento de onda para a análise. ● Fenda de passagem – Auxilia a selecionar o comprimento de onda específico desejado. ● Cubeta – Para colocar a solução. ● Fotodetector – Para detectar a luz transmitida (a que não foi absorvida) pela amostra e converter o sinal de energia luminosa em energia elétrica. ● Medidor – Para registrar o dado coletado. A figura a seguir ilustra de forma simplificada como todas essas peças se organizam para o funcionamento de um espectrofotômetro. Figura 5 - Esquema didático de um espectrofotômetroFonte: extender_01, Shutterstock, 2020. #PraCegoVer: a imagem mostra um esquema do princípio de um equipamento de espectrofotometria, no qual há uma luz, representando a fonte de luz, irradiando sobre um prisma (monocromador), um aparato com uma fenda à frente do prisma, seguido de uma cubeta que contém uma solução por meio da qual passa a luz, e um fotodetector conectado a um medidor à frente. Assista aí A fotometria pode ser considerada uma subdivisão da espectrofotometria. Trata-se da ciência que mede a quantidade de luz em um determinado comprimento de onda. Os equipamentos para fotometria são mais simples que os espectrofotômetros, pois não fazem leitura em todo o espectro de luz, mas sim de comprimentos de ondas específicos conforme a aplicação. No entanto, os princípios físicos para a análise dos resultados são os mesmos. No laboratório clínico, as técnicas fotométricas são rotineiramente utilizadas para análises de inúmeros exames. A grande maioria dos equipamentos utiliza os conhecimentos ópticos da luz. É possível explorar como forma de análise e diagnóstico todas as formas de interação da luz com a matéria: absorção, emissão, espalhamento e reflexão. Vamos aprofundar o conhecimento em duas técnicas bastante utilizadas na rotina diagnóstica de um laboratório clínico, a turbidimetria e a nefelometria, que se baseiam na absorção e espalhamento da luz pela substância analisada. Turbidimetria e nefelometria Tanto a turbidimetria quanto a nefelometria são técnicas fotométricas que medem o quanto a luz é capaz de interagir com uma amostra. A turbidimetria mede a perda de intensidade de luz quando ela passa por uma amostra, enquanto a nefelometria mede o quanto a luz se espalha ao passar pela amostra (ARNESON; BRICKELL, 2007). Geralmente as fontes de luz usadas nesses equipamentos são de alta intensidade, como lasers ou lâmpadas de tungstênio, que incidem em uma cubeta onde se encontram as amostras.Turbidimetria É usada para medir alterações da transmissão da luz quando ela passa por um meio, ou seja, detecta a luz que conseguiu passar pela amostra. De forma geral, é usada para a análise de pequenas partículas, medindo a absorbância da luz, e podendo também ser usada para medidas quantitativas de marcadores, plasma ou urina (VON MUHLEN; BENDER, 2009). Nefelometria É um método bem mais sensível, sendo utilizado para medir a dispersão da luz, detectando o espalhamento da luz ao passar por uma amostra. A dispersão da luz é influenciada pelo tamanho das partículas em solução, pela concentração da amostra, pelo comprimento de onda utilizado no ensaio e pelo índice de refração do meio. Devido a essa complexidade, é uma técnica totalmente automatizada, usada geralmente para determinar proteínas específicas (anticorpos, proteína C ultrassensível, fator reumatoide etc.) (VON MUHLEN; BENDER, 2009). A figura abaixo exemplifica de forma mais clara como essas duas técnicas se correlacionam. Figura 6 - Diferença entre turbidimetria e nefelometriaFonte: Elaborada pela autora, baseada em VON MUHLEN; BENDER, 2009; StockBURIN, Shutterstock, 2020; Gossip, Shutterstock, 2020. #PraCegoVer: a imagem mostra uma fonte de luz incidindo sobre um jogo de lentes e atingindo uma amostra em tubo de ensaio. Desse tubo de ensaio, saem duas flechas indicando a trajetória da luz após passar pela amostra: uma com o ângulo de 0°, indicando a luz transmitida (turbidimetria) e outra com o ângulo maior que 0° e menor que 90º, indicando a luz espalhada (nefelometria). 7.4 Imunoensaios Imunoensaio é um método analítico que usa anticorpos ou antígenos como reagentes (ARNESON; BRICKELL, 2007). São ensaios usados amplamente em diagnóstico há mais de 40 anos, e seu princípio está presente desde o diagnóstico de anticorpos contra vírus até em testes caseiros como o de gravidez. Antígenos são moléculas de proteína ou oligossacarídeos que conseguem ativar uma resposta imune (produção de anticorpos). Anticorpos, por sua vez, são um complexo de proteínas produzidos por linfócitos B que reconhecem antígenos e se ligam a eles. No organismo, essa marcação de antígenos pelos anticorpos funciona como uma sinalização do sistema imune para neutralizar e eliminar corpos estranhos. Em laboratório, o conhecimento desse mecanismo de ação foi adaptado a técnicas que, fazendo uso do mesmo princípio, conseguem marcar substâncias de interesse para análise. Existem diversos tipos de imunoensaios, categorizados de acordo com seu mecanismo de ação e marcação da reação. Nesta seção, vamos analisar os principais tipos de ensaio usados na clínica. Ensaios de aglutinação São ensaios em que um anticorpo reage com um antígeno presente em uma partícula insolúvel, como uma célula, produzindo agregados (VON MUHLEN; BENDER, 2009). Esses agregados precipitam o meio, e o teste pode ser lido por técnicas fotométricas. O quadro a seguir descreve alguns dos tipos de ensaios de aglutinação. Quadro 6 - Tipos de ensaios de aglutinaçãoFonte: Elaborado pela autora, baseado em VON MUHLEN; BENDER, 2009. #PraCegoVer: na figura, há um quadro trazendo uma relação dos principais tipos de teste de aglutinação utilizados na prática laboratorial clínica. Na coluna da esquerda, temos os tipos de teste usados; na coluna central, há uma breve explicação do funcionamento dos testes; e na coluna da direita, existem exemplos de exames laboratoriais feitos rotineiramente por esses testes. Ensaios fluorescentes São testes realizados com marcadores fluorescentes (fluoróforos) ligados ao antígeno ou anticorpo. A fonte de luz do equipamento excita o fluoróforo, que emite fluorescência. Quando ocorre a interação antígeno-anticorpo, o fluoróforo é liberado no meio e a fluorescência emitida pode ser captada. Esses testes dependem de equipamentos leitores de fluorescência. Os ensaios de citometria de fluxo são baseados no princípio da fluorescência. Células são misturadas com fluoróforos específicos e, ao passarem pelo capilar do equipamento, são iluminadas com um feixe de luz laser e emitem uma fluorescência. Essa fluorescência é captada pelo equipamento e fornece informações sobre a população de células presente na amostra. Fluoróforos produzem fluorescência quando são excitados por uma fonte de luz de comprimento de onda específico. Esse comprimento de onda de excitação varia conforme a natureza da molécula. O fluoróforo recebe essa energia luminosa (fóton) e fica eletricamente instável, ejetando essa energia na forma de fluorescência para voltar ao estado energético neutro. Tal ejeção de fluorescência se chama emissão, e sempre é de um comprimento de onda maior que o comprimento de onda de excitação. Ensaios quimioluminescentes Tratam-se de ensaios que detectam a emissão de luz produzidas por reações químicas. Esses ensaios são geralmente utilizados para detectar a presença de anticorpos na amostra do paciente. A reação de quimioluminescência ocorre com a adição de um anticorpo comercial, que além de reconhecer o complexo antígeno-anticorpo, possui um composto luminescente, como o luminol, conjugado a ele. Para que esse composto emita luz, é preciso adicionar reagentes que iniciarão uma reação química ou enzimática, produzindo a luz, que pode ser detectada e quantificada por equipamentos ultrassensíveis. Ensaios enzimáticos Os imunoensaios enzimáticos permitem identificar antígenos e anticorpos. Nesses ensaios, a interação de enzimas e substratos produz uma alteração na coloração da solução, permitindo o diagnóstico. Um dos imunoensaios enzimáticos mais conhecidos é o ELISA (do inglês enzyme-linked immunosorbent assay). Nesse teste, antígenos ou anticorpos comerciais para o ensaio de interesse são imobilizados em uma fase sólida (gel, por exemplo), sobre a qual é adicionada a amostra de soro do paciente. O soro pode ser detectado pela ação de uma enzima conjugada ao anticorpo reagente, que catalisa um substrato adicionado na amostra e promove uma mudança de coloração. Anticorpos podem ser detectados por ELISA direto ou indireto, e antígenos podem ser detectados por ELISA sanduíche ou ELISA competitivo, como mostra a figura a seguir. Figura 7 - Os tipos de imunoensaios por ELISA: direto, indireto e sanduícheFonte: Soleil Nordic, Shutterstock, 2020. #PraCegoVer: a figura traz um esquema de três tipos de imunoensaio ELISA. No primeiro quadrante, do lado esquerdo, há a representação do ELISA direto, em que antígenos são representados por bolinhas laranjas imobilizadas em uma superfície, seguido da adição de anticorpos conjugados a uma enzima, que, ao reconhecerem o antígeno, formam o complexo antígeno-anticorpo e emitem um sinal quando há a adição do substrato da enzima na reação. No quadrante direito superior, há a representação do ensaio ELISA indireto, mostrando o antígeno imobilizado em uma superfície, reconhecido pelo anticorpo do paciente, e a adição de um segundo anticorpo que está conjugado à enzima; No quadrante direito inferior, há a representação do ELISA sanduíche, no qual um anticorpo é imobilizado em uma superfície para reconhecer antígenos presentes na amostra do paciente. Uma vez formado o complexo antígeno-anticorpo, um segundo anticorpo – conjugado à enzima – é adicionado para reconhecer o antígeno. ELISA direto Ocorre quando a enzima é conjugada previamente ao próprio anticorpo do paciente, seguida da adição do substrato que pode ser catalisado caso haja a formação do complexo antígeno-anticorpo. ELISA indireto Ocorre quando um segundo anticorpo, conjugado à enzima, é adicionado à reação e reconhece o anticorpo do paciente. ELISA sanduíche Um anticorpo é imobilizado no substrato para detectar antígenos circulantes (da amostra do paciente). Um segundo anticorpo, conjugado à enzima e que também reconhece o antígeno, é adicionado à solução, formando um sanduíche anticorpo-antígeno-anticorpo. ELISA competitivo Detecta antígenos de forma inversa: quanto menor for a alteração da cor da solução, maior é a quantidade de antígenos na amostra. Nele,um antígeno de referência é imobilizado na placa; em paralelo, a amostra do paciente é incubada com uma quantidade conhecida de anticorpos conjugados à enzima do ensaio. Após o período de incubação, a amostra do paciente conjugada ao anticorpo é adicionada à placa, e os anticorpos que não se ligaram ao antígeno da amostra se ligam ao antígeno imobilizado na placa. O poço da placa é lavado antes da adição do substrato. Quanto maior for a mudança de cor da solução, maior é a quantidade de anticorpos que se ligaram ao antígeno imobilizado, o que significa que a quantidade de antígenos na amostra era baixa ou nula. 8 Equilíbrio hidroeletrolítico e ácido-base Agora que você já teve uma boa introdução ao funcionamento do laboratório clínico, vamos mergulhar um pouco mais nos principais exames que são realizados de forma rotineira. Iniciaremos com o entendimento do conceito de equilíbrio hidroeletrolítico e ácido-base, partindo para importância na manutenção dos íons e pH e quais as principais disfunções relacionadas aos quadros de desequilíbrio. Após a leitura deste tópico, você compreenderá, também, um pouco mais sobre o papel fundamental dos íons na manutenção do nosso organismo. 8.1 Conceitos do equilíbrio hidroeletrolítico A água compõe metade ou mais do nosso peso corpóreo e está presente tanto no meio extracelular quanto no meio intracelular (ÉVORA et al., 1999). A maior parte da água do nosso organismo está no compartimento intracelular (40% do peso corpóreo), enquanto o restante se encontra no compartimento extracelular, que é dividido em água intravascular (15%) e intersticial (5%). Os equilíbrios hídrico e osmótico no organismo são mantidos por cátions, como íons cálcio (Ca2+), potássio (K+), sódio (Na+) e magnésio (Mg2+), e ânions, como cloro (Cl-) e bicarbonato (HCO3-), fosfatos e proteínas. A composição dos líquidos intracelular (LIC) e extracelular (LEC) diferem significativamente, principalmente em relação à quantidade de íons Na+, Cl- e HCO3- encontrados no LEC. Essas diferenças são mantidas ativamente por proteínas na membrana plasmática das células. O equilíbrio hídrico é mantido pela excreção, sudorese e ingestão de água, mas pode ser alterado em casos de desidratação, edema, e intoxicação hídrica. A desidratação é uma redução na quantidade de água total do organismo. Pode ocorrer por infecções e afecções do trato gastrointestinal, sudorese excessiva ou mesmo por baixa ingestão de líquidos. Os sinais mais comuns são perda de peso, perda de elasticidade da pele e hipotensão postural, acompanhados de sintomas como febre, oligúria e taquicardia (ÉVORA et al., 1999). Edemas também são alterações do equilíbrio hídrico, mas geralmente não são a causa primária do desequilíbrio, e sim um indicativo de afecções renais, hepáticas e/ou cardíacas. O oposto à desidratação, a intoxicação hídrica pode ocorrer por excesso de ingesta de água (mais raro) ou por excesso de administração de água e glicose via parenteral. É possível identificar o quadro se o paciente apresentar náuseas, fadiga e queda no volume urinário somados ao aumento de peso. 8.2 Sódio: função e alterações O sódio é o íon mais abundante no LEC, participando tanto da transmissão de impulsos nervosos quanto na contração muscular (ÉVORA et al., 1999). Os rins têm um papel fundamental na manutenção de sódio no organismo, pois controlam ativamente sua retenção e excreção. Como ressaltam Évora et al. (1999, p. 455), “o equilíbrio hidroeletrolítico é regido por um princípio fisiológico importante: A água vai para onde for o sódio”. Veremos, agora, as alterações nas concentrações de sódio do organismo que merecem atenção. Hiponatremia É a redução na concentração do íon sódio no plasma. Pode ocorrer por deficiência de sódio ou por excesso de água no organismo – esta última é a forma mais comum, geralmente associada à insuficiência renal. Determinar a causa dessa redução é primordial para determinar o tratamento adequado, pois a hiponatremia por depleção de sódio ocorre quando há perda de Na+ através da perda de fluidos orgânicos (como diarreias, vômitos, sudorese excessiva), enquanto a hiponatremia por diluição pode estar relacionada à insuficiência cardíaca, cirrose e doenças renais. Os sintomas de ambos os casos de perda de sódio são similares e envolvem, de forma geral, confusão mental e alterações neurológicas como convulsões e delírio. O tratamento consiste em repor o sódio, no caso da perda por depleção, ou, no caso da hiponatremia por diluição, tratar como um caso de intoxicação hídrica. Hipernatremia É a retenção de sódio, aumentando a sua concentração no plasma. Nos quadros de desidratação, está ligada à: perda de água, reposição de água insuficiente, sobrecarga de sódio na alimentação ou mesmo uso excessivo de esteroides. A sintomatologia é mais difícil de diagnosticar, pois o corpo tenta manter o equilíbrio hídrico, mas os sinais podem se mostrar através de mucosas e boca secas, alterações musculares como fraqueza e cãibras, febre e até sinais neurológicos. O tratamento é feito com reposição do volume hídrico. 8.3 Potássio: função e alterações Enquanto o sódio é o principal íon extracelular no organismo, o potássio é o cátion intracelular mais importante, pois participa do funcionamento dos músculos (neuroexcitação e contração), da formação das reservas energéticas de glicogênio e de síntese de proteínas e principalmente do equilíbrio ácido-base. Os rins controlam os níveis de potássio no organismo de forma conjunta e inversa com o sódio. Hipopotassemia A queda na concentração de potássio no organismo está diretamente ligada à perda de fluidos orgânicos, que por sua vez podem estar relacionadas a doenças como Cushing e síndrome de Cohn. O paciente também apresentará fraqueza muscular, poliúria e alterações no SNC como letargia e irritabilidade, podendo se estender até a complicações cardíacas. O tratamento consiste na reposição via oral ou endovenosa do íon. Hiperpotassemia O excesso de potássio no organismo pode ocorrer por excesso de ingesta, problemas renais, hemólise e quaisquer eventos que levem à degradação de proteínas. Os sinais estendem-se desde fraqueza muscular até possíveis complicações cardíacas. O tratamento se dá pela administração de soluções iônicas sem potássio, como gluconato ou cloreto de cálcio. 8.4 Cálcio: função e alterações O íon cálcio participa de inúmeros processos fisiológicos tanto a níveis moleculares como a nível tecidual: é necessário para manter as membranas celulares, participando da cascata de coagulação sanguínea, da formação dos ossos e até do funcionamento correto do coração. Sua manutenção no LEC é mantida pelos hormônios da tireoide (níveis de cálcio no sangue) e da paratireoide (equilíbrio do cálcio nos ossos, absorção nos intestinos e eliminação pelos rins). Hipocalcemia Quadros comumente encontrados quando há retirada da paratireoide e insuficiência renal. Os sintomas são mais clássicos e comuns de serem observados quando há retirada do tecido glandular, levando à parestesia, cãibras, diarreias, convulsões e arritmias. O tratamento de casos agudos deve ser feito via endovenosa, e a continuidade do tratamento por via oral, com administração simultânea à vitamina D (ÉVORA et al., 1999). Hipercalcemia O excesso de cálcio no sangue pode ocorrer em casos de hiperparatireoidismo, neoplasias, excesso de vitamina D e insuficiência da glândula adrenal. Esse quadro pode se manifestar com sintomas de fraqueza, constipação, sonolência, vômitos e alterações cardíacas. O tratamento de quadros agudos pode ser feito com uso de diuréticos. 8.5 Magnésio: função e alterações O íon magnésio também atua a níveis moleculares, em atividades enzimáticas, e nos tecidos musculares, promovendo excitabilidade da fibra muscular. O controle de magnésio no organismo está a cargo dos rins, através da excreção, e do paratormônio. Hipomagnesemia A baixa concentração de magnésio no organismo pode estar ligada a inúmeros fatores, que vão desde o alcoolismo até alterações e patologiasmetabólicas, como cirrose, pancreatite e acidose diabética. Pode também surgir com alterações hormonais (hiperaldosteronismo primário e hiperparatireoidismo). Os sinais e sintomas atingem funções neuro-motoras, alterações cardíacas (taquicardia e arritmia) e confusão mental. O tratamento consiste em administração endovenosa de soluções contendo magnésio ou via oral de sulfato de magnésio. Hipermagnesemia O excesso de magnésio geralmente está associado a quadros de insuficiência renal com comprometimento da excreção. Dentre os sintomas estão fraqueza muscular, hipotensão, confusão mental e alterações cardíacas. O tratamento deve focar na melhora da função renal, por meio de diálise. Administração de cálcio pode ser usada como forma de melhora temporária por o íon cálcio ser antagonista ao íon magnésio. 8.6 Conceitos do equilíbrio ácido-base Para o metabolismo correto do organismo, a respiração celular consome grandes volumes de oxigênio, gerando dióxido de carbônico (CO2). O CO2 produzido é levado pela corrente sanguínea até os pulmões, para que ocorra a troca gasosa na respiração. No entanto, o CO2 é capaz de reagir com a água do organismo e gerar um ácido fraco – o ácido carbônico (H2CO3) –, que entra em um equilíbrio químico, produzindo íons bicarbonato e hidrogênio circulantes: Proteínas e fosfatos têm um papel crucial na manutenção do equilíbrio ácido-base, pois atuam como tamponantes do organismo, mantendo o pH estável (que deve ser de 7,35). No sangue, a hemoglobina (Hb) dos eritrócitos também participa na manutenção do equilíbrio por se ligar ao hidrogênio circulante. A Hb tem carga positiva e se liga ao H+ livre para formar o complexo HHb+, que reage então com o oxigênio circulante e forma o complexo Hb-O2: O conceito de pH em uma solução tampão foi descrito por Henderson e Hasselbalch na equação de Henderson-Hasselbalch. Essa equação correlaciona o pH de uma solução com a constante de dissociação dos ácidos (Ka), que pode ser considerada igual ao pH quando as concentrações de ácido (A-) e base (AH) são iguais. No organismo, o ácido responsável por manter o pH estável é o ácido carbônico (H2CO3), então podemos reescrever a equação de Henderson-Hasselbalch como: Esta equação permite avaliar alterações encontradas no equilíbrio ácido-base, permitindo avaliar indiretamente, por exemplo, a concentração de CO2 no organismo. É importante ressaltar que tanto o sistema respiratório quanto o sistema excretor participam da regulação do equilíbrio ácido-base no organismo, uma vez que o pulmão é responsável pela excreção de substâncias voláteis (gases), e os rins pelas moléculas físicas (tampões). Quando há alterações no funcionamento pulmonar ou renal, o equilíbrio ácido-base pode ser comprometido, gerando acidose (pH < 7,35) ou alcalose (pH > 7,35), distúrbios estes que podem estar relacionados ao metabolismo ou à respiração. Assista aí 8.7 Alterações relacionadas ao metabolismo As alterações metabólicas do equilíbrio ácido-base estão relacionadas ao funcionamento dos rins, podendo ser de acidose metabólica ou de alcalose metabólica. Acidose metabólica Aqui, os rins não conseguem eliminar o excesso de íons hidrogênio nem recuperar os íons bicarbonato na filtração, reduzindo a proporção ideal de bicarbonato e ácido carbônico para que ocorra a normalização do pH no organismo. Essas alterações podem acontecer por aumento na produção de ácidos não-voláteis, como quadros de cetoacidose, acúmulo de lactato ou intoxicação por metanol; alterações renais como insuficiência renal crônica; ou por perda de bases, devido à má absorção intestinal ou excesso de ingestão de ácidos, por exemplo (MOTTA, 2009) Os quadros de acidose metabólica podem ser diagnosticados pela redução do bicarbonato e do pH do sangue. Para tentar contornar o quadro, o indivíduo entra em hiperventilação. Isso ocorre pois há aumento do influxo de O2 e da excreção de CO2. Este mecanismo, no entanto, é funcional somente em quadros de acidose aguda. Em casos de acidose crônica, o tratamento primário deve focar em corrigir a causa primária, mas em casos em que o pH sanguíneo estiver bastante baixo (igual ou menos que 7,2), deve-se considerar a administração de bicarbonato via endovenosa. Alcalose metabólica Ocorre por excesso de bicarbonato no organismo, que pode ser resultado de depleção de H+ ou ingestão em excesso de substâncias alcalinas. Perdas de H+ e K+ podem levar ao quadro de alcalose metabólica, assim como administração excessiva de carbonato de sódio (NaHCO3) ou de antiácidos (MOTTA, 2009). As alcaloses metabólicas podem ser diagnosticas pelo aumento do pH sanguíneo e dos íons bicarbonato. O indivíduo pode iniciar uma compensação respiratória para tentar voltar o pH a 7,4, por meio da redução da respiração, mantendo o CO2 no organismo por mais tempo e retardando as trocas gasosas. Em casos graves, o tratamento deve ser feito com solução eletrolítica que vise reestabelecer os níveis de potássio no organismo, para dessa forma facilitar a excreção de bicarbonato. 8.8 Alterações relacionadas à respiração Alterações respiratórias também contribuem para quadros de acidose ou alcalose e estão relacionadas a alterações pulmonares que impedem a troca gasosa correta pela respiração. Acidose respiratória É o quadro em que o pulmão não consegue expelir o gás carbônico corretamente, resultando em redução do pH sanguíneo. Esse quadro geralmente é resultante de problemas respiratórios que comprometem o tecido pulmonar, como bronquite crônica, enfisema pulmonar, asma e doença pulmonar obstrutiva crônica (DPOC). Também pode ser resultante de inibição no sistema nervoso central (SNC) do controle da respiração, ocasionado por fármacos, traumas ou infecções do SNC. O quadro de acidose respiratória pode ser diagnosticado por meio de aumentos na concentração de CO2 no sangue e da redução do pH (acidemia), podendo haver compensação renal, caso o quadro seja crônico, levando à perda de potássio na urina. O tratamento pode envolver desde suprimento de oxigênio via inalatória ou por ventilação mecânica até ao uso de medicamentos que estimulam os centros respiratórios no SNC. Alcalose respiratória Na alcalose, há excesso de eliminação de CO2 pelos pulmões. Esse quadro leva a uma redução dos níveis séricos de CO2, resultando em aumento do pH sanguíneo. Pode ocorrer em pacientes com problemas e enfermidades pulmonares (como pneumonia, asma, edema etc) e comprometimento do centro respiratório no SNC (como tumores, infecções, acidentes vasculares cerebrais etc). O organismo tenta compensar esse desequilíbrio recrutando íons H+ do compartimento intracelular, para reduzir a quantidade de íons bicarbonato no plasma. Os rins auxiliam nessa manutenção por meio da retenção de H+ durante o processo de filtração. Intervenções externas estão relacionadas ao tratamento das condições que podem levar à acidose respiratória, ou mesmo através de respiração mecânica nos quadros mais graves. 9 Gasometria: o estudo dos gases sanguíneos O exame de gasometria permite avaliar o equilíbrio ácido-base de um paciente, determinando os teores de gases no sangue, o pH, teor de ions bicarbonatos e pressões parciais de CO2 (pCO2) e de O2 (pO2). Tanto o sangue venoso quanto o sangue arterial podem ser usados para realização do exame hemagasométrico. O sangue arterial, no entanto, apresenta vantagens como escolha por não sofrer consequências de possíveis estases de fluxo, tendo também valores de pH e de pO2 maiores, enquanto o sangue venoso apresenta maiores concentrações de bicarbonato e pCO2 (CASTRO; KEENAGHAN, 2020). 9.1 A análise gasométrica A análise gasométrica é feita com o sangue total do paciente. É importante ressaltar que os valores de referência variam entre os sangues venosos e arteriais. O ideal é que o exame seja analisado sem longas esperas da coleta, para evitar interferência nos resultados. As amostras são analisadas por equipamentos automatizados, que avaliam: ● pH sanguíneo; ● pressão parcial de O2 (pO2); ● pressão parcial de CO2 (pCO2);● concentração de íons bicarbonato; ● cálculo relativo (excesso/deficiência) de bases no sangue; ● saturação de O2. Os resultados do exame permitem avaliar se as desordens encontradas são leves ou graves, agudas ou crônicas e se são de origem metabólica ou respiratória. No quadro a seguir, podemos visualizar como alguns desses parâmetros podem ser analisados. Quadro 7 - Índices medidos na gasometria e o que indicam Fonte: Elaborado pela autora, baseado em MOTTA, 2009. #PraCegoVer: na imagem, há um quadro com alguns parâmetros que são analisados pelo exame de gasometria e o que eles significam. 10 Ionograma: o que é e como analisar Ionograma é o nome do exame que quantifica os principais íons responsáveis por manter o equilíbrio hidroeletrolítico no organismo. Além dos íons sódio e potássio, já ressaltados no tópico anterior, os ânions cloretos também são abundantes no LEC e de extrema importância para manutenção da pressão osmótica no organismo. Os íons do organismo contribuem para os equilíbrios hidroeletrolítico e ácido-base, e analisar a concentração sérica desses íons é de extrema importância. O exame para analisar a concentração dos íons bicarbonato também pode receber o nome de reserva alcalina. Na bioquímica clínica, entende-se por reserva alcalina todos os íons que tem capacidade de neutralizar ácidos no sangue, sendo o principal representante desse grupo os íons bicarbonatos. O quadro a seguir mostra as condições de coleta, análise e valores de referência dos três principais íons avaliados pelo ionograma. Quadro 8 - Principais íons avaliados no ionograma, métodos e análise e valores de referênciaFonte: Elaborado pela autora, baseado em MOTTA, 2009. #PraCegoVer: na imagem, há um quadro trazendo os principais íons analisados pelo exame ionograma, identificando como deve ser preparada a amostra para análise, os métodos de diagnóstico utilizados na prática clínica e os valores séricos de referência. 11 Casos clínicos Para saber como podemos usar essas informações que tivemos até agora em um caso clínico, separamos duas situações. Caso 1 Uma paciente de 48 anos chega ao pronto socorro com a respiração superficial, perda de consciência, mas frequência respiratória normal. A família informa ao hospital que a paciente não estava se sentindo bem e confundiu um medicamento para febre e dores em geral com um tranquilizante, tomando 40 gotas do tranquilizante. Esse tranquilizante, em excesso, causa depressão respiratória. Os exames gasométricos iniciais mostraram que o pH sanguíneo da mulher encontra-se em 7,25, e que a pCO2 é de 80 mmHg. Sabendo que a pressão de gás carbônico normal é de 35 a 45 mmHg, explique o que levou a mulher a este quadro de alterações. Resposta esperada: A paciente apresenta uma acidose por seu pH estar em 7,25, quando o normal é de 7,35 a 7,45. A pCO2 está aumentada, indicando que o gás não está sendo retirado totalmente do organismo. O acúmulo de CO2 na corrente sanguínea causa uma acidose, neste caso, de componente respiratório, pois o pulmão não está conseguindo eliminar os gases devido à depressão respiratória causada pelo medicamento. Portanto, a paciente entrou em um quadro de hipoventilação, o que levou ao acúmulo de CO2 no organismo (aumento da pCO2) e redução do pH por aumento da concentração de íons hidrogênio, o que levou à perda de consciência. Caso 2 Um paciente idoso e acamado chega ao pronto-atendimento desorientado e muito sonolento, reclamando de boca seca. Nos últimos três dias, o paciente apresentou um desconforto gastrointestinal e teve um quadro de diarreia aguda, que levou à perda de muito líquido. O paciente não foi internado para reposição do líquido perdido e nem consumiu mais água ou soluções de soro caseiras para repor o volume hídrico. O médico solicitou um ionograma completo do paciente, e os valores de sódio apresentaram-se alterados: 158 mEq/L. Sabendo que os valores de referência para o sódio são de 135 a 145 mmol/L e que mEq = mmol para este caso, discuta o que pode ter acontecido com o paciente e sugira uma possível conduta para solucionar o desequilíbrio encontrado. Resposta esperada: O paciente perdeu uma grande quantidade de líquidos devido ao desarranjo gastrointestinal pelo qual passou e está em um quadro de desidratação. A perda de líquidos pelas fezes levou a um aumento da concentração de sódio no organismo – hipernatremia –, o que explica os sinais e sintomas apresentados pelo paciente. O quadro levou a uma desidratação dos compartimentos intracelulares para compensar o desequilíbrio no meio extracelular. Uma possível conduta indicada para o tratamento do paciente seria a administração de soro fisiológico via intravenosa, com monitoramento do paciente, até que o equilíbrio hidroeletrolítico se reestabeleça. 12 Pâncreas e insulina: fisiopatologia da diabetes mellitus O pâncreas é uma glândula que pertence ao trato gastrointestinal, sendo composto por: Porção exócrina Porção endócrina 12.1 Um breve histórico do pâncreas e da insulina O pâncreas já é conhecido desde a Grécia Antiga, mas foi só no final do século XIX que Minkowski descobriu sua relação com a diabetes, ao remover o órgão de cães e observar que os animais se tornavam diabéticos. A correlação do pâncreas com metabolismo dos carboidratos se concretizou em 1921, quando os pesquisadores Frederick Banting, Charles Best e John Macleod conseguiram isolar a insulina pela primeira vez do extrato pancreático, o que lhes rendeu o prêmio Nobel em 1923 (QUIANZON; CHEIKH, 2012). Em 1978, David Goeddel e sua equipe produziram em Escherichia coli pela primeira vez uma insulina de DNA humano recombinante, que chegou ao mercado farmacêutico no início da década de 1980. A partir de então, aprimoramentos na síntese de insulina para aumentar sua eficácia conseguiram melhorar a qualidade de vida dos pacientes diabéticos e reduzir as complicações causadas pelas diabetes crônica não tratada. 12.2 Insulina e o metabolismo dos carboidratos A insulina é uma proteína e o principal hormônio secretado pelas ilhotas pancreáticas, uma vez que são produzidas nas células beta, e estas compõem cerca de 60% dessas ilhotas no tecido endócrino do pâncreas. Após o consumo de carboidratos na alimentação e a digestão inicial no trato digestório, a glicose entra na corrente sanguínea e estimula rapidamente a liberação de insulina. A insulina, por sua vez, atua se ligando a receptores específicos nas membranas celulares e estimulando a internalização da glicose, armazenamento e metabolização, principalmente nos tecidos musculares, adiposo e hepático (GUYTON et al., 2006). Nos músculos, a glicose só é utilizada durante exercícios intensos, caso contrário é armazenada na forma de glicogênio quando há presença de insulina. O tecido muscular em repouso usa preferencialmente ácidos graxos para gerar energia. O tecido hepático também é de extrema importância no metabolismo e armazenamento da glicose. Após a alimentação, a insulina liberada na corrente sanguínea encontra receptores na membrana das células hepáticas e estimula imediatamente a internalização da glicose e armazenamento na forma de glicogênio. Esse glicogênio será usado como forma de energia pelo organismo nos períodos de intervalo entre as refeições. Quando o armazenamento de glicose em glicogênio atinge seu limite e a quantidade de glicose internalizada pelos hepatócitos é maior que a capacidade de armazenamento ou uso para o metabolismo celular, a insulina promove a conversão do excesso de glicose em ácidos graxos. Esses ácidos são transformados em triglicerídeos e lipoproteínas de densidade muito baixa (VLDL), sendo levados aos tecidos adiposos pela corrente sanguínea e armazenados na forma de gordura (GUYTON et al., 2006). A ação da insulina na internalização de glicose pelas outras células do organismo ocorre de forma semelhante. Essas células também precisam de receptores de insulina para desencadearem a sinalização intracelular que resultará na entrada de glicose para o citoplasma. No tecido adiposo, a glicoseé usada como substrato para a porção glicerol que compõe os lipídios. No SNC, as células não usam insulina para a internalização da glicose por serem células permeáveis à glicose, sem precisar de transporte ativo da molécula para o seu citoplasma. O pâncreas endócrino é composto principalmente por três tipos celulares: as células alfa, que produzem glucagon e correspondem a cerca de 20% das células da ilhota; as células beta, que produzem insulina e correspondem a 50-80% das células; e as células delta, que produzem somatostatina e compõem de 3-10% das ilhotas. O glucagon estimula a gliconeogênese e a glicogênese, aumentando a glicemia; a insulina sinaliza para o uso e armazenamento da glicose. A somatostatina inibe a ação endócrina do pâncreas e se comunica com o sistema digestório. O equilíbrio entre todos esses hormônios envolve ações do SNC e ajuda a manter a homeostase do organismo. 13 Síndrome do metabolismo da glicose: diabetes mellitus A diabetes mellitus (DM) é uma síndrome de erro do metabolismo de carboidratos, gorduras e proteínas, que pode ser causada tanto pela falta de produção de insulina (DM tipo 1) quanto por perda de sensibilidade celular à insulina (DM tipo 2). Em ambos os casos, as células não conseguem internalizar a glicose, há aumento da glicemia e aumento no consumo de ácidos graxos e de proteínas pelas células como tentativa de manter o metabolismo celular ativo mesmo em privação de glicose. A DM é assintomática em um primeiro estágio, quando a glicemia ainda não atingiu valores tão discrepantes, sendo geralmente diagnosticada por exames laboratoriais. No entanto, em indivíduos que não fazem acompanhamento clínico de rotina e a doença progride lentamente sem tratamento, os sintomas podem aparecer com aumento da enurese, sede, boca seca, aumento da fome, perda de peso e fadiga. Os sinais já aparecem quando a DM atingiu um estágio grave e o paciente entrou em um quadro de cetoacidose, com alterações respiratórias e dores abdominais, podendo evoluir para um quadro crítico de acidose metabólica, que pode levar à morte. 13.1 Diabetes mellitus tipo 1 (DM1): causas e tipos A DM tipo 1 (DM1) é resultado da não produção de insulina pela degeneração das células beta do pâncreas. O ataque às células beta pode vir de doenças virais, doenças autoimunes ou mesmo resultante de fatores genéticos familiares que levam à sua. É uma doença que frequentemente se manifesta na infância ou juventude, mas pode aparecer em adultos de forma mais lenta. A DM tipo 1 pode ser subdividida em dois tipos de acordo a causa primária que leva à não produção de insulina: tipo 1A e tipo 1B. 13.2 Fisiopatologia da DM1 A não produção de insulina gera um quadro de hiperglicemia, refletindo em desidratação e poliúria no paciente. Quando a glicemia atinge valores de 180 mg de glicose por 100 mL de sangue nos rins, o excesso de glicose no plasma ultrapassa os limites de reabsorção dos túbulos renais, levando à perda de glicose na urina. No organismo como um todo, o excesso de glicose no sangue aumenta a pressão osmótica dos fluidos extracelulares, promovendo a saída de água do interior das células e levando a um quadro de desidratação intracelular. Ainda, a perda de glicose na urina também provoca um efeito conhecido como osmose diurética. O excesso de glicose no plasma reflete em glicosúria, pois os rins não conseguem filtrar toda a glicose que passa pelos túbulos renais. A glicose que passa para a urina, por sua vez, cria uma pressão osmótica e faz com que menos líquido seja recuperado na filtração tubular dos rins, levando também a um quadro de desidratação extracelular. A redução dos reservatórios hídricos do corpo, por fim, gera um estímulo a nível de SNC para que o paciente aumente o consumo de água, refletindo-se em sede abundante. 13.3 Diabetes mellitus tipo 1A A DM tipo 1A é a manifestação mais frequente da DM insulino-dependente, sendo caracterizada pela presença de autoanticorpos contra as células beta do pâncreas. Assim como para grande parte das doenças autoimunes, ainda não se sabe exatamente o que leva o corpo a desenvolver anticorpos contra as células beta, mas há correlações com fatores hereditários e ambientais, como infecções virais, dieta e microbiota intestinal, que predispõem o sistema imune a atacarem o próprio corpo. Os anticorpos se mostram presente no soro do paciente mesmo antes dos quadros de hiperglicemia severa, e são um indicativo laboratorial da doença. A Sociedade Brasileira de Diabetes (2017) traz em seu livro de diretrizes sobre a doença os marcadores clínicos mais conhecidos e usados no diagnóstico da DM1: anticorpos anti-ilhota (ICA) anti-insulina (IAA) antidescarboxilase do ácido glutâmico (anti-GAD65) antitirosina-fosfatase e antitransportador de zinco (Znt8). 13.4 Diabetes mellitus tipo 1B É o quadro de DM de origem idiopática, ou seja, de causas não totalmente conhecidas. Neste caso, há ausência de autoanticorpos e o diagnóstico é feito por presença de alterações nos exames de diagnóstico padrão. 13.5 Diabetes mellitus tipo 2 (DM2) A DM tipo 2 (DM2) atinge preferencialmente a população acima de 45 anos. É a forma mais comum da doença, correspondendo a mais de 90% dos casos de DM. As causas do seu desenvolvimento estão relacionadas à herança genética e a fatores ambientais, como hábitos e dietas, sedentarismo e obesidade, além de hipertensão arterial e dislipidemias. Ao contrário da DM1, em que as ilhotas param de produzir insulina, a DM2 se desenvolve por uma resistência celular à ação da insulina, e a concentração de insulina no plasma aumenta invés de cair. Sabe-se que alguns processos inflamatórios contribuem para a instalação da DM2, como a deposição de gordura visceral, que é um forte fator de risco ao desenvolvimento de DM2, pois o tecido adiposo abdominal, quando hipertrofiado, produz fatores pró-inflamatórios (citocinas) relacionados à resistência insulínica. O aumento na produção de insulina ocorre como uma consequência do aumento da concentração de glicose no sangue, uma vez que os tecidos periféricos se tornam menos sensíveis à insulina (resistência insulínica), comprometendo o transporte ativo da glicose para o interior das células. Esse desequilíbrio metabólico leva a um aumento na produção de glucagon (hiperglucagonemia), aumento na produção hepática de glicose, aumento de ácidos graxos circulantes no sangue, resultantes do aumento da lise de gorduras, aumento na reabsorção renal de glicose e produção e secreção de insulina deficientes pelas células beta do pâncreas. A DM2 não tem um diagnóstico clínico certeiro como a DM1 e, na maioria das vezes, é uma doença assintomática por um longo período. O diagnóstico baseia-se em exames laboratoriais de rotina para avaliar a glicemia. 13.6 Fisiopatologia da DM2 O aparecimento da DM2 se inicia com a resistência dos tecidos à ação da insulina, ou seja, a interação da insulina com seu receptor na membrana celular não ativa o transporte ativo da glicose para o citoplasma. Sabe-se que o aparecimento da resistência insulínica e dos erros de metabolismo dos carboidratos tem relação com o peso excessivo e obesidade. Além disso, a sinalização intracelular da ligação da insulina com seu receptor pode ser prejudicada pelo acúmulo de lipídios no interior de hepatócitos e células musculares, porém os mecanismos que correlacionam a obesidade à resistência insulínica ainda não são completamente compreendidos. A resistência insulínica faz parte de chamada síndrome metabólica, que inclui: obesidade e acúmulo de gordura abdominal, resistência insulínica, hiperglicemia, dislipidemias e hipertensão. 13.7 Diabetes mellitus gestacional (DMG) A diabetes mellitus gestacional (DMG) é um quadro que se desenvolve sem diagnóstico prévio de DM. A gestação por si já é uma condição favorável à diabetes, pois a placenta produz hormônios que estimulam a hiperglicemia, como cortisol, estrógeno, progesterona e prolactina, além de enzimas que degradam a insulina (SOCIEDADE BRASILEIRA DE DIABETES, 2017). O principal hormôniorelacionado à resistência insulínica na gestação é o hormônio lactogênico placentário (MIRANDA; REIS, 2008). A DMG pode desaparecer com a gestação ou permanecer após o parto, e oferece riscos à mãe e ao bebê. Os fatores de risco para o desenvolvimento de DMG vão desde fatores hereditários a condições maternas que favorecem o quadro, como idade avançada, sobrepeso, gordura visceral, baixa estatura ou mesmo síndrome dos ovários policísticos (SOP). O tratamento para DMG envolve desde mudança na dieta para adequação aos índices glicêmicos até o uso de insulina em casos mais graves. 14 Metabolismo intermediário: o que é e como se altera nos quadros de diabetes O metabolismo intermediário compreende o estágio entre a entrada da glicose no interior celular até a formação de piruvato. Os metabólitos intermediários da glicose – e destacamos aqui os mais importantes: glicose-6-fosfato, piruvato e acetil-CoA – são precursores de outras cascatas de síntese ou metabolismo aeróbico ou anaeróbico na célula. Após a sinalização da insulina para a internalização de glicose, ocorre um processo de transporte ativo da glicose para o citoplasma, por meio de transportadores chamados GLUT. Uma vez no interior da célula, a glicose precisa ser fosforilada para não voltar ao meio extracelular. Essa fosforilação ocorre pela ação de hexoquinases e gera o intermediário glicose-6-fosfato. O composto passa, então, pelo processo de glicólise para formar ácido pirúvico, um outro intermediário do metabolismo da glicose. O ácido pirúvico (ou piruvato) pode ser direcionado para diferentes vias no interior da célula, dependendo do tipo de tecido e/ou da necessidade da célula: na mitocôndria, será oxidado e dará origem ao acetil-coenzima-A (Acetil-CoA); pode ser a via da gliconeogênese, formando as reservas de glicogênio, principalmente em células musculares e hepáticas; pode participar da síntese de aminoácidos e formar proteínas, processo conhecido como proteogênese, que ocorre principalmente em músculos e fígado; pode dar origem a ácidos graxos e triglicerídeos em hepatócitos e adipócitos, processo conhecido como lipogênese; pode, ainda, ser usado na respiração anaeróbia (ausência de oxigênio), sofrer fermentação láctica e dar origem ao lactato. A figura a seguir resume todo esse processo que acabou de ser descrito. Figura 8 - O metabolismo intermediárioFonte: Elaborada pela autora, 2020. #PraCegoVer: a figura representa, de forma esquemática, o processo de metabolismo intermediário da glicose, descrevendo o processo de entrada da glicose na célula por meio de transportadores, chamados GLUT, e passando por processos bioquímicos até gerar o ácido pirúvico, que pode ser usado na respiração mitocondrial, fermentação lática, lipogênese, proteogênese e gliconeogênese. Síntese de lipídeos: lipogênese O processo de lipogênese ocorre quase que totalmente em hepatócitos, dependendo também da conversão do piruvato em acetil-CoA, que é posteriormente convertida em malonil-CoA, o precursor da síntese de triglicerídeos no fígado. Tais triglicerídeos são liberados na corrente sanguínea na forma de lipoproteínas, e no tecido adiposo são convertidos novamente em triglicerídeos para serem armazenados na forma de gordura. Síntese de aminoácidos A síntese de aminoácidos no organismo depende de intermediários do ciclo do ácido cítrico (ou ciclo de Krebs), que são usados como reagentes em reações de transaminação. Os aminoácidos glutamato, glutamina, prolina e arginina são sintetizados a partir de -cetoácidos produzidos no ciclo do ácido cítrico. A síntese dos aminoácidos aromáticos – fenilalanina, tirosina e triptofano – depende de fosfoenolpiruvato, uma molécula derivada do intermediário metabólico piruvato, produzido na glicólise. Já os aminoácidos lisina, arparagina, metionina, treonina e isoleucina são derivados de oxaloacetato, um outro intermediário do ciclo do ácido cítrico. 14.1 Mudanças do metabolismo intermediário na DM A falta de glicose intracelular na DM leva à metabolização de lipídios para suprir a demanda energética (lipólise). A lipólise libera ácidos graxos livres nos hepatócitos, que uma vez oxidados, formam acetil-CoA. Embora o acetil-CoA seja um intermediário do metabolismo da glicose, há um limite máximo de moléculas que podem ser usados no ciclo do ácido cítrico. Dessa forma, o excesso de acetil-CoA, é convertido em corpos cetônicos no fígado. Esses corpos cetônicos (acetoacetato e beta-hidroxibutirato) levam a um quadro de cetoacidose (BARONE et al., 2007). Os quadros de cetoacidose são evoluções graves do DM não tratado que podem levar o paciente à morte, pois a acidose metabólica gerada pela DM se associa à desidratação intensa do paciente devido à poliúria, agravando o quadro de acidose. O organismo tenta compensar a acidose através da respiração rápida e profunda para retirar maiores volumes de CO2 do organismo, mas esse processo consome as reservas alcalinas. Os rins tentam compensar a perda do bicarbonato (reserva alcalina) recuperando maiores quantidade do íon na filtrado glomerular. No entanto, se o quadro não for revertido e a DM estiver bastante descontrolada, o pH sanguíneo pode cair para valores abaixo de 7.0, levando ao coma e podendo levar o paciente à morte em questão de horas. O metabolismo excessivo de gorduras no fígado também leva a um aumento do colesterol circulante, favorecendo a deposição de gordura nas paredes arteriais, processo conhecido como aterosclerose, e pode que causar lesões e/ou bloqueios vasculares graves. 15 Quadro clínico da DM e diagnóstico laboratorial A DM é uma doença silenciosa, pois seus sinais e sintomas só aparecem no paciente depois que a doença já está instalada. No entanto, alterações fisiopatológicas já estão presentes mesmo sem que a glicemia atinja valores discrepantes. O estágio inicial da doença, em que a glicemia de jejum está acima do normal, mas não atingiu valores altos suficientes para o diagnóstico da DM, chama-se pré-diabetes. Neste caso, o diagnóstico é feito através de exames laboratoriais. 15.1 Diagnóstico laboratorial: exames e interpretações A fase de pré-diabetes pode ser chamada também de glicemia de jejum alterada ou tolerância à glicose diminuída. Essas denominações foram atribuídas pela Associação Americana de Diabetes (ADA), que também estabeleceu os exames necessários para detectar os estágios da tolerância à glicose e assim auxiliar no diagnóstico da DM (AMERICAN DIABETES SOCIETY, 2020). São eles: Glicemia de jejum Teste oral de tolerância à glicose (TOTG) Hemoglobina glicada (HbA1c) Quaisquer resultados positivos nos exames de glicemia de jejum, TOTG ou HbA1c conferem o diagnóstico para pré-diabetes, DM estabelecida ou DM gestacional. Confira, no quadro a seguir, os valores adotados pela Sociedade Brasileira de Diabetes (2017) para pacientes normoglicêmicos, pré-diabéticos, diabéticos e DM gestacional. Quadro 9 - Valores de referência para interpretação de exame laboratorial para diagnóstico da DMFonte: Elaborado pela autora, baseado em SOCIEDADE BRASILEIRA DE DIABETES, 2017. #PraCegoVer: na figura, há um quadro trazendo dados de referência para os exames de diagnóstico laboratorial da diabetes mellitus. Nele, os valores dos exames de glicemia de jejum, glicemia após 2 horas de sobrecarga de glicose (TOTG) e hemoglobina glicada (HbA1c) são definidos para situações de normoglicemia (não-diabetes), pré-diabetes, diabetes estabelecida e diabetes mellitus gestacional. 16 Epidemiologia e rastreamento populacional da DM A Federação Internacional de Diabetes (IDF) estima que 8,8% da população mundial entre 20 e 79 anos tenha diabetes, sendo a maior prevalência da doença em países em desenvolvimento, que representam cerca de 75% dos casos. A prevalência da DM está associada a hábitos alimentares, estilo de vida sedentário, excesso de peso e obesidade e envelhecimento populacional (SOCIEDADE BRASILEIRA DE DIABETES, 2017). A DM é uma questão de saúde pública de grande importância, devido ao uso do sistema de saúde por pacientes