Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 Os Fundamentos da Inteligência Artificial • TEXTO 2 / PARTE A (Artigo) Problemas da ‘Inteligência Artificial. • TEXTO 2 / PARTE B (Artigo) Inteligência Artificial e Machine Learning em 2 Cardiologia - Uma Mudança de Paradigma. 12 páginas PROBLEMAS DA ‘INTELIGÊNCIA’ ARTIFICIAL Valdemar W. Setzer Professor Titular Sênior, Depto. de Ciência da Computação Instituto de Matemática e Estatística da USP A Evolução da Inteligência Artificial A expressão artificial intelligence foi inventada pelo grande pioneiro da ciência da computação John McCarthy em 1955, por ocasião de um simpósio que houve no Dartmouth College, nos EUA [3, 4]. Ela suscitou muitas esperanças de que os computadores poderiam equiparar-se ao ser humano em todas as suas funções e ações, especialmente as intelectuais. Durante muito tempo, a IA não cumpriu as visões dos que tinham essa concepção, para decepção dos fisicalistas futuristas. Alguns sucessos foram totalmente mal interpretados, como o do xadrez eletrônico. Considerava-se que jogar bem xadrez era uma mostra de inteligência. Quando a máquina Deep Blue da IBM venceu em 1997 o segundo torneio da empresa (a primeira máquina, que perdeu por 4 a 2, chamava-se, pouco modestamente, Deep Thought) contra o então campeão mundial Garry Kasparov [5], os visionários da IA cantaram vitória, inclusive afirmando que a máquina tinha ultrapassado o ser humano. Essa última afirmação precisa se colocada em seu devido contexto: desde sua introdução em 1946 (com a máquina ENIAC) e o primeiro comercial em 1951 (UNIVAC) os computadores já haviam ultrapassado o ser humano em uma área muito restrita: fazer contas aritméticas repetitivas – com muito mais rapidez e confiabilidade. O mesmo passou-se com o xadrez eletrônico. Mas o que significou, realmente, o sucesso da Deep Blue? Ocorre que, em primeiro lugar, o desfecho do torneio foi de 2 vitórias da Deep Blue, uma do Kasparov e 3 empates. Em segundo lugar, o xadrez é um jogo matemático, isto é, o tabuleiro, as peças e as suas regras podem ser descritos matematicamente. Em terceiro lugar, a Deep Blue fazia 200 de milhões de previsões 3 (cálculos) de lances por segundo. Em quarto lugar, Kasparov fazia mentalmente apenas algumas dezenas de lances. Assim sendo, como foi possível que um ser humano pudesse empatar três partidas e vencer uma contra uma supermáquina matemática, jogando um jogo matemático, quando a máquina tinha capacidade maior milhões de vezes? Essa pergunta não foi formulada na época e constou de meu artigo sobre o xadrez eletrônico [6]. Minha conjetura é que isso foi possível porque Kasparov, ao contrário da Deep Blue, não calculava! Ele provavelmente olhava a posição do tabuleiro e tinha rapidamente a intuição do lance correto; aí ele certamente testava sua ideia, simulando mentalmente lances adiante, para ver se a intuição tinha sido correta. Ora, a intuição é uma ideia vinda do nada, portanto, algo inexplicável. De fato, os grandes mestres em xadrez não conseguem explicar como chegam mentalmente ao lance correto, de modo que nunca foi possível colocar as suas estratégias numa máquina. Qualquer concepção de que o cérebro trabalha – inconscientemente – e gera os pensamentos é mera especulação, pois não se sabe como o cérebro funciona. Mais recentemente, o programa AlphaZero usou técnicas de Aprendizagem de Máquina para, partindo do zero, apenas com as regras do jogo, jogar contra a própria máquina e calcular parâmetros que o fizeram ganhar de todas as outras máquinas de jogar xadrez. ‘Aprendizado’ de máquina (Machine Learning) O maior sucesso recente da Inteligência Artificial é o ‘aprendizado’ de máquina (AM) [7]. Trata-se de uma técnica de dar a um programa uma enorme quantidade de conjuntos de dados de entrada e de saída; o programa então, em uma fase denominada de ‘treinamento’, calcula parâmetros para transformar um conjunto de dados de entrada em um conjunto de dados de saída correspondente, também fornecido ao programa. Posteriormente, depois de muitos casos desses, dá-se um novo conjunto de dados de entrada, obtendo-se então dados de saída que devem se aproximar o máximo possível do que seria esperado. Trata-se, portanto, de um problema de otimização matemática: diminuir o erro dos dados de saída em relação ao que seria de esperar. Uma das técnicas é usar uma ‘rede neural artificial’ [8] – novamente uma denominação errada: não se sabe como um neurônio funciona, e muito menos a rede dos neurônios no cérebro (calcula-se que haja 86 bilhões de neurônios e mais de um trilhão de conexões entre eles, as sinapses). 4 As redes neurais artificiais contêm várias camadas de nós abstratos interligados. A primeira camada de nós recebe os dados de entrada, cada nó recebendo um dado. Na segunda camada de nós, cada nó é ligado a alguns nós da primeira camada; um cálculo combinando os dados de cada nó da primeira camada produz um resultado em cada nó da segunda camada, segundo uma fórmula que usa parâmetros de transformação do dado que sai de cada nó da camada anterior. Uma terceira camada tem cada um de seus nós ligado a alguns da segunda camada, recebendo os resultados desses últimos e combinando esses dados por meio de um cálculo. E assim por diante, até a última camada de nós, a de saída. Note-se que a topologia da rede, isto é, as interligações entre os nós, também podem ser consideradas como parâmetros da rede. Um exemplo que se tornou clássico foi dar como entrada a uma rede os dados de muitas fotos digitalizadas de cães e de lobos. Para cada uma, especificava-se se a saída devia indicar um cão ou um lobo. Depois de muito ‘treinamento’, a rede era capaz de prever com grande chance de acerto se uma nova foto era de um cão ou de um lobo. Voltaremos a esse exemplo mais adiante. O Aprendizado de Máquina está sendo usado em inúmeras aplicações, por exemplo, no sistema financeiro, para indicar se uma pessoa desejando tomar um empréstimo tem chance de honrá-lo ou de se tornar inadimplente. Ou em entrevistas para contratação de funcionários, dando-se o perfil de um candidato e o sistema concluindo se ele tem boa chance de ser um bom funcionário. Impacto social da Inteligência Artificial Se um sistema de IA é utilizado para controlar máquinas, ele pode ser muito útil. Por exemplo, a quase totalidade dos acidentes de trânsito é devida a falhas humanas. Se um sistema de automação total de veículos diminuir os acidentes, seu emprego é recomendável. A respeito disso, é interessante fazer uma observação: aqui no Brasil, motoristas muitas vezes não respeitam as regras de trânsito, por exemplo, avançando em faixas em semáforos quando há congestionamentos. Um carro autônomo seguirá as regras, não vai ocupar essas faixas e com isso terá que esperar um tempo extenso até que o trânsito não esteja mais congestionado, o que provocará o desespero dos motoristas atrás dele. Ou todos os motoristas passam a respeitar as regras de trânsito, ou o carro autônomo terá que ser colocado em modo manual para também se poder desrespeitá-las. 5 O grande problema de IA ocorre quando um sistema é usado para tomadas de decisões sociais ou humanas, sem que seres humanos participem da última fase das decisões. É muito importante reconhecer que computadores não tomam decisões, eles fazem escolhas lógicas. Decisões humanas envolvem sentimentos, e máquinas não têm sentimentos e em minha conjetura jamais terão [2]. Em particular, computadores são máquinas puramente sintáticas, máquinas de seguir regras matemáticas cegamente. Se uma máquina é usada sozinha para substituir decisões humanas, ela trata as pessoas, às quais as escolhas dela se aplicam, como se fossem máquinas, como seriam os casos citados na seção 3, e mais aplicações desse tipo no sistema judiciário, diagnóstico e procedimentos médicos etc. Como oser humano tem sentimentos, toda lei social é estabelecida levando-se- os em conta. Um contraexemplo seria considerar-se que há excesso de população no mundo. Assim sendo, um raciocínio puramente lógico seria o seguinte: vamos passar leis permitindo pessoas matarem-se umas as outras, até que a população diminua. É por uma questão de sentimentos que tal lei parece revoltante – fora o fato de o legislador correr o risco de ser ele próprio morto... Foi dito que os computadores são máquinas sintáticas. Isso significa que elas não têm semântica (compreensão) e muito menos pragmática, sendo ambas características humanas. Por exemplo, em um julgamento no sistema judiciário poderiam ser levados em conta atenuantes, como por exemplo, uma mãe faminta roubar um pão para seus filhos. Um computador aplicará a lei dentro das regras que lhe foram dadas, e talvez essa atenuante ou outras, inclusive não previstas, não sejam parte do sistema. Um exemplo é o sistema COMPAS, da Northpointe Inc., usado nos EUA para proferir sentenças judiciais, e que emprega um algoritmo ‘proprietário’, portanto secreto; o sistema calcula a probabilidade de uma pessoa vir a cometer novamente um crime. É conhecido o caso de um motorista guiando um carro roubado que não parou em uma perseguição policial, o que pela jurisprudência devia resultar em 2 ou 3 anos de cadeia. 6 No entanto, examinando os antecedentes da pessoa, opinião de outros sobre ela etc., o sistema atribuiu-lhe 6 anos de prisão. Um recurso contra essa escolha da máquina não foi aceito [9]. Outro exemplo é a geração de timbre de voz de uma pessoa, bem como movimentação dos lábios e expressões faciais que acompanham uma certa fala. Com isso é possível gerar vídeos extremamente convincentes de que alguém disse certa coisa que jamais pronunciou. Aqui não se trata de fake news, notícias falsas, mas de discurso falso (fake voice), o que está sendo denominado de deep fake (falsidade profunda). Tornaram-se conhecidos o vídeo falso de um discurso do ex-presidente Obama [10] e da presidente do Congresso americano Nancy Pelosi, em que ela parece estar embriagada [11]. ‘Inteligência’ artificial vs. inteligência humana Uma das diferenças fundamentais entre a ‘Inteligência’ artificial e a inteligência humana é que a primeira é sempre especializada. Por exemplo, os programas de jogar xadrez só jogam xadrez, não fazem mais nada. O sistema de AM relatado acima, para distinguir cães de lobos, não distingue mais nada. Tenho a impressão de que um sistema de AM que tivesse várias aplicações distintas iria resultar na maior confusão. Qualquer ser humano, ao contrário, tem uma inteligência extremamente multifacetada, por exemplo, distinguindo uma quantidade muito grande de animais, sabendo fazer múltiplas tarefas diferentes com as mãos etc. Outra diferença fundamental é que os computadores são máquinas matemáticas, usando uma matemática muito particular, a discreta e finita. De fato, qualquer dado que esteja dentro de um computador tem que ser expresso numericamente, o que vale também para os programas, que também são dados. É impossível colocar em um computador o conceito de contínuo (por exemplo, dos números reais, ou os pontos de uma reta) e de infinito, apesar de serem usados na matemática geral. Não se pode afirmar que a inteligência humana seja discreta e finita. Aliás, a nossa memória é aparentemente ilimitada, pois jamais alguém teve a vivência de querer memorizar algo (p.ex. um número de telefone, o nome de uma pessoa etc.) e não haver mais ‘lugar’ para isso. Isso é uma das indicações de que o ser humano tem elementos que transcendem a matéria, pois se nossa memória fosse simplesmente física, teria necessariamente que ser limitada, finita. 7 No meu artigo sobre IA [2], caracterizei dois tipos de inteligência: a ‘incorporada’ e a ‘criativa’. Todas as máquinas têm uma inteligência incorporada, devido ao seu projeto, sua construção e funcionalidade, todos devidos a ações humanas. Mas também seres humanos a têm, na infinita sabedoria revelada pelo seu corpo físico. Animais e plantas idem. Mas até a Terra tem uma inteligência incorporada; por exemplo, se ela estivesse um pouco mais próxima ou afastada do Sol, não estaríamos aqui; se houvesse muito mais oxigênio na atmosfera, ‘queimaríamos’. Se o eixo de rotação da Terra não fosse inclinado, não haveria estações do ano, e provavelmente também não estaríamos aqui. E também o mundo físico tem essa inteligência: um pequeno desvio nas constantes físicas, e até mesmo os átomos não existiriam. Mas só o ser humano tem o que denominei de ‘inteligência criativa’. É devido a ela que aparecem novas ideias e novos impulsos. É devido a ela que o ser humano está mudando as condições da Terra – infelizmente, em vários aspectos mais para pior do que para melhor. Conclusão: os grandes perigos E por falar em mudar para pior, o grande sucesso recente da IA, especialmente o AM, representa quatro enormes perigos para a humanidade. Em primeiro lugar, o Ser Humano passar a confiar cada vez mais nas máquinas, substituindo decisões humanas pelas escolhas lógicas, frias, das máquinas. Em segundo lugar, os dados de entrada que são usados podem ser viciados, levando a conclusões também viciadas. Por exemplo, uso de dados racistas levarão a escolhas racistas. Outro exemplo é o de uso de dados apenas de homens, e depois os sistemas serem aplicados também a mulheres. Em terceiro lugar, a tendência é de armazenar em computadores cada vez mais dados pessoais, usados posteriormente em escolhas. Por exemplo, a empresa Google traça um perfil de cada um de seus usuários, examinando para isso os e-mails que ele enviou pelo processador gmail, quais sites o usuário visitou usando o navegador Chrome etc. 8 Mesmo se uma pessoa não usa nenhum produto da Google, se ela enviar um e- mail para alguém com um endereço do gmail, a Google já começa a traçar o perfil da segunda. Com esses perfis, o sistema de busca do Google elenca os resultados da busca segundo o perfil, sugerindo sites comerciais. Afinal, a Google desenvolveu um sistema genial: ela cobra pelo número de acessos que são feitos aos sites dos seus anunciantes. Em quarto lugar, existe um grande perigo de dados pessoais ficarem armazenados eternamente. Por exemplo, alguma pessoa cometeu uma bobagem quando adolescente. Esse dado poderá ser usado por um sistema de IA muitos anos depois, na seleção de candidatos a algum emprego, sem que a pessoa saiba disso. Em quinto lugar, notícias falsas e falas falsas com som subvertem totalmente a confiança que se tinha, especialmente na mensagem de uma pessoa devido ao seu timbre de voz. Já estamos naquilo que denomino ‘era da mentira’. Isso vai abalar um dos pontos fundamentais do relacionamento humano, a confiança. O que fazer? É absolutamente essencial que se saiba como cada programa e sistema funciona, isto é, quais são os critérios de escolha embutidos neles. Além disso, quaisquer dados pessoais devem poder ser examinados pelos cidadãos, e deve haver mecanismos judiciais rápidos (rapidez no sistema judiciário é, quem sabe, a maior utopia no Brasil...) para que eles sejam apagados quando inconvenientes, ou corrigidos. Finalmente, não se pode permitir que empresas desenvolvessem sistemas que substituam autonomamente decisões humanas; o funcionamento (algoritmos) dos programas que fornecem dados de apoio a decisões humanas devem ser conhecidos pelos seus usuários. Referências (Propositalmente, para simplificar, não será seguido o padrão usual de referências bibliográficas) [1] Leis de Setzer. Acesso em 11/8/19: https://www.ime.usp.br/~vwsetzer/jokes/leis.html [2] Meu artigo sobre IA. Idem: https://www.ime.usp.br/~vwsetzer/IAtrad.html https://www.ime.usp.br/~vwsetzer/jokes/leis.html https://www.ime.usp.br/~vwsetzer/IAtrad.html9 [3] Artigo bastante completo sobre histórico e detalhes da IA. Acesso em 10/8/19: https://www.oezratty.net/wordpress/wpcontent/themes/Ezratty5/forcedownload.ph p?file=/Files/Publications/Usages%20intelligence %20artificielle%202018%20Olivier%20Ezratty%20Compressed.pdf [4] Proposta do simpósio no Dartmouth College. Idem: https://web.archive.org/web/20070826230310/http://wwwformal.stanford.edu/jmc/ history/dartmouth/dartmouth.html [5] O torneio Kasparov vs. Deep Blue. Idem: https://rafaelleitao.com/o-homem-e-a-mquina-o-match-kasparov-x-deep-blue/ [6] Meu artigo sobre xadrez eletrônico. Idem: https://www.ime.usp.br/~vwsetzer/xadrez.html [7] ‘Aprendizado’ de máquina. Idem: https://pt.wikipedia.org/wiki/Aprendizado_de_m%C3%A1quina [8] Redes ‘neurais’ artificiais, Idem: https://pt.wikipedia.org/wiki/Rede_neural_artificial [9] Artigo do New York Times sobre o caso do uso do sistema judiciário Compas e de outros sistemas. Idem: https://www.nytimes.com/2016/06/23/us/backlash-in- wisconsin-againstusing-data-to-foretell-defendants-futures.html?module=inline [10] Vídeo falso de Barack Obama. Idem: https://www.youtube.com/watch?v=AmUC4m6w1wo [11] Vídeo falso de Nancy Pelosi bêbada. Idem: https://www.irishtimes.com/culture/tv-radioweb/the-fake-facebook-video-that- turned-nancy-pelosi-into-an-alcoholic-old-hag-1.3905862 https://web.archive.org/web/20070826230310/http:/wwwformal.stanford.edu/jmc/history/dartmouth/dartmouth.html https://web.archive.org/web/20070826230310/http:/wwwformal.stanford.edu/jmc/history/dartmouth/dartmouth.html https://rafaelleitao.com/o-homem-e-a-mquina-o-match-kasparov-x-deep-blue/ https://www.ime.usp.br/~vwsetzer/xadrez.html https://pt.wikipedia.org/wiki/Aprendizado_de_m%C3%A1quina https://pt.wikipedia.org/wiki/Rede_neural_artificial https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-againstusing-data-to-foretell-defendants-futures.html?module=inline https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-againstusing-data-to-foretell-defendants-futures.html?module=inline https://www.youtube.com/watch?v=AmUC4m6w1wo https://www.irishtimes.com/culture/tv-radioweb/the-fake-facebook-video-that-turned-nancy-pelosi-into-an-alcoholic-old-hag-1.3905862 https://www.irishtimes.com/culture/tv-radioweb/the-fake-facebook-video-that-turned-nancy-pelosi-into-an-alcoholic-old-hag-1.3905862 10 Inteligência Artificial e Machine Learning em Cardiologia - Uma Mudança de Paradigma Claudio Tinoco Mesquita1 1Professor do Departamento de Medicina Clínica do Hospital Universitário Antônio Pedro, Universidade Federal Fluminense (UFF), Niterói, RJ - Brasil Palavras-chave: Inteligência Artificial/tendências; Aprendizado de Máquinas/tendências; Doenças cardiovasculares; Ecocardiografia/tendências; Medicina Nuclear/tendências A robot may not injure a human being or, through inaction, allow a human being to come to harm. First Law of Robotics - Isaac Asimov A um robô não é permitido machucar um ser humano ou, por inação, permitir que venha a ser feito algum mal a um ser humano. Primeira Lei da Robótica – Isaac Asimov Vivenciamos uma mudança de paradigma na vida moderna. Com a presença de computadores e máquinas inteligentes em todos os lugares, as predições dos livros de ficção científica de anos atrás passam gradativamente a se tornar realidade; são os tempos da computação úbíqua. Entre as ferramentas computacionais mais frequentemente mencionadas em estudos clínicos e vistas com entusiasmo por parte https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#aff2 11 da comunidade científica se destacam a Inteligência Artificial e o consequente aprendizado das máquinas, que é melhor citado na sua forma original em inglês, o Machine Learning. De modo geral a Inteligência Artificial é definida como a constelação de itens (algoritmos, robótica, redes neuronais) que permitem que um software tenha propriedades de inteligência que se comparam às de um ser humano, entre elas o aprendizado com mínima interferência humana a partir de bancos de dados.1 Recentemente Obermeyer e Emanuel escreveram um editorial afirmando que o Machine Learning tornou-se disseminado e indispensável para a resolução de problemas complexos nos diversos campos da ciência, sendo que na área médica sua utilização irá transformar a prática.2 A utilização de inteligência artificial está evoluindo de modo crescente na cardiologia e já há excelentes exemplos em diversas áreas. Utilizando um sistema sofisticado de aprendizado para interpretação eletrocardiográfica Li e colaboradores3 conseguiram que padrões eletrocardiográficos fossem reconhecidos automaticamente com acurácia de 88% para classificação dos ritmos anormais. Uma das limitações mais importantes do sistema estudado foi a qualidade do sinal eletrocardiográfico para interpretação e aprendizado, o que ressalta uma das características essenciais do Machine Learning, que é a necessidade de informações acuradas e reprodutíveis para formação de bancos de dados.2,3 Como os bancos de dados são, geralmente produzidos a partir de pacientes selecionados por sua condição de base, um dos mais importantes pontos para o desenvolvimento é a criação de bases de dados mais amplas e generalizáveis, que não induzam vieses na interpretação dos achados, ponto em que a indústria está investindo intensamente no momento.2 Na ecocardiografia muitos estudos estão avaliando o uso do Machine Learning na interpretação de imagens, como o de Narula et al.4 que através de um banco de dados de pacientes com miocardiopatia hipertrófica e de indivíduos com hipertrofia fisiológica que foram submetidos a Speckle Tracking, conseguiram criar um sistema computacional baseado em Machine Learning que foi capaz de assistir ecocardiografistas pouco experientes na distinção entre as duas condições com excelente acurácia. Tajik,5 em um entusiasmado editorial, assinalou que o Machine Learning deverá reduzir ou mesmo eliminar a variabilidade intra e interobservador dos exames ecocardiográficos e reduzir acentuadamente os erros cognitivos. Neste ponto o uso da inteligência artificial depara-se com a ética médica, pois as dúvidas que podem ocorrer em casos de erros poderão estar ligadas à atribuição de responsabilidades: errou o médico ou errou o software? As experiências com o uso de pilotos automáticos na aviação poderão servir de base para a discussão ética que ocorrerá, tendo em vista que sempre há pelo menos um ser humano responsável pelo voo mesmo com uso dos modernos dispositivos da aviação comercial. Neste ponto, https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B1 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B2 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B3 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B2 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B3 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B2 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B4 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B5 12 Obermeyer e Emanuel2 chamam a atenção para o fato de que haverá uma redução maciça da necessidade de médicos em situações em que os computadores poderão ser alimentados diretamente por informações digitais como na radiologia e na patologia, pois a grande quantidade de informações digitais disponíveis permitirá a formação de bancos de dados confiáveis que levarão a uma performance das máquinas superior à humana. Quando a inteligência artificial é empregada em contextos clínicos mais complexos ainda há um caminho mais longo a ser percorrido. Austin et al.6 utilizaramum sistema de Machine-Learning e de mineração de dados para avaliar e classificar pacientes com insuficiência cardíaca e encontraram que apesar do sistema ser superior aos métodos convencionais para predição de insuficiência cardíaca com fração de ejeção preservada, não houve vantagens em relação à tradicional regressão logística. Liu et al.7 desenvolveram um sistema de predição de eventos adversos coronarianos em pacientes com dor torácica na sala de emergência baseado em Machine Learning e o compararam com o TIMI escore. Embora a performance do novo sistema seja confiável para predição de mortalidade e de eventos cardíacos em 30 dias, os próprios autores reconhecem que as decisões clínicas são dependentes de fatores que ainda não podem ser completamente incorporados às máquinas, sendo um deles a experiência dos médicos.7 Em cardiologia nuclear Arsanjani et al.8 avaliaram o uso da ferramenta de Machine Learning para predição de revascularização miocárdica a partir de dados da cintilografia de perfusão miocárdica, encontrando uma acurácica comparável ou mesmo superior à de examinadores experientes na interpretação do exame cintilográfico. Garcia et al.,9 em excelente revisão sobre o tema apontam que os sistemas de suporte à decisão clínica e de inteligência artificial servem como alertas para os vieses cognitivos dos clínicos e reduzem a variabilidade intra e interobservador, permitindo interpretar os exames mais rapidamente e com maior acurácia, como observado em estudos em que a interpretação diagnóstica do exame pelo computador é similar à dos experts.10 De um modo geral concordamos com esta visão e consideramos que o amparo à tomada de decisão clínica e melhoria da performance diagnóstica e prognóstica devem ser encorajados e suportados pelos médicos das diversas especialidades. A preocupação frequente com a eventual substituição definitiva do médico pelas máquinas não é consubstanciada pelos fatos. A profissão médica é de uma complexidade e subjetividade que tornam a tarefa impossível de ser realizada na sua totalidade pelas máquinas, pelo menos no estágio atual do conhecimento. A utilização adequada da computação permite não só a melhoria da performance médica mas também a busca da solidariedade entre pacientes, com experiências bem sucedidas na criação de redes sociais para pacientes.11 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B2 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B6 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B7 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B7 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B8 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B9 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B10 https://www.scielo.br/scielo.php?pid=S2359-56472017000300187&script=sci_arttext&tlng=pt#B11 13 Apenas o estudo do impacto aprofundado para desenvolvimento e utilização destas ferramentas poderá trazer as respostas para as perguntas que hoje estão nas mentes dos médicos e dos seus pacientes. O International Journal of Cardiovascular Sciences estimula seus leitores e contribuintes a enviar comunicações científicas sobre o tema para publicação. REFERENCES 1 Forsting M. Hot Topics: Will Machine Learning Change Medicine? J Nucl Med. 2017;58(3):357-8. [ Links ] 2 Obermeyer Z . Emanuel EJ. Predicting the future: big data, machine learning, and clinical medicine. N Engl J Med. 2016;375(13):1216-9. [ Links ] 3 Li Q, Rajagopalan C, Clifford GD. A machine learning approach to multi-level ECG signal quality classification. Comput Methods Programs Biomed . 2014;117(3):435-47. [ Links ] 4 Narula S, Shameer K, Salem Omar AM, Dudley JT, Sengupta PP. Machine-Learning Algorithms to Automate Morphological and Functional Assessments in 2D Echocardiography. J Am Coll Cardiol. 2016;68(21):2287-95. [ Links ] 5 Tajik AJ. Machine Learning for Echocardiographic Imaging: Embarking on Another Incredible Journey. J Am Coll Cardiol.2016;68(21):2296-8. [ Links ] 6 Austin PC, Tu J V, Ho JE, Levy D, Lee DS. Using methods from the data-mining and machine-learning literature for disease classification and prediction: a case study examining classification of heart failure subtypes. J Clin Epidemiol. 2013;66(4):398-407. [ Links ] 7 Liu N, Lee MAB, Ho AFW, Haaland B, Fook-Chong S, Koh ZX, et al. Risk stratification for prediction of adverse coronary events in emergency department chest pain patients with a machine learning score compared with the TIMI score. Int J Cardiol . 2014;177(3):1095-7. [ Links ] 8 Arsanjani R, Dey D, Khachatryan T, Shalev A, Hayes SW, Fish M, et al. Prediction of revascularization after myocardial perfusion SPECT by machine learning in a large population. J Nucl Cardiol. 2014;22(5):877-84. [ Links ] 9 Garcia E V, Klein JL, Taylor AT. Clinical decision support systems in myocardial perfusion imaging. J Nucl Cardiol. 2014;21(3):427-39. [ Links ] 10 Arsanjani R, Xu Y, Dey D, Vahistha V, Shalev A, Nakanishi R, et al. Improved accuracy of myocardial perfusion SPECT for detection of coronary artery disease by machine learning in a large population. J Nucl Cardiol. 2013;20(4):553-62. [ Links ] 11 Medina EL, Mesquita CT, Loques Filho O. Healthcare social networks for patients with cardiovascular diseases and recommendation systems. Int J Cardiovasc Sci. 2016;29(1):80-5. [ Links ] javascript:void(0); javascript:void(0); javascript:void(0); javascript:void(0); javascript:void(0); javascript:void(0); javascript:void(0); javascript:void(0); javascript:void(0); javascript:void(0); javascript:void(0); 14 Recebido: 13 de Março de 2017; Revisado: 12 de Abril de 2017; Aceito: 12 de Abril de 2017 Correspondência: Cláudio Tinoco Mesquita, Hospital Universitário Antônio Pedro. Rua Marquês do Paraná, 303 - Centro. CEP 24033-900 - Niterói, RJ - Brasil. E- mail: claudiotinocomesquita@gmail.com mailto:claudiotinocomesquita@gmail.com
Compartilhar