Baixe o app para aproveitar ainda mais
Prévia do material em texto
ERAS DA QUALIDADE __________________________________________________Gestão da Qualidade EVOLUÇÃO HISTÓRICA DA QUALIDADE 1 - O APARECIMENTO DA INSPEÇÃO Nos séculos XVIII e XIX, não existia ainda o controle da qualidade tal como conhecemos hoje. Quase tudo era fabricado por artesãos e artífices habilidosos ou trabalhadores experientes e aprendizes sob a supervisão dos mestres de ofício. Produziam-se pequenas quantidades de cada produto; as peças eram ajustadas umas à outras manualmente e, após os produtos prontos, a inspeção para assegurar uma alta qualidade, era informal, quando feita. Um produto que funcionava bem era visto como resultado natural da confiança nos artífices qualificados para todos os aspectos do projeto, da produção e do serviço. A inspeção formal só passou a ser necessária com o surgimento da produção em massa e a necessidade de peças intercambiáveis. Com o aumento dos volumes de produção, as peças não mais podiam ser encaixadas umas nas outras manualmente: o processo exigia um grande grupo de mão de obra qualificada, era caro e demorado. Os preços eram, quase sempre, acima do poder aquisitivo do consumidor médio, especialmente no caso das máquinas e equipamentos. As atividades de inspeção foram relacionadas mais formalmente com o controle de qualidade em 1922, com a publicação da obra The Control of Quality in Manufacturing, de G. S. Radford. Pela primeira vez, a qualidade foi vista como responsabilidade gerencial distinta e como função independente. O livro chegou até a tratar de muitos princípios considerados centrais no moderno controle da qualidade: a necessidade de se conseguir a participação dos projetistas logo no início das atividades associadas à qualidade e a associação da melhoria da qualidade com a maior produção e custos mais baixos. Seu enfoque principal era, entretanto, a inspeção. Nove dos vinte e sete capítulos do livro foram dedicados apenas a este tema. Os tópicos tratavam da finalidade de inspeção (“exercitar o dever de verificar de perto e criticamente o trabalho de modo a assegurar a qualidade, descobrir os erros e trazê-los à atenção das pessoas competentes, de forma a fazer com que o trabalho volte ao padrão”), a evolução da inspeção (das verificações visuais para as verificações dimensionais); tipos de inspeção (materiais, salas, ferramentas, e processos); métodos de amostragem (inclusive amostragem de 100 pr cento e aleatória, mas sem qualquer base estatística); técnicas de medição; e a organização do departamento de inspeção. A ênfase era sempre na conformidade e em sua relação com a inspeção de acordo com Radford, o “principal interesse do comprador na qualidade [era] aquela igualdade ou uniformidade que se obtém quando o fabricante atende às especificações estabelecidas”. Neste ponto, a situação se manteve inalterada por muitos anos. O controle da qualidade limitava-se à inspeção e a atividades restritas como a contagem, a classificação pela qualidade e os reparos. A solução de problemas era vista como fora do campo do departamento de inspeção médio. Mas, nos dez anos seguintes, o papel do profissional da qualidade seria redefinido. O estímulo à mudança foi a pesquisa feita nos Bell Telephone Laboratories; o resultado foi o que se chama de controle estatístico da qualidade. 2- CONTROLE ESTATÍSTICO DA QUALIDADE O ano de 1931 representou um marco no movimento da qualidade. A obra Economic Control of Quality manufactured Product, de W. A. Shewhart, publicada naquele ano, conferiu pela primeira vez um caráter científico à disciplina. Grande parte do moderno controle da qualidade pode ser atribuída àquele livro. Nele, Shewhart deu uma definição precisa e mensurável de controle de fabricação, criou poderosas técnicas de acompanhamento e avaliação da produção diária e propôs diversas maneiras de se melhorar a qualidade. Shewhart fazia, de fato, parte de um grupo maior dos Bell Telephone Laboratories que estava investigando problemas da qualidade. As pesquisas do grupo foram suscitadas pelas preocupações dos engenheiros da Westem Eletronic, a responsável pele área de produção do sistema Bell, que estavam em busca de maior padronização e uniformidade na rede nacional de telefonia. Quase toda a atenção estava voltada para o equipamento complexo que estava sendo construído no estabelecimento da empresa em Hawthorne. Como, indagavam os engenheiros, poder-se-ia obter o máximo de informação sobre aa qualidade das unidades com o menor volume possível de dados de inspeção? E como os dados deveriam ser apresentados? Em 1924, a Westem Eletric criou um Departamento de Engenharia e Inspeção para tratar dessas questões; que passou a ser, mais tarde, o Departamento de Garantia da Qualidade dos Bell Laboratories. O grupo, que contava com luminares como Shewhart, Harold Dodge, Harry Romig, C. D. Edwards e, mais tarde, Joseph Juran, ficou em grande parte responsável pela criação da atual disciplina conhecida como controle estatístico da qualidade. 2.1 CONTROLE DE PROCESSO A abertura do caminho inicial foi feita por Shewhart. Foi ele o primeiro a reconhecer que a variabilidade era um fato concreto na indústria e que ela seria entendida por meio dos princípios da probabilidade e da estatística. Shewhart observou que era improvável que duas peças fossem fabricadas precisamente de acordo com as mesmas especificações. Haveria um certo grau de variação das matérias-primas, da habilidade dos operadores e dos equipamentos. Até a mesma peça produzida por um único operador numa única máquina provavelmente revelaria alguma variação com o tempo. Do ponto de vista gerencial, isso exigia que o problema da qualidade fosse repensado. A questão não era mais a existência de variação – era certo que ela continuaria existindo, até certo ponto, independentemente das providências que fossem tomadas – mas como distinguir as variações aceitáveis das flutuações que indicassem problemas. Toda a análise derivou do conceito de controle estatístico de Shewhart. Dir-se-á que um fenômeno está sob controle quando, recorrendo-se à experiência passada, se puder prever, pelo menos dentro de certos limites, como o fenômeno deve variar no futuro. Entende-se, aqui, que previsão significa que se possa determinar, pelo menos aproximadamente, a probabilidade de que o fenômeno observado fique dentro de determinados limites. Shewhart formulou, então, técnicas estatísticas simples para a determinação desses limites, além de métodos gráficos de representação de valores de produção para avaliar se eles ficavam dentro da faixa aceitável. Separando as causas anormais de variação (que podem ser atribuídas a um determinado fator) daquelas inerentes a um processo de produção, permite-se fazer distinção entre problemas reais e problemas devidos simplesmente ao acaso. Além do mais, são retiradas amostras de produtos durante a produção, em vez de esperar o término da montagem de um produto. 2.2 AMOSTRAGEM As técnicas de amostragem partem da premissa simples de que uma inspeção de 100 por cento é uma maneira ineficiente de se separar os bons produtos dos maus. Uma alternativa clara é verificar um número limitado de produtos de um lote de produção e, depois, decidir, com base nesta verificação, se o lote inteiro é aceitável. Mas este processo envolve certos riscos. Como as amostras nunca são inteiramente representativas, pode-se, ocasionalmente, aceitar um lote de produção que possua, na realidade, inúmeros produtos com defeito. Também pode ocorrer um erro relacionado: pode-se rejeitar um lote de produção que seja, na verdade, de qualidade perfeitamente aceitável. No fim dos anos 40, então, o controle da qualidade já estava estabelecido como disciplina reconhecida.Seus métodos eram, porém, basicamente estatísticos e seu impacto confinou-se em grande parte à fábrica. Pouca coisa mudaria até a publicação de diversas obras que representaram marcos nos anos 50 e início da década de 60. essas obras introduziram a grande era da qualidade que veio a seguir, a era da garantia da qualidade. 3- GARANTIA DA QUALIDADE No período da garantia da qualidade, a qualidade passou de uma disciplina restrita e baseada na produção fabril para uma disciplina com implicações mais amplas para o gerenciamento. A prevenção de problemas continuou sendo seu objetivo fundamental, mas os instrumentos da profissão se expandiram para muito além da estatística. Havia quatro elementos distintos: quantificação dos custos da qualidade, controle total da qualidade, engenharia da confiabilidade e zero defeito. 3.1 CUSTOS DA QUALIDADE Até a década de 50, a maioria das tentativas de se melhorar a qualidade era baseada na premissa implícita de que os defeitos tinham um custo. Quanto eles custavam era uma questão de opinião, pois poucas empresas tinham se dado ao trabalho de totalizar as despesas em que incorriam porque os produtos não eram feitos corretamente da primeira vez. Na falta deste padrão de medida, os gerentes, acostumados a tomar decisões baseadas em números reais, não tinham por que prosseguir. Juran observou que os custos para se atingir um determinado nível da qualidade podiam ser divididos em custos evitáveis e inevitáveis. Estes últimos eram associados à prevenção – inspeção, amostragem, classificação e outras iniciativas de controle da qualidade. Custos evitáveis eram os dos defeitos e das falhas dos produtos – material sucateado, horas de trabalhos necessárias para refazer o produto e repará-lo, processamento de reclamações e prejuízos financeiros resultantes de fregueses insatisfeitos. Os gerentes tinham, então, uma maneira de decidir quanto investir na melhoria da qualidade. Mais despesas com prevenção provavelmente se justificaria desde que os custos das falhas continuassem elevados. O conceito também ilustrava outro princípio importante: o de que as decisões tomadas no início da cadeia de produção – por exemplo, quando os engenheiros fizeram o esboço do projeto de um novo produto – tinham implicações para o nível de custos da qualidade em que se incorria mais adiante, tanto na fábrica quanto no campo. 3.2 CONTROLE TOTAL DA QUALIDADE Em 1956, Armand Feigenbaum levou este princípio um passo adiante, propondo o “controle total da qualidade”. Produtos de alta qualidade, argumentava ele, não teriam probabilidade de serem produzidos se o departamento de fabricação fosse obrigado a trabalhar isoladamente. “O princípio em que se assenta esta visão da qualidade total... é que,para se conseguir uma verdadeira eficácia, o controle precisa começar pelo projeto do produto e só terminar quando o produto tiver chegado às mãos de um freguês que fique satisfeito... o primeiro princípio a ser reconhecido é o de que qualidade é um trabalho de todos.” Feigenbaum observou que todos os produtos novos, à medida que iam passando do projeto para o mercado, envolviam aproximadamente as mesmas atividades. Do ponto de vista da qualidade, eles podiam ser agrupados em três categorias: controle de novos projetos, controle de material recebido e controle de produtos ou local de produção. O primeiro, por exemplo, envolvia avaliações, antes da produção, da “fabricabilidade” de um projeto, bem como a depuração de novas técnicas de fabricação por meio de produções-piloto. Para terem êxito, essas atividades exigiam a cooperação de muitos departamentos. De fato, à medida que os produtos iam passando pelas três etapas principais, tinha que haver a participação de grupos distintos como os de marketing, engenharia, compras, fabricação, expedição e atendimento ao cliente. Caso contrário, poder-se-iam cometer erros logo no inicio do processo, que causariam problemas adiante – durante a montagem ou, o que é pior, após o produto ter chegado às mãos de um cliente. Os métodos estatísticos ainda eram importantes – ambos autores dedicaram grande partes de seus livros a explicações do controle de processos e da amostragem – assim como as técnicas tradicionais de inspeção e medições. Mas o sistema da qualidade passara a incluir agora o desenvolvimento de novos produtos, a seleção de fornecedores e o atendimento aos clientes, além do controle de fabricação. Para fazer frente a estas responsabilidades, tanto Feigenbaum quanto Juran argumentavam que era preciso uma nova função – a da qualidade em alto nível, à coordenação das atividades de outros departamentos, ao estabelecimento de padrões da qualidade e à determinação de medidas da qualidade. Estas atividades exigiam uma combinação de habilidades gerenciais. Delas se depreendia que a formação estatística não mais bastava para garantir a competência de um profissional da área da qualidade. 3.3 ENGENHARIA DA CONFIABILIDADE Contudo, mais ou menos na mesma época em que Feigenbaum e Juran estavam apresentando esses argumentos, outra ala da disciplina estava surgindo, com uma crença mais forte ainda na teoria da probabilidade e na estatística: a engenharia da confiabilidade, que tinha por objetivo garantir um desempenho aceitável do produto ao longo do tempo. É claro que era preciso prestar mais atenção ao desempenho do produto ao longo do tempo. O primeiro passo foi decidir com maior precisão a confiabilidade – como “a probabilidade de um produto desempenhar uma função especifica sem falhas, durante um certo tempo e sob condições pré-estabelecidas”. Associada aos recursos da moderna teoria da probabilidade, esta definição levou a métodos formais de previsão do desempenho de equipamentos ao longo do tempo. Também resultou em técnicas de redução dos índices de falhas enquanto os produtos ainda estavam no estágio de projeto. Como o controle total da qualidade, a engenharia de confiabilidade visava, antes de qualquer coisa, prevenir a ocorrência de defeitos. Também ela enfatizava as habilidades de engenharia e a atenção para a qualidade durante todo o processo de projeto. Zero defeito, a última inovação significativa da era da garantia de qualidade, segue uma trilha diferente: concentrava-se nas expectativas de gerenciamento e nas relações humanas. 3.4 ZERO DEFEITO Zero defeito teve sua gênese na Martin Company em 1961-62. Naquela época, a Martin estava construindo mísseis Pershing para o exército dos Estados Unidos. A qualidade do produto, de uma maneira geral satisfatória, só era conseguida por meio de uma maciça inspeção. Foram oferecidos estímulos aos empregados para baixar ainda mais o índice de defeitos; juntamente com inspeção e testes mais intensos ainda, esses esforços levaram, no dia 12 de Dezembro de 1961, à entrega de um míssel Pershing ao cabo Canaveral sem discrepância alguma. Essa experiência serviu para abrir os olhos de Martin. Após um exame cuidadoso, a gerencia concluiu que o sucesso do projeto era, primordialmente, reflexo de sua própria mudança de atitude: “A razão que explica a falta de perfeição era simplesmente que não se esperava a perfeição. Quando a gerência passou a exigir a perfeição, conseguiu!”. O mesmo raciocínio sugeriu uma necessidade de concentração na motivação e conscientização dos empregados. Das três causas mais comuns de erros dos empregados – falta de conhecimento, falta de instalações adequadas e falta de atenção – a gerência chegou a conclusão de que a última era a que menos se dava importância. Propôs-se desenvolver um programa cujo o objetivo preponderante fosse “promover uma vontade constante de fazer o trabalho (qualquer trabalho) certo da primeira vez”. 4 - GESTÃO ESTRATÉGICADA QUALIDADE Não se pode identificar com precisão os primórdios da gestão estratégica da qualidade, pois nenhum livro ou artigo marca a transição. Na realidade, muitos gerentes norte-americanos parecem acreditar que o último desenvolvimento importante da disciplina tenha sido a garantia da qualidade. Os programas que adotam no momento são estritamente parecidos com os que apareceram há vinte anos. Estão calcados em princípios bem estabelecidos como a coordenação entre funções, zero defeitos, custos da qualidade e controle estatístico da qualidade. Com base nestas evidências, as duas últimas décadas do movimento da qualidade pareceram ter ido além do comum, com poucos avanços além da prática anterior. Mas, num número cada vez maior de empresas começou a surgir uma nova visão, que incorpora um notável desvio de perspectiva. Pela primeira vez, diretores a nível de presidência e diretoria executiva expressaram interesse pela qualidade. Estão associando-a à lucratividade, definindo-a de acordo com o ponto de vista do cliente e exigindo sua inclusão no processo de planejamento estratégico. No mais radicais de todos os avanços, insistem que a qualidade seja vista como uma arma agressiva de concorrência. 4.1 DESAFIO E RESPOSTA Essas mudanças não aconteceram do noite para o dia. Diversas forças externas, cada uma delas relacionando as perdas de rentabilidade e de participação com a má qualidade, prepararam o terreno. Juntas, despertaram as empresas para o potencial da qualidade na concorrência. Entre as influências mais importantes estiveram a maior concorrência externa, um significativo aumento do número de processos de indenização em função de produtos e pressões do governo em várias frentes. Para muitos gerentes norte-americanos, porém, o despertar mais duro foi provocado pelas sérias incursões dos fabricantes japoneses devido à sua qualidade e confiabilidade superiores. A indústria de semi-condutores serve de exemplo instrutivo. Até há pouco tempo, os dados sobre desempenho comparado a empresas na área de qualidade eram escassos e guardados em segredo. Mas, em março de 1980, Richard W. Anderson, gerente geral de sistemas de dados da Hewlett-Packard contou que, após ter testado 300.000 chips de memória RAM de três fabricantes norte-americanos e três japoneses, a Hewlett-Packard descobriu grandes diferenças de qualidade. Na inspeção de chegada, os chips japoneses tinham uma taxa de falhas igual a zero; a taxa dos três fabricantes norte-americanos estavam entre 0,11 e 0,19%. Após mil horas de uso a taxa de falhas dos chips japoneses era de 0,01 e 0,019%; após o mesmo período os chips norte-americanos apresentavam uma taxa de falhas de 0,059 a 0,267%. A extensão dessas diferenças impressionou a indústria. Diversas companhias norte-americanas reclamando da expedição seletiva, alegando que os japoneses só estavam mandando seus melhores componentes para clientes norte-americanos importantes como a Hewlett-Packard. Outras duvidaram da base de dados. Contudo, as diferenças de qualidade estavam bem de acordo com a rápida ascensão dos fabricantes de chips japoneses, que em poucos anos tinham passado de um começo tímido para grandes participações nos mercados tantos nos chips de 16K quanto nos de 64K. Quase todos os fabricantes norte-americanos de semi-condutores logo encetaram ações corretivas, e nos chips de 16K, a diferença de qualidade logo foi eliminada. Mas a lição foi aproveitada por outros gerentes norte-americanos de indústrias diversas quanto às das máquinas operatrizes, pneus radiais e televisores em cores, cujas posições tinham ficado prejudicadas diante da concorrência japonesa. Para eles, a qualidade assumiu uma nova importância. Alguns anos antes, muitos órgãos públicos tinham começado a investigar meticulosamente a qualidade; seus esforços logo tiveram um efeito semelhante. Os programas assumiram diversas formas, embora todos eles incluíssem um melhor policiamento dos defeitos e do desempenho insatisfatório. Por exemplo, as retiradas de produtos de uso aumentaram sobremaneira na década de 70. Em 1973 cerca de sete milhões de unidades de vários produtos foram retirados de uso devido a campanhas para a correção de riscos potencias para a segurança pela gerencia de segurança de Tráfego nas Estradas da Agência de Proteção Ambiental e da Comissão de Segurança de Produtos de Consumo. Em 1978, o número total de unidades retiradas de uso por estes órgãos tinha aumentando para mais de vinte e nove milhões. As retiradas eram, quase sempre, extremamente custosas. Em outubro de 1978, a Firestone Tire and Rubber deu início a retirada de uso de seus pneus radiais Firestone 500 com revestimento de aço; três anos depois, a retirada custou à empresa 182 milhões de dólares. É claro que nem todos os defeitos envolvem riscos potencias para a segurança. Alguns são, simplesmente, irritantes e caros. Nos últimos anos, os governos federal e estaduais também começaram a tomoar providências quanto a esses problemas. Por exemplo, a Comissão Federal de Comércio dos Estados Unidos tem agora um programa de defeitos de produtos que responsabiliza os fabricantes pelas falhas ocorridas logo após o término dos prazos de garantia. O órgão aceita reclamações se forem satisfeitas três condições: o produto apresente defeitos sistemáticos, conhecidos: a empresa pudesse dar aos compradores informações sobre os prováveis problemas, mas tenha deixado de fazer isso; e se o órgão julgar a ação “do interesse público” e com probabilidade de aumentar o bem estar do consumidor. Dentre algumas empresas citadas por violações ao programa estão a Móbil, a General Motor e a Champion Home Builders. A ação corretiva abrange desde os reparos e a devolução do dinheiro pago até a divulgação de mais informações sobre os produtos. Da mesma forma, vários Estados têm aprovado, recentemente, “leis do limão”. Esta legislação se aplica aos automóveis com defeitos que se repetem. Se os revendedores não conseguirem resolver os principais problemas em prazo razoável – embora os reparos ocorram no início da vida útil dos carros estejam cobertos pela garantia – os consumidores podem ter o direito de receber um carro novo equivalente ou a devolução do dinheiro pago. Os “limões” são, em geral, os veículos que não conseguem funcionar a contento após quatro tentativas isoladas de se reparar o mesmo defeito, ou veículos que passaram pelo menos 30 dias na oficina durante o prazo de garantia. No caso de haver discordância quanto às reclamações dos consumidores, elas são, normalmente remetidas a comissões de arbitragem especiais. Em conjunto, esses programas aumentaram muito o custo de produção de produtos com defeitos. Uma crescente onda de processos judiciais de indenização do produto aumentou ainda mais este custo. De 1974 a 1981 o número de ações judiciais de indenização que deram entrada nos tribunais distritais federais cresceu a uma taxa anual média de 28%. Os danos também aumentaram e, hoje, não são raras as indenizações de muitos milhões de dólares. Devido às grande quantias envolvidas essas forças externas tiveram o efeito previsível de sensibilizar a alta gerência para a qualidade dos produtos. Com a reputação, a participação no mercado e a rentabilidade de suas companhias em risco, o assunto não podia ser ignorado. Tampouco podia ser relegado aos níveis mais baixos da organização, onde as lealdades funcionais poderiam interferir numa visão estratégica mais ampla. O que surgiu disso tudo foi uma nova abordagem da qualidade fortemente influenciada pelas preocupações da gerência superior. 4.2 ELEMENTOS DA ABORDAGEM ESTRATÉGICA Para aliviar estas preocupações, primeiro era preciso redefinir qualidade. A produção sem defeitos, objetotanto da garantia da qualidade quanto do controle estatístico da qualidade, era muito limitada em seu escopo. Era preciso uma visão perspectiva mais voltada para fora para se conseguir o comprometimento da alta gerência, cujos os interesses eram estratégicos e competitivos. A solução foi definir qualidade do ponto de vista do cliente. A essência da abordagem foi bem definida por um recente relatório da sociedade americana de controle da qualidade (ASQJ): Não são só fornecedores do produto, mas aqueles para quem ele serve – os clientes, usuários e aqueles que influenciam ou representam – que têm a última palavra quanto a até que ponto um produto atende as suas necessidades e satisfaz suas expectativas. A satisfação relaciona-se com o que a concorrência oferece. A satisfação relaciona-se com o que a concorrência oferece, é conseguida durante a vida útil do produto e não apenas na ocasião da compra. É preciso um conjunto de atributos para proporcionar o máximo de satisfação àqueles a que o produto atende. A quantidade foi definida, aqui, comparativamente – em relação com os concorrentes – e não em relação com padrões fixos internos. São os clientes e não os departamentos internos, que dão a última palavra ao se determinar se um produto é aceitável ou não. A implicação disso é que o atendimento às especificações passou a ser uma preocupação secundária que só seria alvo de atenção após a cuidadosa definição das necessidades dos usuários. Se assim não fosse, a excelência do controle do processo teria pouca vantagem, pois seria facilmente desviada. Esta perspectiva sugere várias exigências novas. A pesquisa de mercado para se avaliar a qualidade torna- se mais importante; se assim não fosse as empresas não teriam como saber posicionar seus produtos com base na qualidade. Alguns métodos incluem exames cuidadosos dos produtos dos concorrentes, além de levantamentos para se estabelecer exatamente o que os clientes querem dizer quando afirmam que um produto é de melhor qualidade que o outro. Além disso, a atenção se desvia dos preços iniciais, por ocasião da compra para os custos do ciclo de vida, que incluem os gastos com atendimento e manutenção no tempo, refletindo assim, com maior exatidão os custos totais dos usuários. Até as reclamações dos consumidores podem ter um novo papel a desempenhar. Como valiosas fontes de informação de mercado, passam a ser mais visíveis através de recursos como linhas telefônicas gratuitas, deixando de ser tratadas com más notícias potencialmente prejudicadas. Gerentes das grandes empresas vêm adotando esses programas, que podem ser muitos dispendiosos, pois vêem um elo mais claro entre qualidade e lucratividade. Existe a noção de que os consumidores de hoje são mais sensíveis às diferenças de qualidade e provavelmente capazes de dirigirem suas compras de acordo com isso. Por exemplo, espera-se que a alta qualidade leve a uma maior lealdade dos fregueses; com o tempo, isso deve traduzir-se numa maior volta dos consumidores à compra do produto. O retorno desta fidelidade pode ser substancial. Um fabricante de automóveis estima que um cliente leal vale pelo menos cem mil dólares em receita durante a vida toda. Vários bancos chegaram a conclusão de que a manutenção de um cliente por cinco anos equivale a um lucro de 400 dólares. Outras pesquisas, publicadas pela primeira vez nos anos 70, confirmaram o impacto da qualidade nos níveis mínimos de retorno. Os estudos do Impacto Sobre o Lucro das Estratégias de Marketing (PIMS), tiveram uma grande influência. Mostraram não só que as empresas cujos produtos eram qualidade superior tinham um retorno maior sobre o investimento (ROI), qualquer que fosse a participação no mercado, como também que os ganhos de qualidade também estavam associados aos ganhos de participação de mercado. Novos fatos do mercado convenceram, então, muitos gerentes de que a melhoria da qualidade poderia ser uma meta rentável. Um exame do lado da produção também apontava nesta direção. Há muito tempo que os gerentes conhecem os custos da qualidade, mas só há pouco tempo é que descobriram a relação entre qualidade e produtividade. Um processo de fabricação sem defeitos é muito mais eficiente do que o outro que seja sempre interrompido para retrabalhos e para reparos. A utilização das máquinas será provavelmente maior, os estoques de segurança serão menores e a mão-de-obra será mais produtiva. Diante de tais evidências, um número cada vez maior de empresas chegou à mesma conclusão: a qualidade era uma poderosa arma na concorrência. Tanto do lado do mercado quanto do lado do custo, oferecia uma grande alavancagem. Os gerentes mais dinâmicos logo deram mais um passo, se a qualidade estava associada tão de perto à rentabilidade, eles não viam razão alguma em se equipar aos níveis de qualidade dos concorrentes. Por que não os ultrapassar? Isso exigia uma reformulação das abordagens tradicionais da qualidade, já que se desejava uma melhoria mercante e continuada. Não seria de se esperar que os concorrentes ficassem de braços cruzados ao perceberem que sua qualidade tinha sido superada; eles também procurariam melhorar. As metas de qualidade tornar-se-iam, então, alvos móveis, que seriam sempre reformulados em níveis cada vez mais altos. O objetivo passaria a ser melhoria contínua, e não o alcance de AQL estáveis. Isso exigia uma dedicação ao processo de melhoria, bem como o compromisso de toda a companhia. Um importante pré-requisito ficou logo claro: a alta gerência teria que ter uma participação ativa no processo. Este compromisso de alto nível era considerado essencial para se estabelecer seriedade de propósito e dedicação a longo prazo à qualidade. De fato, muitas empresas constataram que só depois de seus mais altos executivos terem destinado algum tempo à qualidade é que os empregados perceberam sua importância. Por exemplo, no Grupo de Materiais e Controles da Texas Instruments, a alta gerência foi a primeira a fazer cursos de controle da qualidade; depois, ela mesma difundiu o que aprendeu, instruindo pessoalmente os empregados dos níveis mais baixos. Os resultados foram um programa amplamente aceito pelos empregados e uma contínua melhora da qualidade. Na maioria dos casos, esses programas têm tido o mesmo objetivo: a obtenção de um compromisso de toda a organização para com a qualidade. A participação da alta gerencia tem sido uma abordagem utilizada; outra tem sido o treinamento generalizado e a formação de equipes. A internalização de uma ética da qualidade requer, via de regra, uma mudança de atitude nos vários níveis da companhia. Na falta de tal mudança, os empregados continuam vendo a qualidade como função do departamento de qualidade, e não como uma responsabilidade deles mesmos. “e, em geral, precisa haver uma compreensão mais ampla e um envolvimento pessoal para a melhoria. Muitas empresas têm, sem saber, deixado a desejar neste ponto: dão treinamento das técnicas de controle da qualidade, mas não conseguem ressaltar a relação entre qualidade e objetivos básicos da empresa. Os programas resultantes reprisam muito a técnica, mas são pobres em motivação e finalidade. A abordagem estratégica da qualidade também faz novas exigências aos profissionais da área da qualidade. A especialização técnica continua sendo desejável, mas passa a ser mais importante uma compreensão dos objetivos estratégicos da empresa. A educação e o treinamento tornam-se responsabilidades vitais, assim como avaliação de programas, o estabelecimento de objetivos e o trabalho de consulta a outros departamentos. De modo geral, há um claro afastamento de um papel de policiamento estreito e uma aproximação de um papel que enfatiza mais uma perspectiva de gerência. Paraapoiar esta perspectiva, a qualidade é muitas vezes incluída explicitamente no processo de planejamento estratégico. Estabelecem-se metas anuais específicas e viáveis para a melhora de qualidade. As metas normalmente levam em conta a perspectiva dos clientes e também são comparadas com o desempenho esperado dos concorrentes. A GTE, por exemplo, como parte de seu planejamento estratégico, exige que cada unidade da empresa identifique o lugar da qualidade em sua estratégia empresarial, defina os elementos importantes da qualidade e seus programas estratégicos, estabeleça metas a longo prazo relacionadas com qualidade e explique como criará o compromisso e a coordenação das funções de linha e assessoria para atingir as metas. Existem medidas internas de custo da qualidade e medidas externas, relacionadas com os clientes. Para uma divisão como a Sylvania, que fabrica lâmpadas, a parte relacionada com o cliente incluiria objetivos como a duração do produto e as taxas de falhas em operação, cuidadosamente comparados com os dos concorrentes. Esforços deste tipo são claramente inovações do gerenciamento da qualidade. Mas a abordagem estratégica da qualidade também incorpora elementos dos movimentos que a precederam. Por exemplo, o controle estatístico da qualidade continua sendo um instrumento importante. Ainda se empregam equipes interfuncionais para se assegurar a coordenação das necessidades da engenharia e da produção. Há um considerável esforço no sentido de se fazer uma triagem dos projetos antes de eles entrarem em produção. Muito embora as técnicas exatas tenham evoluído – os métodos de confiabilidade, por exemplo, agora se assentam em princípios de planejamento de experimentos e são conhecidos como “controle da qualidade fora da linha” – os primeiros movimentos contribuíram muito para o êxito da abordagem estratégica. A gestão estratégica da qualidade é, então, mais uma extensão de suas antecessoras do que uma negação delas. Podem-se ver aspectos tanto de garantia da qualidade quanto de controle estatístico da qualidade em empresas que adotam a nova modelagem. Mas não se deve confundir os três movimentos. A abordagem estratégica da qualidade é mais ampla que suas antecessoras, mais intimamente ligada à lucratividade e aos objetivos empresariais básicos, mais sensível as necessidades da concorrência e ao ponto de vista do consumidor e, mais firmemente associada à melhoria contínua. Muitas empresas acham, erradamente, que adotaram a nova abordagem quando seus programas meramente incluem elementos de garantia e controle da qualidade. Na maioria das vezes, estas empresas ainda pensam defensivamente sobre qualidade. Ainda têm que ver seu potencial para a concorrência. Fonte: GARVIN, David A. Gerenciando a qualidade: a visão estratégica e competitiva. Rio de Janeiro: Qualitymark Ed., 2002
Compartilhar