Buscar

As eras da qualidade

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 8 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 8 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

ERAS DA QUALIDADE __________________________________________________Gestão da Qualidade 
 
 
EVOLUÇÃO HISTÓRICA DA QUALIDADE 
 
1 - O APARECIMENTO DA INSPEÇÃO 
 
Nos séculos XVIII e XIX, não existia ainda o controle da qualidade tal como conhecemos hoje. Quase 
tudo era fabricado por artesãos e artífices habilidosos ou trabalhadores experientes e aprendizes sob a supervisão 
dos mestres de ofício. Produziam-se pequenas quantidades de cada produto; as peças eram ajustadas umas à 
outras manualmente e, após os produtos prontos, a inspeção para assegurar uma alta qualidade, era informal, 
quando feita. Um produto que funcionava bem era visto como resultado natural da confiança nos artífices 
qualificados para todos os aspectos do projeto, da produção e do serviço. 
A inspeção formal só passou a ser necessária com o surgimento da produção em massa e a necessidade de 
peças intercambiáveis. Com o aumento dos volumes de produção, as peças não mais podiam ser encaixadas umas 
nas outras manualmente: o processo exigia um grande grupo de mão de obra qualificada, era caro e demorado. Os 
preços eram, quase sempre, acima do poder aquisitivo do consumidor médio, especialmente no caso das máquinas 
e equipamentos. 
As atividades de inspeção foram relacionadas mais formalmente com o controle de qualidade em 1922, 
com a publicação da obra The Control of Quality in Manufacturing, de G. S. Radford. Pela primeira vez, a 
qualidade foi vista como responsabilidade gerencial distinta e como função independente. O livro chegou até a 
tratar de muitos princípios considerados centrais no moderno controle da qualidade: a necessidade de se conseguir 
a participação dos projetistas logo no início das atividades associadas à qualidade e a associação da melhoria da 
qualidade com a maior produção e custos mais baixos. Seu enfoque principal era, entretanto, a inspeção. Nove dos 
vinte e sete capítulos do livro foram dedicados apenas a este tema. Os tópicos tratavam da finalidade de inspeção 
(“exercitar o dever de verificar de perto e criticamente o trabalho de modo a assegurar a qualidade, descobrir os 
erros e trazê-los à atenção das pessoas competentes, de forma a fazer com que o trabalho volte ao padrão”), a 
evolução da inspeção (das verificações visuais para as verificações dimensionais); tipos de inspeção (materiais, 
salas, ferramentas, e processos); métodos de amostragem (inclusive amostragem de 100 pr cento e aleatória, mas 
sem qualquer base estatística); técnicas de medição; e a organização do departamento de inspeção. A ênfase era 
sempre na conformidade e em sua relação com a inspeção de acordo com Radford, o “principal interesse do 
comprador na qualidade [era] aquela igualdade ou uniformidade que se obtém quando o fabricante atende às 
especificações estabelecidas”. 
Neste ponto, a situação se manteve inalterada por muitos anos. O controle da qualidade limitava-se à 
inspeção e a atividades restritas como a contagem, a classificação pela qualidade e os reparos. A solução de 
problemas era vista como fora do campo do departamento de inspeção médio. Mas, nos dez anos seguintes, o 
papel do profissional da qualidade seria redefinido. O estímulo à mudança foi a pesquisa feita nos Bell Telephone 
Laboratories; o resultado foi o que se chama de controle estatístico da qualidade. 
 
 
2- CONTROLE ESTATÍSTICO DA QUALIDADE 
 
O ano de 1931 representou um marco no movimento da qualidade. A obra Economic Control of Quality 
manufactured Product, de W. A. Shewhart, publicada naquele ano, conferiu pela primeira vez um caráter 
científico à disciplina. Grande parte do moderno controle da qualidade pode ser atribuída àquele livro. Nele, 
Shewhart deu uma definição precisa e mensurável de controle de fabricação, criou poderosas técnicas de 
acompanhamento e avaliação da produção diária e propôs diversas maneiras de se melhorar a qualidade. 
Shewhart fazia, de fato, parte de um grupo maior dos Bell Telephone Laboratories que estava 
investigando problemas da qualidade. As pesquisas do grupo foram suscitadas pelas preocupações dos 
engenheiros da Westem Eletronic, a responsável pele área de produção do sistema Bell, que estavam em busca de 
maior padronização e uniformidade na rede nacional de telefonia. Quase toda a atenção estava voltada para o 
equipamento complexo que estava sendo construído no estabelecimento da empresa em Hawthorne. Como, 
indagavam os engenheiros, poder-se-ia obter o máximo de informação sobre aa qualidade das unidades com o 
menor volume possível de dados de inspeção? E como os dados deveriam ser apresentados? Em 1924, a Westem 
Eletric criou um Departamento de Engenharia e Inspeção para tratar dessas questões; que passou a ser, mais tarde, 
o Departamento de Garantia da Qualidade dos Bell Laboratories. O grupo, que contava com luminares como 
Shewhart, Harold Dodge, Harry Romig, C. D. Edwards e, mais tarde, Joseph Juran, ficou em grande parte 
responsável pela criação da atual disciplina conhecida como controle estatístico da qualidade. 
 
2.1 CONTROLE DE PROCESSO 
 
A abertura do caminho inicial foi feita por Shewhart. Foi ele o primeiro a reconhecer que a variabilidade 
era um fato concreto na indústria e que ela seria entendida por meio dos princípios da probabilidade e da 
estatística. Shewhart observou que era improvável que duas peças fossem fabricadas precisamente de acordo com 
as mesmas especificações. Haveria um certo grau de variação das matérias-primas, da habilidade dos operadores e 
dos equipamentos. Até a mesma peça produzida por um único operador numa única máquina provavelmente 
revelaria alguma variação com o tempo. Do ponto de vista gerencial, isso exigia que o problema da qualidade 
fosse repensado. A questão não era mais a existência de variação – era certo que ela continuaria existindo, até 
certo ponto, independentemente das providências que fossem tomadas – mas como distinguir as variações 
aceitáveis das flutuações que indicassem problemas. Toda a análise derivou do conceito de controle estatístico de 
Shewhart. 
Dir-se-á que um fenômeno está sob controle quando, recorrendo-se à experiência passada, se puder 
prever, pelo menos dentro de certos limites, como o fenômeno deve variar no futuro. Entende-se, aqui, que 
previsão significa que se possa determinar, pelo menos aproximadamente, a probabilidade de que o fenômeno 
observado fique dentro de determinados limites. 
Shewhart formulou, então, técnicas estatísticas simples para a determinação desses limites, além de 
métodos gráficos de representação de valores de produção para avaliar se eles ficavam dentro da faixa aceitável. 
Separando as causas anormais de variação (que podem ser atribuídas a um determinado fator) daquelas inerentes a 
um processo de produção, permite-se fazer distinção entre problemas reais e problemas devidos simplesmente ao 
acaso. Além do mais, são retiradas amostras de produtos durante a produção, em vez de esperar o término da 
montagem de um produto. 
 
2.2 AMOSTRAGEM 
 
As técnicas de amostragem partem da premissa simples de que uma inspeção de 100 por cento é uma 
maneira ineficiente de se separar os bons produtos dos maus. Uma alternativa clara é verificar um número 
limitado de produtos de um lote de produção e, depois, decidir, com base nesta verificação, se o lote inteiro é 
aceitável. Mas este processo envolve certos riscos. Como as amostras nunca são inteiramente representativas, 
pode-se, ocasionalmente, aceitar um lote de produção que possua, na realidade, inúmeros produtos com defeito. 
Também pode ocorrer um erro relacionado: pode-se rejeitar um lote de produção que seja, na verdade, de 
qualidade perfeitamente aceitável. 
No fim dos anos 40, então, o controle da qualidade já estava estabelecido como disciplina reconhecida.Seus métodos eram, porém, basicamente estatísticos e seu impacto confinou-se em grande parte à fábrica. Pouca 
coisa mudaria até a publicação de diversas obras que representaram marcos nos anos 50 e início da década de 60. 
essas obras introduziram a grande era da qualidade que veio a seguir, a era da garantia da qualidade. 
 
3- GARANTIA DA QUALIDADE 
 
No período da garantia da qualidade, a qualidade passou de uma disciplina restrita e baseada na produção 
fabril para uma disciplina com implicações mais amplas para o gerenciamento. A prevenção de problemas 
continuou sendo seu objetivo fundamental, mas os instrumentos da profissão se expandiram para muito além da 
estatística. Havia quatro elementos distintos: quantificação dos custos da qualidade, controle total da qualidade, 
engenharia da confiabilidade e zero defeito. 
 
 3.1 CUSTOS DA QUALIDADE 
 
Até a década de 50, a maioria das tentativas de se melhorar a qualidade era baseada na premissa implícita 
de que os defeitos tinham um custo. Quanto eles custavam era uma questão de opinião, pois poucas empresas 
tinham se dado ao trabalho de totalizar as despesas em que incorriam porque os produtos não eram feitos 
corretamente da primeira vez. Na falta deste padrão de medida, os gerentes, acostumados a tomar decisões 
baseadas em números reais, não tinham por que prosseguir. Juran observou que os custos para se atingir um 
determinado nível da qualidade podiam ser divididos em custos evitáveis e inevitáveis. Estes últimos eram 
associados à prevenção – inspeção, amostragem, classificação e outras iniciativas de controle da qualidade. 
Custos evitáveis eram os dos defeitos e das falhas dos produtos – material sucateado, horas de trabalhos 
necessárias para refazer o produto e repará-lo, processamento de reclamações e prejuízos financeiros resultantes 
de fregueses insatisfeitos. 
Os gerentes tinham, então, uma maneira de decidir quanto investir na melhoria da qualidade. Mais 
despesas com prevenção provavelmente se justificaria desde que os custos das falhas continuassem elevados. O 
conceito também ilustrava outro princípio importante: o de que as decisões tomadas no início da cadeia de 
produção – por exemplo, quando os engenheiros fizeram o esboço do projeto de um novo produto – tinham 
implicações para o nível de custos da qualidade em que se incorria mais adiante, tanto na fábrica quanto no 
campo. 
 
3.2 CONTROLE TOTAL DA QUALIDADE 
 
Em 1956, Armand Feigenbaum levou este princípio um passo adiante, propondo o “controle total da 
qualidade”. Produtos de alta qualidade, argumentava ele, não teriam probabilidade de serem produzidos se o 
departamento de fabricação fosse obrigado a trabalhar isoladamente. 
“O princípio em que se assenta esta visão da qualidade total... é que,para se conseguir uma verdadeira 
eficácia, o controle precisa começar pelo projeto do produto e só terminar quando o produto tiver chegado às 
mãos de um freguês que fique satisfeito... o primeiro princípio a ser reconhecido é o de que qualidade é um 
trabalho de todos.” 
Feigenbaum observou que todos os produtos novos, à medida que iam passando do projeto para o 
mercado, envolviam aproximadamente as mesmas atividades. Do ponto de vista da qualidade, eles podiam ser 
agrupados em três categorias: controle de novos projetos, controle de material recebido e controle de produtos ou 
local de produção. O primeiro, por exemplo, envolvia avaliações, antes da produção, da “fabricabilidade” de um 
projeto, bem como a depuração de novas técnicas de fabricação por meio de produções-piloto. Para terem êxito, 
essas atividades exigiam a cooperação de muitos departamentos. De fato, à medida que os produtos iam passando 
pelas três etapas principais, tinha que haver a participação de grupos distintos como os de marketing, engenharia, 
compras, fabricação, expedição e atendimento ao cliente. Caso contrário, poder-se-iam cometer erros logo no 
inicio do processo, que causariam problemas adiante – durante a montagem ou, o que é pior, após o produto ter 
chegado às mãos de um cliente. 
Os métodos estatísticos ainda eram importantes – ambos autores dedicaram grande partes de seus livros a 
explicações do controle de processos e da amostragem – assim como as técnicas tradicionais de inspeção e 
medições. Mas o sistema da qualidade passara a incluir agora o desenvolvimento de novos produtos, a seleção de 
fornecedores e o atendimento aos clientes, além do controle de fabricação. Para fazer frente a estas 
responsabilidades, tanto Feigenbaum quanto Juran argumentavam que era preciso uma nova função – a da 
qualidade em alto nível, à coordenação das atividades de outros departamentos, ao estabelecimento de padrões da 
qualidade e à determinação de medidas da qualidade. Estas atividades exigiam uma combinação de habilidades 
gerenciais. Delas se depreendia que a formação estatística não mais bastava para garantir a competência de um 
profissional da área da qualidade. 
 
 
 
 
3.3 ENGENHARIA DA CONFIABILIDADE 
 
Contudo, mais ou menos na mesma época em que Feigenbaum e Juran estavam apresentando esses 
argumentos, outra ala da disciplina estava surgindo, com uma crença mais forte ainda na teoria da probabilidade e 
na estatística: a engenharia da confiabilidade, que tinha por objetivo garantir um desempenho aceitável do produto 
ao longo do tempo. 
É claro que era preciso prestar mais atenção ao desempenho do produto ao longo do tempo. O primeiro 
passo foi decidir com maior precisão a confiabilidade – como “a probabilidade de um produto desempenhar uma 
função especifica sem falhas, durante um certo tempo e sob condições pré-estabelecidas”. Associada aos recursos 
da moderna teoria da probabilidade, esta definição levou a métodos formais de previsão do desempenho de 
equipamentos ao longo do tempo. Também resultou em técnicas de redução dos índices de falhas enquanto os 
produtos ainda estavam no estágio de projeto. 
Como o controle total da qualidade, a engenharia de confiabilidade visava, antes de qualquer coisa, 
prevenir a ocorrência de defeitos. Também ela enfatizava as habilidades de engenharia e a atenção para a 
qualidade durante todo o processo de projeto. Zero defeito, a última inovação significativa da era da garantia de 
qualidade, segue uma trilha diferente: concentrava-se nas expectativas de gerenciamento e nas relações humanas. 
 
3.4 ZERO DEFEITO 
 
Zero defeito teve sua gênese na Martin Company em 1961-62. Naquela época, a Martin estava 
construindo mísseis Pershing para o exército dos Estados Unidos. A qualidade do produto, de uma maneira geral 
satisfatória, só era conseguida por meio de uma maciça inspeção. Foram oferecidos estímulos aos empregados 
para baixar ainda mais o índice de defeitos; juntamente com inspeção e testes mais intensos ainda, esses esforços 
levaram, no dia 12 de Dezembro de 1961, à entrega de um míssel Pershing ao cabo Canaveral sem discrepância 
alguma. 
Essa experiência serviu para abrir os olhos de Martin. Após um exame cuidadoso, a gerencia concluiu que 
o sucesso do projeto era, primordialmente, reflexo de sua própria mudança de atitude: “A razão que explica a falta 
de perfeição era simplesmente que não se esperava a perfeição. Quando a gerência passou a exigir a perfeição, 
conseguiu!”. O mesmo raciocínio sugeriu uma necessidade de concentração na motivação e conscientização dos 
empregados. Das três causas mais comuns de erros dos empregados – falta de conhecimento, falta de instalações 
adequadas e falta de atenção – a gerência chegou a conclusão de que a última era a que menos se dava 
importância. Propôs-se desenvolver um programa cujo o objetivo preponderante fosse “promover uma vontade 
constante de fazer o trabalho (qualquer trabalho) certo da primeira vez”. 
 
4 - GESTÃO ESTRATÉGICADA QUALIDADE 
 
Não se pode identificar com precisão os primórdios da gestão estratégica da qualidade, pois nenhum livro 
ou artigo marca a transição. Na realidade, muitos gerentes norte-americanos parecem acreditar que o último 
desenvolvimento importante da disciplina tenha sido a garantia da qualidade. Os programas que adotam no 
momento são estritamente parecidos com os que apareceram há vinte anos. Estão calcados em princípios bem 
estabelecidos como a coordenação entre funções, zero defeitos, custos da qualidade e controle estatístico da 
qualidade. Com base nestas evidências, as duas últimas décadas do movimento da qualidade pareceram ter ido 
além do comum, com poucos avanços além da prática anterior. 
Mas, num número cada vez maior de empresas começou a surgir uma nova visão, que incorpora um 
notável desvio de perspectiva. Pela primeira vez, diretores a nível de presidência e diretoria executiva 
expressaram interesse pela qualidade. Estão associando-a à lucratividade, definindo-a de acordo com o ponto de 
vista do cliente e exigindo sua inclusão no processo de planejamento estratégico. No mais radicais de todos os 
avanços, insistem que a qualidade seja vista como uma arma agressiva de concorrência. 
 
4.1 DESAFIO E RESPOSTA 
 
Essas mudanças não aconteceram do noite para o dia. Diversas forças externas, cada uma delas 
relacionando as perdas de rentabilidade e de participação com a má qualidade, prepararam o terreno. Juntas, 
despertaram as empresas para o potencial da qualidade na concorrência. Entre as influências mais importantes 
estiveram a maior concorrência externa, um significativo aumento do número de processos de indenização em 
função de produtos e pressões do governo em várias frentes. Para muitos gerentes norte-americanos, porém, o 
despertar mais duro foi provocado pelas sérias incursões dos fabricantes japoneses devido à sua qualidade e 
confiabilidade superiores. 
A indústria de semi-condutores serve de exemplo instrutivo. Até há pouco tempo, os dados sobre 
desempenho comparado a empresas na área de qualidade eram escassos e guardados em segredo. Mas, em março 
de 1980, Richard W. Anderson, gerente geral de sistemas de dados da Hewlett-Packard contou que, após ter 
testado 300.000 chips de memória RAM de três fabricantes norte-americanos e três japoneses, a Hewlett-Packard 
descobriu grandes diferenças de qualidade. Na inspeção de chegada, os chips japoneses tinham uma taxa de falhas 
igual a zero; a taxa dos três fabricantes norte-americanos estavam entre 0,11 e 0,19%. Após mil horas de uso a 
taxa de falhas dos chips japoneses era de 0,01 e 0,019%; após o mesmo período os chips norte-americanos 
apresentavam uma taxa de falhas de 0,059 a 0,267%. 
A extensão dessas diferenças impressionou a indústria. Diversas companhias norte-americanas 
reclamando da expedição seletiva, alegando que os japoneses só estavam mandando seus melhores componentes 
para clientes norte-americanos importantes como a Hewlett-Packard. Outras duvidaram da base de dados. 
Contudo, as diferenças de qualidade estavam bem de acordo com a rápida ascensão dos fabricantes de chips 
japoneses, que em poucos anos tinham passado de um começo tímido para grandes participações nos mercados 
tantos nos chips de 16K quanto nos de 64K. Quase todos os fabricantes norte-americanos de semi-condutores logo 
encetaram ações corretivas, e nos chips de 16K, a diferença de qualidade logo foi eliminada. Mas a lição foi 
aproveitada por outros gerentes norte-americanos de indústrias diversas quanto às das máquinas operatrizes, 
pneus radiais e televisores em cores, cujas posições tinham ficado prejudicadas diante da concorrência japonesa. 
Para eles, a qualidade assumiu uma nova importância. 
Alguns anos antes, muitos órgãos públicos tinham começado a investigar meticulosamente a qualidade; 
seus esforços logo tiveram um efeito semelhante. Os programas assumiram diversas formas, embora todos eles 
incluíssem um melhor policiamento dos defeitos e do desempenho insatisfatório. Por exemplo, as retiradas de 
produtos de uso aumentaram sobremaneira na década de 70. Em 1973 cerca de sete milhões de unidades de vários 
produtos foram retirados de uso devido a campanhas para a correção de riscos potencias para a segurança pela 
gerencia de segurança de Tráfego nas Estradas da Agência de Proteção Ambiental e da Comissão de Segurança de 
Produtos de Consumo. Em 1978, o número total de unidades retiradas de uso por estes órgãos tinha aumentando 
para mais de vinte e nove milhões. As retiradas eram, quase sempre, extremamente custosas. Em outubro de 1978, 
a Firestone Tire and Rubber deu início a retirada de uso de seus pneus radiais Firestone 500 com revestimento de 
aço; três anos depois, a retirada custou à empresa 182 milhões de dólares. 
É claro que nem todos os defeitos envolvem riscos potencias para a segurança. Alguns são, simplesmente, 
irritantes e caros. Nos últimos anos, os governos federal e estaduais também começaram a tomoar providências 
quanto a esses problemas. Por exemplo, a Comissão Federal de Comércio dos Estados Unidos tem agora um 
programa de defeitos de produtos que responsabiliza os fabricantes pelas falhas ocorridas logo após o término dos 
prazos de garantia. O órgão aceita reclamações se forem satisfeitas três condições: o produto apresente defeitos 
sistemáticos, conhecidos: a empresa pudesse dar aos compradores informações sobre os prováveis problemas, mas 
tenha deixado de fazer isso; e se o órgão julgar a ação “do interesse público” e com probabilidade de aumentar o 
bem estar do consumidor. Dentre algumas empresas citadas por violações ao programa estão a Móbil, a General 
Motor e a Champion Home Builders. A ação corretiva abrange desde os reparos e a devolução do dinheiro pago 
até a divulgação de mais informações sobre os produtos. 
 Da mesma forma, vários Estados têm aprovado, recentemente, “leis do limão”. Esta legislação se aplica 
aos automóveis com defeitos que se repetem. Se os revendedores não conseguirem resolver os principais 
problemas em prazo razoável – embora os reparos ocorram no início da vida útil dos carros estejam cobertos pela 
garantia – os consumidores podem ter o direito de receber um carro novo equivalente ou a devolução do dinheiro 
pago. Os “limões” são, em geral, os veículos que não conseguem funcionar a contento após quatro tentativas 
isoladas de se reparar o mesmo defeito, ou veículos que passaram pelo menos 30 dias na oficina durante o prazo 
de garantia. No caso de haver discordância quanto às reclamações dos consumidores, elas são, normalmente 
remetidas a comissões de arbitragem especiais. 
Em conjunto, esses programas aumentaram muito o custo de produção de produtos com defeitos. Uma 
crescente onda de processos judiciais de indenização do produto aumentou ainda mais este custo. De 1974 a 1981 
o número de ações judiciais de indenização que deram entrada nos tribunais distritais federais cresceu a uma taxa 
anual média de 28%. Os danos também aumentaram e, hoje, não são raras as indenizações de muitos milhões de 
dólares. 
 Devido às grande quantias envolvidas essas forças externas tiveram o efeito previsível de sensibilizar a 
alta gerência para a qualidade dos produtos. Com a reputação, a participação no mercado e a rentabilidade de suas 
companhias em risco, o assunto não podia ser ignorado. Tampouco podia ser relegado aos níveis mais baixos da 
organização, onde as lealdades funcionais poderiam interferir numa visão estratégica mais ampla. O que surgiu 
disso tudo foi uma nova abordagem da qualidade fortemente influenciada pelas preocupações da gerência 
superior. 
 
4.2 ELEMENTOS DA ABORDAGEM ESTRATÉGICA 
 
Para aliviar estas preocupações, primeiro era preciso redefinir qualidade. A produção sem defeitos, objetotanto da garantia da qualidade quanto do controle estatístico da qualidade, era muito limitada em seu escopo. Era 
preciso uma visão perspectiva mais voltada para fora para se conseguir o comprometimento da alta gerência, 
cujos os interesses eram estratégicos e competitivos. A solução foi definir qualidade do ponto de vista do cliente. 
A essência da abordagem foi bem definida por um recente relatório da sociedade americana de controle da 
qualidade (ASQJ): 
 
 Não são só fornecedores do produto, mas aqueles para quem ele serve – os clientes, usuários e aqueles 
que influenciam ou representam – que têm a última palavra quanto a até que ponto um produto atende as 
suas necessidades e satisfaz suas expectativas. 
 A satisfação relaciona-se com o que a concorrência oferece. 
 A satisfação relaciona-se com o que a concorrência oferece, é conseguida durante a vida útil do produto e 
não apenas na ocasião da compra. 
 É preciso um conjunto de atributos para proporcionar o máximo de satisfação àqueles a que o produto 
atende. 
 
A quantidade foi definida, aqui, comparativamente – em relação com os concorrentes – e não em relação 
com padrões fixos internos. São os clientes e não os departamentos internos, que dão a última palavra ao se 
determinar se um produto é aceitável ou não. A implicação disso é que o atendimento às especificações passou a 
ser uma preocupação secundária que só seria alvo de atenção após a cuidadosa definição das necessidades dos 
usuários. Se assim não fosse, a excelência do controle do processo teria pouca vantagem, pois seria facilmente 
desviada. 
Esta perspectiva sugere várias exigências novas. A pesquisa de mercado para se avaliar a qualidade torna-
se mais importante; se assim não fosse as empresas não teriam como saber posicionar seus produtos com base na 
qualidade. Alguns métodos incluem exames cuidadosos dos produtos dos concorrentes, além de levantamentos 
para se estabelecer exatamente o que os clientes querem dizer quando afirmam que um produto é de melhor 
qualidade que o outro. Além disso, a atenção se desvia dos preços iniciais, por ocasião da compra para os custos 
do ciclo de vida, que incluem os gastos com atendimento e manutenção no tempo, refletindo assim, com maior 
exatidão os custos totais dos usuários. Até as reclamações dos consumidores podem ter um novo papel a 
desempenhar. Como valiosas fontes de informação de mercado, passam a ser mais visíveis através de recursos 
como linhas telefônicas gratuitas, deixando de ser tratadas com más notícias potencialmente prejudicadas. 
Gerentes das grandes empresas vêm adotando esses programas, que podem ser muitos dispendiosos, pois 
vêem um elo mais claro entre qualidade e lucratividade. Existe a noção de que os consumidores de hoje são mais 
sensíveis às diferenças de qualidade e provavelmente capazes de dirigirem suas compras de acordo com isso. Por 
exemplo, espera-se que a alta qualidade leve a uma maior lealdade dos fregueses; com o tempo, isso deve 
traduzir-se numa maior volta dos consumidores à compra do produto. O retorno desta fidelidade pode ser 
substancial. Um fabricante de automóveis estima que um cliente leal vale pelo menos cem mil dólares em receita 
durante a vida toda. Vários bancos chegaram a conclusão de que a manutenção de um cliente por cinco anos 
equivale a um lucro de 400 dólares. Outras pesquisas, publicadas pela primeira vez nos anos 70, confirmaram o 
impacto da qualidade nos níveis mínimos de retorno. Os estudos do Impacto Sobre o Lucro das Estratégias de 
Marketing (PIMS), tiveram uma grande influência. Mostraram não só que as empresas cujos produtos eram 
qualidade superior tinham um retorno maior sobre o investimento (ROI), qualquer que fosse a participação no 
mercado, como também que os ganhos de qualidade também estavam associados aos ganhos de participação de 
mercado. 
Novos fatos do mercado convenceram, então, muitos gerentes de que a melhoria da qualidade poderia ser 
uma meta rentável. Um exame do lado da produção também apontava nesta direção. Há muito tempo que os 
gerentes conhecem os custos da qualidade, mas só há pouco tempo é que descobriram a relação entre qualidade e 
produtividade. Um processo de fabricação sem defeitos é muito mais eficiente do que o outro que seja sempre 
interrompido para retrabalhos e para reparos. A utilização das máquinas será provavelmente maior, os estoques de 
segurança serão menores e a mão-de-obra será mais produtiva. 
Diante de tais evidências, um número cada vez maior de empresas chegou à mesma conclusão: a 
qualidade era uma poderosa arma na concorrência. Tanto do lado do mercado quanto do lado do custo, oferecia 
uma grande alavancagem. Os gerentes mais dinâmicos logo deram mais um passo, se a qualidade estava associada 
tão de perto à rentabilidade, eles não viam razão alguma em se equipar aos níveis de qualidade dos concorrentes. 
Por que não os ultrapassar? 
Isso exigia uma reformulação das abordagens tradicionais da qualidade, já que se desejava uma melhoria 
mercante e continuada. Não seria de se esperar que os concorrentes ficassem de braços cruzados ao perceberem 
que sua qualidade tinha sido superada; eles também procurariam melhorar. As metas de qualidade tornar-se-iam, 
então, alvos móveis, que seriam sempre reformulados em níveis cada vez mais altos. O objetivo passaria a ser 
melhoria contínua, e não o alcance de AQL estáveis. Isso exigia uma dedicação ao processo de melhoria, bem 
como o compromisso de toda a companhia. Um importante pré-requisito ficou logo claro: a alta gerência teria que 
ter uma participação ativa no processo. Este compromisso de alto nível era considerado essencial para se 
estabelecer seriedade de propósito e dedicação a longo prazo à qualidade. De fato, muitas empresas constataram 
que só depois de seus mais altos executivos terem destinado algum tempo à qualidade é que os empregados 
perceberam sua importância. Por exemplo, no Grupo de Materiais e Controles da Texas Instruments, a alta 
gerência foi a primeira a fazer cursos de controle da qualidade; depois, ela mesma difundiu o que aprendeu, 
instruindo pessoalmente os empregados dos níveis mais baixos. Os resultados foram um programa amplamente 
aceito pelos empregados e uma contínua melhora da qualidade. 
Na maioria dos casos, esses programas têm tido o mesmo objetivo: a obtenção de um compromisso de 
toda a organização para com a qualidade. A participação da alta gerencia tem sido uma abordagem utilizada; outra 
tem sido o treinamento generalizado e a formação de equipes. A internalização de uma ética da qualidade requer, 
via de regra, uma mudança de atitude nos vários níveis da companhia. Na falta de tal mudança, os empregados 
continuam vendo a qualidade como função do departamento de qualidade, e não como uma responsabilidade deles 
mesmos. “e, em geral, precisa haver uma compreensão mais ampla e um envolvimento pessoal para a melhoria. 
Muitas empresas têm, sem saber, deixado a desejar neste ponto: dão treinamento das técnicas de controle da 
qualidade, mas não conseguem ressaltar a relação entre qualidade e objetivos básicos da empresa. Os programas 
resultantes reprisam muito a técnica, mas são pobres em motivação e finalidade. 
A abordagem estratégica da qualidade também faz novas exigências aos profissionais da área da 
qualidade. A especialização técnica continua sendo desejável, mas passa a ser mais importante uma compreensão 
dos objetivos estratégicos da empresa. A educação e o treinamento tornam-se responsabilidades vitais, assim 
como avaliação de programas, o estabelecimento de objetivos e o trabalho de consulta a outros departamentos. De 
modo geral, há um claro afastamento de um papel de policiamento estreito e uma aproximação de um papel que 
enfatiza mais uma perspectiva de gerência. 
Paraapoiar esta perspectiva, a qualidade é muitas vezes incluída explicitamente no processo de 
planejamento estratégico. Estabelecem-se metas anuais específicas e viáveis para a melhora de qualidade. As 
metas normalmente levam em conta a perspectiva dos clientes e também são comparadas com o desempenho 
esperado dos concorrentes. A GTE, por exemplo, como parte de seu planejamento estratégico, exige que cada 
unidade da empresa identifique o lugar da qualidade em sua estratégia empresarial, defina os elementos 
importantes da qualidade e seus programas estratégicos, estabeleça metas a longo prazo relacionadas com 
qualidade e explique como criará o compromisso e a coordenação das funções de linha e assessoria para atingir as 
metas. Existem medidas internas de custo da qualidade e medidas externas, relacionadas com os clientes. Para 
uma divisão como a Sylvania, que fabrica lâmpadas, a parte relacionada com o cliente incluiria objetivos como a 
duração do produto e as taxas de falhas em operação, cuidadosamente comparados com os dos concorrentes. 
Esforços deste tipo são claramente inovações do gerenciamento da qualidade. Mas a abordagem 
estratégica da qualidade também incorpora elementos dos movimentos que a precederam. Por exemplo, o controle 
estatístico da qualidade continua sendo um instrumento importante. Ainda se empregam equipes interfuncionais 
para se assegurar a coordenação das necessidades da engenharia e da produção. Há um considerável esforço no 
sentido de se fazer uma triagem dos projetos antes de eles entrarem em produção. Muito embora as técnicas 
exatas tenham evoluído – os métodos de confiabilidade, por exemplo, agora se assentam em princípios de 
planejamento de experimentos e são conhecidos como “controle da qualidade fora da linha” – os primeiros 
movimentos contribuíram muito para o êxito da abordagem estratégica. 
A gestão estratégica da qualidade é, então, mais uma extensão de suas antecessoras do que uma negação 
delas. Podem-se ver aspectos tanto de garantia da qualidade quanto de controle estatístico da qualidade em 
empresas que adotam a nova modelagem. Mas não se deve confundir os três movimentos. A abordagem 
estratégica da qualidade é mais ampla que suas antecessoras, mais intimamente ligada à lucratividade e aos 
objetivos empresariais básicos, mais sensível as necessidades da concorrência e ao ponto de vista do consumidor 
e, mais firmemente associada à melhoria contínua. Muitas empresas acham, erradamente, que adotaram a nova 
abordagem quando seus programas meramente incluem elementos de garantia e controle da qualidade. Na maioria 
das vezes, estas empresas ainda pensam defensivamente sobre qualidade. Ainda têm que ver seu potencial para a 
concorrência. 
 
 
Fonte: 
 
GARVIN, David A. Gerenciando a qualidade: a visão estratégica e competitiva. Rio de Janeiro: Qualitymark Ed., 
2002

Outros materiais