Buscar

ERAS DA QUALIDADE

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 8 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 8 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

ERAS DA QUALIDADE 
EVOLUÇÃO HISTÓRICA DA QUALIDADE 
 
1 - O APARECIMENTO DA INSPEÇÃO 
 
Nos séculos XVIII e XIX, não existia ainda o controle da qualidade tal como conhecemos hoje. 
Quase tudo era fabricado por artesãos e artífices habilidosos ou trabalhadores experientes e 
aprendizes sob a supervisão dos mestres de ofício. Produziam-se pequenas quantidades de cada 
produto; as peças eram ajustadas umas as outras manualmente e, após os produtos prontos, a 
inspeção para assegurar uma alta qualidade, era informal, quando feita. Um produto que funcionava 
bem era visto como resultado natural da confiança nos artífices qualificados para todos os aspectos do 
projeto, da produção e do serviço. 
A inspeção formal só passou a ser necessária com o surgimento da produção em massa e a 
necessidade de peças intercambiáveis. Com o aumento dos volumes de produção, as peças não mais 
podiam ser encaixadas umas nas outras manualmente: o processo exigia um grande grupo de mão de 
obra qualificada, era caro e demorado. Os preços eram, quase sempre, acima do poder aquisitivo do 
consumidor médio, especialmente no caso das máquinas e equipamentos. 
As atividades de inspeção foram relacionadas mais formalmente com o controle de qualidade 
em 1922, com a publicação da obra The Control of Quality in Manufacturing, de G. S. Radford. Pela 
primeira vez, a qualidade foi vista como responsabilidade gerencial distinta e como função 
independente. O livro chegou até a tratar de muitos princípios considerados centrais no moderno 
controle da qualidade: a necessidade de se conseguir a participação dos projetistas logo no início das 
atividades associadas à qualidade e a associação da melhoria da qualidade com a maior produção e 
custos mais baixos. Seu enfoque principal era, entretanto, a inspeção. Nove dos vinte e sete capítulos 
do livro foram dedicados apenas a este tema. Os tópicos tratavam da finalidade de inspeção (“exercitar 
o dever de verificar de perto e criticamente o trabalho de modo a assegurar a qualidade, descobrir os 
erros e trazê-los à atenção das pessoas competentes, de forma a fazer com que o trabalho volte ao 
padrão”), a evolução da inspeção (das verificações visuais para as verificações dimensionais); tipos de 
inspeção (materiais, salas, ferramentas, e processos); métodos de amostragem (inclusive amostragem 
de 100 por cento e aleatória, mas sem qualquer base estatística); técnicas de medição; e a 
organização do departamento de inspeção. A ênfase era sempre na conformidade e em sua relação 
com a inspeção de acordo com Radford, o “principal interesse do comprador na qualidade [era] aquela 
igualdade ou uniformidade que se obtém quando o fabricante atende às especificações estabelecidas”. 
Neste ponto, a situação se manteve inalterada por muitos anos. O controle da qualidade 
limitava-se à inspeção e a atividades restritas como a contagem, a classificação pela qualidade e os 
reparos. A solução de problemas era vista como fora do campo do departamento de inspeção médio. 
Mas, nos dez anos seguintes, o papel do profissional da qualidade seria redefinido. O estímulo à 
mudança foi à pesquisa feita nos Bell Telephone Laboratories; o resultado foi o que se chama de 
controle estatístico da qualidade. 
 
 
2- CONTROLE ESTATÍSTICO DA QUALIDADE 
 
O ano de 1931 representou um marco no movimento da qualidade. A obra Economic Control of 
Quality manufactured Product, de W. A. Shewhart, publicada naquele ano, conferiu pela primeira vez 
um caráter científico à disciplina. Grande parte do moderno controle da qualidade pode ser atribuída 
àquele livro. Nele, Shewhart deu uma definição precisa e mensurável de controle de fabricação, criou 
poderosas técnicas de acompanhamento e avaliação da produção diária e propôs diversas maneiras 
de se melhorar a qualidade. 
Shewhart fazia, de fato, parte de um grupo maior dos Bell Telephone Laboratories que estava 
investigando problemas da qualidade. As pesquisas do grupo foram suscitadas pelas preocupações 
dos engenheiros da Westem Eletronic, a responsável pela área de produção do sistema Bell, que 
estavam em busca de maior padronização e uniformidade na rede nacional de telefonia. Quase toda a 
atenção estava voltada para o equipamento complexo que estava sendo construído no 
estabelecimento da empresa em Hawthorne. Como, indagavam os engenheiros, poder-se-ia obter o 
máximo de informação sobre a qualidade das unidades com o menor volume possível de dados de 
inspeção? E como os dados deveriam ser apresentados? Em 1924, a Westem Eletric criou um 
Departamento de Engenharia e Inspeção para tratar dessas questões; que passou a ser, mais tarde, o 
Departamento de Garantia da Qualidade dos Bell Laboratories. O grupo, que contava com luminares 
como Shewhart, Harold Dodge, Harry Romig, C. D. Edwards e, mais tarde, Joseph Juran, ficou em 
grande parte responsável pela criação da atual disciplina conhecida como controle estatístico da 
qualidade. 
 
2.1 CONTROLE DE PROCESSO 
 
A abertura do caminho inicial foi feita por Shewhart. Foi ele o primeiro a reconhecer que a 
variabilidade era um fato concreto na indústria e que ela seria entendida por meio dos princípios da 
probabilidade e da estatística. Shewhart observou que era improvável que duas peças fossem 
fabricadas precisamente de acordo com as mesmas especificações. Haveria um certo grau de 
variação das matérias-primas, da habilidade dos operadores e dos equipamentos. Até a mesma peça 
produzida por um único operador numa única máquina provavelmente revelaria alguma variação com 
o tempo. Do ponto de vista gerencial, isso exigia que o problema da qualidade fosse repensado. A 
questão não era mais a existência de variação – era certo que ela continuaria existindo, até certo 
ponto, independentemente das providências que fossem tomadas – mas como distinguir as variações 
aceitáveis das flutuações que indicassem problemas. Toda a análise derivou do conceito de controle 
estatístico de Shewhart. 
Dir-se-á que um fenômeno está sob controle quando, recorrendo-se à experiência passada, se 
puder prever, pelo menos dentro de certos limites, como o fenômeno deve variar no futuro. Entende-
se, aqui, que previsão significa que se possa determinar, pelo menos aproximadamente, a 
probabilidade de que o fenômeno observado fique dentro de determinados limites. 
Shewhart formulou, então, técnicas estatísticas simples para a determinação desses limites, 
além de métodos gráficos de representação de valores de produção para avaliar se eles ficavam 
dentro da faixa aceitável. Separando as causas anormais de variação (que podem ser atribuídas a um 
determinado fator) daquelas inerentes a um processo de produção, permite-se fazer distinção entre 
problemas reais e problemas devidos simplesmente ao acaso. Além do mais, são retiradas amostras 
de produtos durante a produção, em vez de esperar o término da montagem de um produto. 
 
2.2 AMOSTRAGEM 
 
As técnicas de amostragem partem da premissa simples de que uma inspeção de 100 por 
cento é uma maneira ineficiente de se separar os bons produtos dos maus. Uma alternativa clara é 
verificar um número limitado de produtos de um lote de produção e, depois, decidir, com base nesta 
verificação, se o lote inteiro é aceitável. Mas este processo envolve certos riscos. Como as amostras 
nunca são inteiramente representativas, pode-se, ocasionalmente, aceitar um lote de produção que 
possua, na realidade, inúmeros produtos com defeito. Também pode ocorrer um erro relacionado: 
pode-se rejeitar um lote de produção que seja, na verdade, de qualidade perfeitamente aceitável. 
No fim dos anos 40, então, o controle da qualidade já estava estabelecido como disciplina 
reconhecida. Seus métodos eram, porém, basicamente estatísticos e seu impacto confinou-se em 
grande parte à fábrica. Pouca coisa mudaria até a publicação de diversas obras que representaram 
marcos nos anos 50 e início da década de 60. Essas obras introduziram a grande era da qualidade 
que veio a seguir, a era dagarantia da qualidade. 
 
 
3- GARANTIA DA QUALIDADE 
 
No período da garantia da qualidade, a qualidade passou de uma disciplina restrita e baseada 
na produção fabril para uma disciplina com implicações mais amplas para o gerenciamento. A 
prevenção de problemas continuou sendo seu objetivo fundamental, mas os instrumentos da profissão 
se expandiram para muito além da estatística. Havia quatro elementos distintos: quantificação dos 
custos da qualidade, controle total da qualidade, engenharia da confiabilidade e zero defeito. 
 
 
 3.1 CUSTOS DA QUALIDADE 
 
Até a década de 50, a maioria das tentativas de se melhorar a qualidade era baseada na 
premissa implícita de que os defeitos tinham um custo. Quanto eles custavam era uma questão de 
opinião, pois poucas empresas tinham se dado ao trabalho de totalizar as despesas em que incorriam 
porque os produtos não eram feitos corretamente da primeira vez. Na falta deste padrão de medida, os 
gerentes, acostumados a tomar decisões baseadas em números reais, não tinham por que prosseguir. 
Juran observou que os custos para se atingir um determinado nível da qualidade podiam ser divididos 
em custos evitáveis e inevitáveis. Estes últimos eram associados à prevenção – inspeção, 
amostragem, classificação e outras iniciativas de controle da qualidade. Custos evitáveis eram os dos 
defeitos e das falhas dos produtos – material sucateado, horas de trabalhos necessárias para refazer o 
produto e repará-lo, processamento de reclamações e prejuízos financeiros resultantes de fregueses 
insatisfeitos. 
Os gerentes tinham, então, uma maneira de decidir quanto investir na melhoria da qualidade. 
Mais despesas com prevenção provavelmente se justificaria desde que os custos das falhas 
continuassem elevados. O conceito também ilustrava outro princípio importante: o de que as decisões 
tomadas no início da cadeia de produção – por exemplo, quando os engenheiros fizeram o esboço do 
projeto de um novo produto – tinham implicações para o nível de custos da qualidade em que se 
incorria mais adiante, tanto na fábrica quanto no campo. 
 
3.2 CONTROLE TOTAL DA QUALIDADE 
 
Em 1956, Armand Feigenbaum levou este princípio um passo adiante, propondo o “controle 
total da qualidade”. Produtos de alta qualidade, argumentava ele, não teriam probabilidade de serem 
produzidos se o departamento de fabricação fosse obrigado a trabalhar isoladamente. 
“O princípio em que se assenta esta visão da qualidade total... é que, para se conseguir uma 
verdadeira eficácia, o controle precisa começar pelo projeto do produto e só terminar quando o produto 
tiver chegado às mãos de um freguês que fique satisfeito... o primeiro princípio a ser reconhecido é o 
de que qualidade é um trabalho de todos.” 
Feigenbaum observou que todos os produtos novos, à medida que iam passando do projeto 
para o mercado, envolviam aproximadamente as mesmas atividades. Do ponto de vista da qualidade, 
eles podiam ser agrupados em três categorias: controle de novos projetos, controle de material 
recebido e controle de produtos ou local de produção. O primeiro, por exemplo, envolvia avaliações, 
antes da produção, da “fabricabilidade” de um projeto, bem como a depuração de novas técnicas de 
fabricação por meio de produções-piloto. Para terem êxito, essas atividades exigiam a cooperação de 
muitos departamentos. De fato, à medida que os produtos iam passando pelas três etapas principais, 
tinha que haver a participação de grupos distintos como os de marketing, engenharia, compras, 
fabricação, expedição e atendimento ao cliente. Caso contrário, poder-se-iam cometer erros logo no 
inicio do processo, que causariam problemas adiante – durante a montagem ou, o que é pior, após o 
produto ter chegado às mãos de um cliente. 
Os métodos estatísticos ainda eram importantes – ambos autores dedicaram grande partes de 
seus livros a explicações do controle de processos e da amostragem – assim como as técnicas 
tradicionais de inspeção e medições. Mas o sistema da qualidade passara a incluir agora o 
desenvolvimento de novos produtos, a seleção de fornecedores e o atendimento aos clientes, além do 
controle de fabricação. Para fazer frente a estas responsabilidades, tanto Feigenbaum quanto Juran 
argumentavam que era preciso uma nova função – a da qualidade em alto nível, à coordenação das 
atividades de outros departamentos, ao estabelecimento de padrões da qualidade e à determinação de 
medidas da qualidade. Estas atividades exigiam uma combinação de habilidades gerenciais. Delas se 
depreendia que a formação estatística não mais bastava para garantir a competência de um 
profissional da área da qualidade. 
 
3.3 ENGENHARIA DA CONFIABILIDADE 
 
Contudo, mais ou menos na mesma época em que Feigenbaum e Juran estavam apresentando 
esses argumentos, outra ala da disciplina estava surgindo, com uma crença mais forte ainda na teoria 
da probabilidade e na estatística: a engenharia da confiabilidade, que tinha por objetivo garantir um 
desempenho aceitável do produto ao longo do tempo. 
É claro que era preciso prestar mais atenção ao desempenho do produto ao longo do tempo. O 
primeiro passo foi decidir com maior precisão a confiabilidade – como “a probabilidade de um produto 
desempenhar uma função especifica sem falhas, durante um certo tempo e sob condições pré-
estabelecidas”. Associada aos recursos da moderna teoria da probabilidade, esta definição levou a 
métodos formais de previsão do desempenho de equipamentos ao longo do tempo. Também resultou 
em técnicas de redução dos índices de falhas enquanto os produtos ainda estavam no estágio de 
projeto. 
Como o controle total da qualidade, a engenharia de confiabilidade visava, antes de qualquer 
coisa, prevenir a ocorrência de defeitos. Também ela enfatizava as habilidades de engenharia e a 
atenção para a qualidade durante todo o processo de projeto. Zero defeito, a última inovação 
significativa da era da garantia de qualidade, segue uma trilha diferente: concentrava-se nas 
expectativas de gerenciamento e nas relações humanas. 
 
3.4 ZERO DEFEITO 
 
Zero defeito teve sua criação na Martin Company em 1961-62. Naquela época, a Martin estava 
construindo mísseis Pershing para o exército dos Estados Unidos. A qualidade do produto, de uma 
maneira geral satisfatória, só era conseguida por meio de uma maciça inspeção. Foram oferecidos 
estímulos aos empregados para baixar ainda mais o índice de defeitos; juntamente com inspeção e 
testes mais intensos ainda, esses esforços levaram, no dia 12 de Dezembro de 1961, à entrega de um 
míssel Pershing ao cabo Canaveral sem discrepância alguma. 
Essa experiência serviu para abrir os olhos de Martin. Após um exame cuidadoso, a gerencia 
concluiu que o sucesso do projeto era, primordialmente, reflexo de sua própria mudança de atitude: “A 
razão que explica a falta de perfeição era simplesmente que não se esperava a perfeição. Quando a 
gerência passou a exigir a perfeição, conseguiu!”. O mesmo raciocínio sugeriu uma necessidade de 
concentração na motivação e conscientização dos empregados. Das três causas mais comuns de 
erros dos empregados – falta de conhecimento, falta de instalações adequadas e falta de atenção – a 
gerência chegou a conclusão de que a última era a que menos se dava importância. Propôs-se 
desenvolver um programa cujo o objetivo preponderante fosse “promover uma vontade constante de 
fazer o trabalho (qualquer trabalho) certo da primeira vez”. 
 
 
4 - GESTÃO ESTRATÉGICA DA QUALIDADE 
 
Não se pode identificar com precisão os primórdios da gestão estratégica da qualidade, pois 
nenhum livro ou artigo marca a transição. Na realidade, muitos gerentes norte-americanos parecem 
acreditar que o último desenvolvimento importante da disciplina tenha sido a garantia da qualidade. Os 
programas que adotam no momento são estritamente parecidos com os que apareceram há vinte 
anos. Estão calcados em princípios bem estabelecidos como a coordenação entre funções, zero 
defeitos, custos da qualidade e controleestatístico da qualidade. Com base nestas evidências, as duas 
últimas décadas do movimento da qualidade pareceram ter ido além do comum, com poucos avanços 
além da prática anterior. 
Mas, num número cada vez maior de empresas começou a surgir uma nova visão, que 
incorpora um notável desvio de perspectiva. Pela primeira vez, diretores no nível de presidência e 
diretoria executiva expressaram interesse pela qualidade. Estão associando-a a lucratividade, 
definindo-a de acordo com o ponto de vista do cliente e exigindo sua inclusão no processo de 
planejamento estratégico. No mais radical de todos os avanços, insistem que a qualidade seja vista 
como uma arma agressiva de concorrência. 
 
4.1 DESAFIO E RESPOSTA 
 
Essas mudanças não aconteceram da noite para o dia. Diversas forças externas, cada uma 
delas relacionando as perdas de rentabilidade e de participação com a má qualidade, prepararam o 
terreno. Juntas, despertaram as empresas para o potencial da qualidade na concorrência. Entre as 
Feh
Realce
Feh
Realce
influências mais importantes estiveram a maior concorrência externa, um significativo aumento do 
número de processos de indenização em função de produtos e pressões do governo em várias frentes. 
Para muitos gerentes norte-americanos, porém, o despertar mais duro foi provocado pelas sérias 
incursões dos fabricantes japoneses devido à sua qualidade e confiabilidade superiores. 
A indústria de semi-condutores serve de exemplo instrutivo. Até há pouco tempo, os dados 
sobre desempenho comparado a empresas na área de qualidade eram escassos e guardados em 
segredo. Mas, em março de 1980, Richard W. Anderson, gerente geral de sistemas de dados da 
Hewlett-Packard contou que, após ter testado 300.000 chips de memória RAM de três fabricantes 
norte-americanos e três japoneses, a Hewlett-Packard descobriu grandes diferenças de qualidade. Na 
inspeção de chegada, os chips japoneses tinham uma taxa de falhas igual a zero; a taxa dos três 
fabricantes norte-americanos estavam entre 0,11 e 0,19%. Após mil horas de uso a taxa de falhas dos 
chips japoneses era de 0,01 e 0,019%; após o mesmo período os chips norte-americanos 
apresentavam uma taxa de falhas de 0,059 a 0,267%. 
A extensão dessas diferenças impressionou a indústria. Diversas companhias norte-
americanas reclamando da expedição seletiva, alegando que os japoneses só estavam mandando 
seus melhores componentes para clientes norte-americanos importantes como a Hewlett-Packard. 
Outras duvidaram da base de dados. Contudo, as diferenças de qualidade estavam bem de acordo 
com a rápida ascensão dos fabricantes de chips japoneses, que em poucos anos tinham passado de 
um começo tímido para grandes participações nos mercados tantos nos chips de 16K quanto nos de 
64K. Quase todos os fabricantes norte-americanos de semi-condutores logo encetaram ações 
corretivas, e nos chips de 16K, a diferença de qualidade logo foi eliminada. Mas a lição foi aproveitada 
por outros gerentes norte-americanos de indústrias diversas quanto às das máquinas operatrizes, 
pneus radiais e televisores em cores, cujas posições tinham ficado prejudicadas diante da 
concorrência japonesa. Para eles, a qualidade assumiu uma nova importância. 
Alguns anos antes, muitos órgãos públicos tinham começado a investigar meticulosamente a 
qualidade; seus esforços logo tiveram um efeito semelhante. Os programas assumiram diversas 
formas, embora todos eles incluíssem um melhor policiamento dos defeitos e do desempenho 
insatisfatório. Por exemplo, as retiradas de produtos de uso aumentaram sobremaneira na década de 
70. Em 1973 cerca de sete milhões de unidades de vários produtos foram retirados de uso devido a 
campanhas para a correção de riscos potencias para a segurança pela gerencia de segurança de 
Tráfego nas Estradas da Agência de Proteção Ambiental e da Comissão de Segurança de Produtos de 
Consumo. Em 1978, o número total de unidades retiradas de uso por estes órgãos tinha aumentando 
para mais de vinte e nove milhões. As retiradas eram, quase sempre, extremamente custosas. Em 
outubro de 1978, a Firestone Tire and Rubber deu início a retirada de uso de seus pneus radiais 
Firestone 500 com revestimento de aço; três anos depois, a retirada custou à empresa 182 milhões de 
dólares. 
É claro que nem todos os defeitos envolvem riscos potencias para a segurança. Alguns são, 
simplesmente, irritantes e caros. Nos últimos anos, os governos federal e estaduais também 
começaram a tomar providências quanto a esses problemas. Por exemplo, a Comissão Federal de 
Comércio dos Estados Unidos tem agora um programa de defeitos de produtos que responsabiliza os 
fabricantes pelas falhas ocorridas logo após o término dos prazos de garantia. O órgão aceita 
reclamações se forem satisfeitas três condições: o produto apresente defeitos sistemáticos, 
conhecidos: a empresa pudesse dar aos compradores informações sobre os prováveis problemas, 
mas tenha deixado de fazer isso; e se o órgão julgar a ação “do interesse público” e com probabilidade 
de aumentar o bem estar do consumidor. Dentre algumas empresas citadas por violações ao 
programa estão a Móbil, a General Motor e a Champion Home Builders. A ação corretiva abrange 
desde os reparos e a devolução do dinheiro pago até a divulgação de mais informações sobre os 
produtos. 
 Da mesma forma, vários Estados têm aprovado, recentemente, “leis do limão”. Esta legislação 
se aplica aos automóveis com defeitos que se repetem. Se os revendedores não conseguirem resolver 
os principais problemas em prazo razoável – embora os reparos ocorram no início da vida útil dos 
carros estejam cobertos pela garantia – os consumidores podem ter o direito de receber um carro novo 
equivalente ou a devolução do dinheiro pago. Os “limões” são, em geral, os veículos que não 
conseguem funcionar a contento após quatro tentativas isoladas de se reparar o mesmo defeito, ou 
veículos que passaram pelo menos 30 dias na oficina durante o prazo de garantia. No caso de haver 
Feh
Realce
Feh
Realce
Feh
Realce
Feh
Realce
Feh
Realce
discordância quanto às reclamações dos consumidores, elas são, normalmente remetidas a comissões 
de arbitragem especiais. 
Em conjunto, esses programas aumentaram muito o custo de produção de produtos com 
defeitos. Uma crescente onda de processos judiciais de indenização do produto aumentou ainda mais 
este custo. De 1974 a 1981 o número de ações judiciais de indenização que deram entrada nos 
tribunais distritais federais cresceu a uma taxa anual média de 28%. Os danos também aumentaram e, 
hoje, não são raras as indenizações de muitos milhões de dólares. 
 Devido as grandes quantias envolvidas essas forças externas tiveram o efeito previsível de 
sensibilizar a alta gerência para a qualidade dos produtos. Com a reputação, a participação no 
mercado e a rentabilidade de suas companhias em risco, o assunto não podia ser ignorado. Tampouco 
podia ser relegado aos níveis mais baixos da organização, onde as lealdades funcionais poderiam 
interferir numa visão estratégica mais ampla. O que surgiu disso tudo foi uma nova abordagem da 
qualidade fortemente influenciada pelas preocupações da gerência superior. 
 
4.2 ELEMENTOS DA ABORDAGEM ESTRATÉGICA 
 
Para aliviar estas preocupações, primeiro era preciso redefinir qualidade. A produção sem 
defeitos, objeto tanto da garantia da qualidade quanto do controle estatístico da qualidade, era muito 
limitada em seu escopo. Era preciso uma visão perspectiva mais voltada para fora para se conseguir o 
comprometimento da alta gerência, cujos interesses eram estratégicos e competitivos. A solução foi 
definir qualidade do ponto de vista do cliente. 
A essência da abordagem foi bem definida por um recente relatório da sociedade americana de 
controle da qualidade (ASQC): 
 
• Não são só fornecedores do produto, mas aqueles para quem ele serve – os clientes, usuários 
e aqueles que influenciam ou representam – que têm a última palavra quanto à até que ponto 
um produto atende assuas necessidades e satisfaz suas expectativas. 
• A satisfação relaciona-se com o que a concorrência oferece. 
• A satisfação relaciona-se com o que a concorrência oferece, é conseguida durante a vida útil 
do produto e não apenas na ocasião da compra. 
• É preciso um conjunto de atributos para proporcionar o máximo de satisfação àqueles a que o 
produto atende. 
 
A quantidade foi definida, aqui, comparativamente – em relação com os concorrentes – e não 
em relação com padrões fixos internos. São os clientes e não os departamentos internos, que dão a 
última palavra ao se determinar se um produto é aceitável ou não. A implicação disso é que o 
atendimento às especificações passou a ser uma preocupação secundária que só seria alvo de 
atenção após a cuidadosa definição das necessidades dos usuários. Se assim não fosse, a excelência 
do controle do processo teria pouca vantagem, pois seria facilmente desviada. 
Esta perspectiva sugere várias exigências novas. A pesquisa de mercado para se avaliar a 
qualidade torna-se mais importante; se assim não fosse as empresas não teriam como saber 
posicionar seus produtos com base na qualidade. Alguns métodos incluem exames cuidadosos dos 
produtos dos concorrentes, além de levantamentos para se estabelecer exatamente o que os clientes 
querem dizer quando afirmam que um produto é de melhor qualidade que o outro. Além disso, a 
atenção se desvia dos preços iniciais, por ocasião da compra para os custos do ciclo de vida, que 
incluem os gastos com atendimento e manutenção no tempo, refletindo assim, com maior exatidão os 
custos totais dos usuários. Até as reclamações dos consumidores podem ter um novo papel a 
desempenhar. Como valiosas fontes de informação de mercado, passam a ser mais visíveis através 
de recursos como linhas telefônicas gratuitas, deixando de ser tratadas com más notícias 
potencialmente prejudicadas. 
Gerentes das grandes empresas vêm adotando esses programas, que podem ser muitos 
dispendiosos, pois vêem um elo mais claro entre qualidade e lucratividade. Existe a noção de que os 
consumidores de hoje são mais sensíveis às diferenças de qualidade e provavelmente capazes de 
dirigirem suas compras de acordo com isso. Por exemplo, espera-se que a alta qualidade leve a uma 
maior lealdade dos fregueses; com o tempo, isso deve traduzir-se numa maior volta dos consumidores 
à compra do produto. O retorno desta fidelidade pode ser substancial. Um fabricante de automóveis 
Feh
Realce
Feh
Realce
estima que um cliente leal vale pelo menos cem mil dólares em receita durante a vida toda. Vários 
bancos chegaram à conclusão de que a manutenção de um cliente por cinco anos equivale a um lucro 
de 400 dólares. Outras pesquisas, publicadas pela primeira vez nos anos 70, confirmaram o impacto 
da qualidade nos níveis mínimos de retorno. Os estudos do Impacto Sobre o Lucro das Estratégias de 
Marketing (PIMS), tiveram uma grande influência. Mostraram não só que as empresas cujos produtos 
eram qualidade superior tinham um retorno maior sobre o investimento (ROI), qualquer que fosse a 
participação no mercado, como também que os ganhos de qualidade também estavam associados aos 
ganhos de participação de mercado. 
Novos fatos do mercado convenceram, então, muitos gerentes de que a melhoria da qualidade 
poderia ser uma meta rentável. Um exame do lado da produção também apontava nesta direção. Há 
muito tempo que os gerentes conhecem os custos da qualidade, mas só há pouco tempo é que 
descobriram a relação entre qualidade e produtividade. Um processo de fabricação sem defeitos é 
muito mais eficiente do que o outro que seja sempre interrompido para retrabalhos e para reparos. A 
utilização das máquinas será provavelmente maior, os estoques de segurança serão menores e a 
mão-de-obra será mais produtiva. 
Diante de tais evidências, um número cada vez maior de empresas chegou à mesma 
conclusão: a qualidade era uma poderosa arma na concorrência. Tanto do lado do mercado quanto do 
lado do custo, oferecia uma grande alavancagem. Os gerentes mais dinâmicos logo deram mais um 
passo, se a qualidade estava associada tão de perto à rentabilidade, eles não viam razão alguma em 
se equipar aos níveis de qualidade dos concorrentes. Por que não os ultrapassar? 
Isso exigia uma reformulação das abordagens tradicionais da qualidade, já que se desejava 
uma melhoria mercante e continuada. Não seria de se esperar que os concorrentes ficassem de 
braços cruzados ao perceberem que sua qualidade tinha sido superada; eles também procurariam 
melhorar. As metas de qualidade tornar-se-iam, então, alvos móveis, que seriam sempre reformulados 
em níveis cada vez mais altos. O objetivo passaria a ser melhoria contínua. Isso exigia uma dedicação 
ao processo de melhoria, bem como o compromisso de toda a companhia. Um importante pré-requisito 
ficou logo claro: a alta gerência teria que ter uma participação ativa no processo. Este compromisso de 
alto nível era considerado essencial para se estabelecer seriedade de propósito e dedicação a longo 
prazo à qualidade. De fato, muitas empresas constataram que só depois de seus mais altos executivos 
terem destinado algum tempo à qualidade é que os empregados perceberam sua importância. Por 
exemplo, no Grupo de Materiais e Controles da Texas Instruments, a alta gerência foi a primeira a 
fazer cursos de controle da qualidade; depois, ela mesma difundiu o que aprendeu, instruindo 
pessoalmente os empregados dos níveis mais baixos. Os resultados foram um programa amplamente 
aceito pelos empregados e uma contínua melhora da qualidade. 
Na maioria dos casos, esses programas têm tido o mesmo objetivo: a obtenção de um 
compromisso de toda a organização para com a qualidade. A participação da alta gerencia tem sido 
uma abordagem utilizada; outra tem sido o treinamento generalizado e a formação de equipes. A 
internalização de uma ética da qualidade requer, via de regra, uma mudança de atitude nos vários 
níveis da companhia. Na falta de tal mudança, os empregados continuam vendo a qualidade como 
função do departamento de qualidade, e não como uma responsabilidade deles mesmos. “e, em geral, 
precisa haver uma compreensão mais ampla e um envolvimento pessoal para a melhoria. Muitas 
empresas têm, sem saber, deixado a desejar neste ponto: dão treinamento das técnicas de controle da 
qualidade, mas não conseguem ressaltar a relação entre qualidade e objetivos básicos da empresa. 
Os programas resultantes reprisam muito a técnica, mas são pobres em motivação e finalidade. 
A abordagem estratégica da qualidade também faz novas exigências aos profissionais da área 
da qualidade. A especialização técnica continua sendo desejável, mas passa a ser mais importante 
uma compreensão dos objetivos estratégicos da empresa. A educação e o treinamento tornam-se 
responsabilidades vitais, assim como avaliação de programas, o estabelecimento de objetivos e o 
trabalho de consulta a outros departamentos. De modo geral, há um claro afastamento de um papel de 
policiamento estreito e uma aproximação de um papel que enfatiza mais uma perspectiva de gerência. 
Para apoiar esta perspectiva, a qualidade é muitas vezes incluída explicitamente no processo 
de planejamento estratégico. Estabelecem-se metas anuais específicas e viáveis para a melhora de 
qualidade. As metas normalmente levam em conta a perspectiva dos clientes e também são 
comparadas com o desempenho esperado dos concorrentes. Existem medidas internas de custo da 
qualidade e medidas externas, relacionadas com os clientes. Para uma divisão como a Sylvania, que 
Feh
Realce
fabrica lâmpadas, a parte relacionada com o cliente incluiria objetivos como a duração do produto e as 
taxas de falhas em operação, cuidadosamente comparados com os dos concorrentes. 
Esforços deste tipo são claramente inovações do gerenciamento da qualidade. Mas a 
abordagem estratégica da qualidade também incorpora elementos dos movimentos que a precederam. 
Por exemplo, o controle estatístico da qualidadecontinua sendo um instrumento importante. Ainda se 
empregam equipes interfuncionais para se assegurar a coordenação das necessidades da engenharia 
e da produção. Há um considerável esforço no sentido de se fazer uma triagem dos projetos antes de 
eles entrarem em produção. Muito embora as técnicas exatas tenham evoluído – os métodos de 
confiabilidade, por exemplo, agora se assentam em princípios de planejamento de experimentos e são 
conhecidos como “controle da qualidade fora da linha” – os primeiros movimentos contribuíram muito 
para o êxito da abordagem estratégica. 
A gestão estratégica da qualidade é, então, mais uma extensão de suas antecessoras do que 
uma negação delas. Podem-se ver aspectos tanto de garantia da qualidade quanto de controle 
estatístico da qualidade em empresas que adotam a nova modelagem. Mas não se deve confundir os 
três movimentos. A abordagem estratégica da qualidade é mais ampla que suas antecessoras, mais 
intimamente ligada à lucratividade e aos objetivos empresariais básicos, mais sensível as 
necessidades da concorrência e ao ponto de vista do consumidor e, mais firmemente associada à 
melhoria contínua. Muitas empresas acham, erradamente, que adotaram a nova abordagem quando 
seus programas meramente incluem elementos de garantia e controle da qualidade. Na maioria das 
vezes, estas empresas ainda pensam defensivamente sobre qualidade. Ainda têm que ver seu 
potencial para a concorrência. 
 
EXTRAÍDO DO LIVRO “GERENCIANDO A QUALIDADE” 
DAVID A. GARVIN 
 
Feh
Realce

Continue navegando