Buscar

T10 T50 T90

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 39 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 39 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 39 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Agência Nacional 
do Petróleo, 
Gás Natural e Biocombustíveis
 
 
 
 
PROGRAMA DE RECURSOS HUMANOS DA ANP PARA O SETOR 
PETRÓLEO, GÁS NATURAL E BIOCOMBUSTÍVEIS (PRH-
ANP/MME/MCT) 
 
UNIVERSIDADE FEDERAL DO PARANÁ 
PROGRAMA INTERDISCIPLINAR EM ENGENHARIA DO PETRÓLEO, 
GÁS NATURAL E BIOCOMBUSTÍVEIS (PRH 24) 
Coordenador: Prof. Dr. Haroldo de Araújo Ponte 
 
 
 
TRABALHO DE GRADUAÇÃO 
“Calibração Multivariada Aplicada a Gasolina Automotiva Brasileira” 
 
Aluno: André Ferraz 
Orientador: Prof. Dr. Carlos I. Yamamoto 
Co-orientadora: Lilian Cocco 
 
 
Curitiba 
Março/2007 
 2
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Dedico este trabalho aos meus pais, meus heróis, que sempre 
estiveram, mesmo longe, ao meu lado. 
 
i 
 3
 
 
 
 
 
 
Agradeço: 
 
A minha família, o pai herói, a mãe batalhadora, a avó 
zelosa, a irmã idealista e ao primo irmão de alma e 
sangue por sempre me incentivar na realização dos meus 
ideais... 
Aos verdadeiros amigos por estarem sempre por perto 
nas horas boas e ruins, aos amigos que estão distantes 
Wagner Ridão e Matheus Panizzi, mas principalmente a 
Adriano Alberto Gonsalves e José Danilo Taveres por 
fazerem o papel do irmão mais velho longe de casa... 
A CELU por fornecer um local aconchegante tanto para 
a diversão com muitos amigos quanto para o estudo com 
os mesmos... 
Ao PRH24 e LACAUT por fornecerem o incentivo e 
estrutura para que o trabalho pudesse ser concluído... 
E principalmente a Lílian Cristina Côcco e Claudia 
Marino por sempre estarem dispostas a ajudar nos 
momentos em que precisei... 
 
Obrigado 
 
 
 
ii 
 4
“Quem luta com monstros deve velar por que, ao fazê-lo, não se transformar também 
em monstros. E se tu olhares, por muito tempo, para dentro de um abismo, ele olhará 
pra dentro de ti” 
Friedrich Nietzsche 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
iii 
 5
Sumário 
 
 
 
1.Introdução...................................................................................................................... 6 
2.Analise bibliográfica...................................................................................................... 9 
2.1 Métodos Analíticos para Identificação da Composição do Combustível............... 9 
2.2 Conceitos Estatísticos ........................................................................................... 10 
2.2.1 Desvio Padrão (SD) ....................................................................................... 10 
2.2.2 Covariância.................................................................................................... 11 
2.3 PCA (Principal Component Analisys).................................................................. 12 
2.3.1 Caracterização Matemática............................................................................ 14 
2.4 PLS (Partial Least Squares).................................................................................. 18 
2.4.1 Caracterização Matemática............................................................................ 20 
3. Materiais e Métodos ................................................................................................... 22 
3.1 Densidade ASTM a 20 °C .................................................................................... 22 
3.2 Curva de Destilação.............................................................................................. 22 
3.2.1 Terminologia (NBR 9619) ............................................................................ 23 
3.3 Espectrometria por Infravermelho........................................................................ 25 
4. Resultados................................................................................................................... 25 
5. Conclusão ................................................................................................................... 36 
6. Outras Realizações ..................................................................................................... 37 
6.1 Organização do 16º Congresso Nacional de Estudantes de Engenharia Química 
(CONEEQ) ................................................................................................................. 37 
7. Revisão Bibliográfica ................................................................................................. 39 
 6
 
1.Introdução 
 
A expansão da frota automotiva brasileira leva cada vez mais uma 
cobrança da população em relação à qualidade dos combustíveis distribuídos no 
país, isso acarreta em analises mais precisas e resultados mais rápidos. Com o 
intuito de aumentar a velocidade e o dinamismo das analises nos postos 
brasileiros correlações entre propriedades de fácil medição em equipamentos 
portáteis e propriedades mais complexas são uma alternativa para este cenário. 
Alem de resultados mais rápidos, estas correlações também podem reduzir custos 
laboratoriais de analises mais complexas como as de MON (Motor Octane 
Number) e ROM (Reshearch Octane Number). Ainda, alguns equipamentos que 
utilizam correlações para preverem propriedades da gasolina não se adaptam bem 
à gasolina automotiva brasileira, devido ao acréscimo de álcool etílico anidro à 
mesma, para a redução de emissões tóxicas, alem de ser característica da 
conjuntura política nacional em relação à indústria canavieira e de usinas de 
álcool/açúcar. Este acréscimo altera significativamente os resultados obtidos 
nestes equipamentos. 
A relevância de utilizar correlações é fundamentada em cima da 
possibilidade de utilizar poucos testes, ou até mesmo apenas um teste no 
monitoramento do controle de qualidade feito pela ANP nos postos distribuidores 
de combustível brasileiros. Admitindo uma faixa pequena de desvio de um 
modelo bem estruturado uma grande parcela das analises seriam poupadas de 
serem executadas em laboratórios muitas vezes a muitos kilometros de distancia 
do local, prejudicando o cumprimento da legislação. 
Existem inúmeras maneiras de se utilizar correlações entre propriedades 
físico-químicas da gasolina, tanto na obtenção dos dados de entrada do modelo 
quanto nos dados de saída. Ainda há uma variedade de ferramentas matemáticas 
usadas de base para a correlação. 
A entrada dos dados pode ser feita por espectrometria por infravermelho, 
ultravioleta ou massa atômica, cromatografia liquida ou gasosa ou ainda 
 7
espectrometria por ressonância magnética. Como dados de saída podemos usar 
alguns ensaios padrão do monitoramento de qualidade como pontos da curva de 
destilação (PIE, T10, T50, T90, PFE), teor de álcool etílico anidro (AEAC) e a 
densidade a 20°C. 
Apesar de não ser a técnica mais precisa na obtenção dos dados, foi usado 
como dados de entrada a espectrometria por infravermelho. Esta técnica pode 
apresentar alguns problemas com ruídos e sobreposição de componentes, porem 
um pré-tratamento no espectro elimina boa parte destes problemas. Mas o fator 
que mais influenciou na escolha do método é a rapidez e facilidade de obtenção 
dos dados, ao contrario da cromatografia, por exemplo, que exige certo tempo de 
analise do equipamento. Outro fator baseia-se no fato de o equipamento de 
analise de espectrometria por infravermelho ser relativamente menor que os 
outros métodos, podendo ser portátil. Isso implica em analises feitas diretamente 
no posto ou distribuidoras de combustível. 
Existem dois principais métodos de regressão para os dados, primeiro os 
métodos baseados na estatística e na ortogonalização das matrizesde dados como 
o MLR (Multiply Linear Regression), PCA (Principal Component Analisys), 
PLS (Partial Least Squares) entre outros e os métodos baseados nas redes 
neurais. 
O método mais tradicional utilizado é o MLR, que consiste em: 
 
Y=X.B (1) 
Onde: 
Y = matriz [n x m] de variáveis dependentes 
n = número de amostras 
m = número de variáveis dependentes (por exemplo as propriedades 
físico-químicos da gasolina). 
X = matriz [n x k] de variáveis independentes 
k = número de variáveis independentes (composição química). 
B = matriz [k x m] dos coeficientes de regressão 
 8
O método consiste em encontrar um coeficiente de regressão linearmente 
dependente entre a matriz X, no caso o espectro infravermelho da gasolina 
automotiva e a matriz Y, composta por vetores das propriedades físico químicas 
da gasolina. O grande problema em utilizar o a regressão linear múltipla é que 
esta utiliza toda a informação do espectro infravermelho (incluindo os ruídos 
irrelevantes) para modelar o sistema. Em casos onde existe colinearidade o 
numero de amostras deve exceder o número de variáveis, um numero 
relativamente extenso. Já o algoritmo PLS resolve este problema por trabalhar 
com pesos entre as variáveis, concedendo maior importância às variáveis mais 
importantes enquanto os ruídos e alguns erros de medição exercem pouca 
influencia na construção do modelo. O método PCR também soluciona este 
problema, pois atribui os mesmo pesos às variáveis a partir dos dados da matriz 
Y. Ambos os modelos são robustos, ou seja, são pouco influenciados com a 
adição de novas amostras no conjunto. 
A Analise de Componentes Principais (PCA) é à base da maioria dos 
métodos de calibração. Ela é estruturada no conceito da manipulação da matriz 
de dados no intuito de representar as variações presentes em muitas variáveis em 
um menor número de variáveis, construindo um novo sistema de eixos, uma 
combinação linear das variáveis, que represente melhor o conjunto de dados. 
Cada novo eixo recebe o nome de PC (Principal Component) e esses se ajustam a 
um determinado grupo de valores. A primeira PC é a que ajusta uma maior 
quantidade de dados do sistema e assim por diante até que as ultimas PC’s 
apenas correlacionam variações pequenas no conjunto. 
 No PCA, a dimensão do conjunto de dados é drasticamente diminuída, 
pois o antigo sistema axial que descrevia as variáveis é transformado em um 
sistema axial ortogonal, forçando os eixos a serem independentes. Com eixos 
independentes é necessário um numero muito menor para descrever um conjunto 
de dados, isto facilita a detecção de amostras fora do padrão do conjunto 
conhecidas como “outliars”. 
Outro método de regressão de dados são as chamadas redes neurais 
artificiais (RNAs), um tipo de estrutura matemática que é capaz de implementar 
 9
padrões de associações, desenvolvendo automaticamente modelos implícitos, o 
que difere dos métodos clássicos de regressão onde existe a necessidade de um 
modelo explícito gerado analiticamente do sistema sob estudo. Um programa 
computacional é utilizado para realizar um cálculo iterativo e encontrar os 
parâmetros necessários. 
Têm sido extensamente estudadas, teórica e experimentalmente, com 
vastas aplicações na área da química. A utilização de redes neurais possui grande 
potencialidade de aplicação prática, principalmente em processos onde os 
modelos fenomenológicos não são conhecidos ou não podem ser desenvolvidos 
facilmente. 
Levando-se em conta que as redes neurais não necessitam de um modelo 
matemático para iniciar o estudo, apenas de dados de entrada e saída os quais se 
supõe que exista relação entre eles. 
 
2.Analise bibliográfica 
 
2.1 Métodos Analíticos para Identificação da Composição do 
Combustível 
 
A química analítica tem desenvolvido diversas ferramentas que fornecem 
informações sobre a composição química dos combustíveis. Trabalhos na área de 
espectrometria no infravermelho (IV) são atrativos devido ao curto tempo de 
análise. O princípio básico da técnica é a radiação infravermelha, que quando 
absorvida por uma molécula, converte-se em energia de vibração molecular. As 
vibrações moleculares formam um espectro devido às deformações axiais e 
angulares. A posição exata da banda de absorção e a mudança nos contornos das 
bandas revelam detalhes importantes da estrutura, porém uma molécula simples 
pode gerar um espectro complexo utilizou-se espectrometria no infravermelho 
para determinar a composição de 33 amostras de gasolina preparadas. Em um 
estudo posterior, utilizaram a mesma técnica de análise para determinar o teor de 
 10
oxigenados em outras 102 amostras preparadas em laboratório. utilizaram 
espectrometria no infravermelho próximo (NIR) com 325 amostras de gasolina 
determinando-se sua composição química também utilizou-se o infravermelho 
médio (MIR) em 310 amostras de nafta com alguns problemas para diferenciação 
entre naftas que classificou-se como sendo do tipo A e B. A diferenciação das 
naftas está na quantidade de aromáticos presentes, sendo que a nafta do tipo A 
possui baixa quantidade de aromáticos enquanto que a nafta do tipo B, mais 
comum que a outra, possui alto teor de aromáticos. 
Trabalhos desenvolvidos em espectrometria no ultravioleta (UV) também 
podem ser interessantes devido ao curto tempo de análise, porém não foi 
encontrado nenhum que pudesse fornecer uma identificação de algum tipo de 
combustível. O princípio básico da espectrometria no ultravioleta é a absorção de 
energia na região do ultravioleta que depende da estrutura eletrônica da molécula. 
Essa absorção de energia é quantizada e conduz à passagem dos elétrons de 
orbitais do estado fundamental para orbitais de maior energia em um estado 
excitado. Com isto podem-se reconhecer grupos característicos através dos 
espectros gerados. Porém podem existir espectros de moléculas simples 
semelhantes ao de complexas. Talvez devido a esse tipo de complexidade os 
trabalhos nesta área são raros. 
 
 
2.2 Conceitos Estatísticos 
 
2.2.1 Desvio Padrão (SD) 
 
O desvio padrão é a medida do grau de dispersão dos dados, ou seja, quão 
bem o valor se comporta em relação ao conjunto de dados. O termo “desvio 
padrão” foi introduzido na estatística por Karl Pearson em 1894 em seu livro 
"Sobre a dissecção de curvas de freqüência assimétricas". 
 11
A definição usada nos tempos de hoje é “A distancia média de um ponto 
em relação à média do conjunto de dados” ou a raiz quadrada da variância e é 
dada pela equação: 
 
 
 (2) 
Onde: 
 
s = Desvio Padrão 
Xi = Valor da variavel 
X = Média do conjunto de dados 
n = Numero de amostras do conjunto de dados 
O desvio padrão sempre será um numero não negativo e estará nas 
mesmas unidades dos dados, facilitando a interpretação dos dados. 
 
2.2.2 Covariância 
 
A covariância é similar a variância porem, mede a relação entre duas 
variáveis aleatórias X e Y e é dada por: 
 
 
1
))((
−
−−
=
∑
N
YYXX
S iiXY (3) 
Onde: 
XYS = Covariância 
iX = Valor da variável X 
X = Média do conjunto de dados x 
iY = Valor da variável Y 
Y = Média do conjunto de dados em y 
N = Numero de amostras 
 
 12
 A covariância não é palpável como estimador de relacionamento, no 
sentido de que assume valores de menos até o mais infinito, sem ter um ponto 
de referência que delimita um grau forte de relacionamento de um grau fraco. 
Portanto, a covariância não consegue revelar o que seria uma relação forte nem 
fraca. Para resolver esse problema, a covariância é dividida pelo produto dos 
desvios padrão das amostras das duas variáveis X e Y (SX e SY), e 
conseqüentemente essa nova expressão fica padronizada. Essa nova medida de 
relacionamento é chamada justamente de coeficiente decorrelação (r). Os 
valores do coeficiente de correlação estão sempre contidos no intervalo 
[−1, +1], ou seja, −1 ≤ rXY ≤ 1. 
Este é um resultado muito importante, por que pelo fato de ser 
padronizado, o coeficiente de correlação não depende da escala nem da locação 
das variáveis X e Y. Quando o coeficiente de correlação for igual a menos um 
(r = – 1) a relação entre as variáveis é perfeitamente negativa e quando for 
unitária positiva, a relação é perfeitamente positiva. Na prática, esses valores 
extremos não são encontrados em pesquisas no mundo real, mas servem de 
pontos de referência. Um valor igual à zero significa ausência de 
relacionamento linear. 
 
2.3 PCA (Principal Component Analisys) 
 
 A análise de componentes principais é uma técnica estatística poderosa 
que pode ser utilizada para redução do número de variáveis e para fornecer uma 
visão estatisticamente privilegiada do conjunto de dados. A análise de 
componentes principais fornece as ferramentas adequadas para identificar as 
variáveis mais importantes no espaço das componentes principais. 
A análise de componentes principais consiste em reescrever as variáveis 
originais em novas variáveis denominadas componentes principais, através de 
uma transformação de coordenadas. A transformação de coordenadas é um 
processo trivial quando feito usando matrizes. A transformação matemática das 
 13
coordenadas pode ser feita de diversas maneiras conforme o interesse. A 
transformação das variáveis originais em componentes principais tem algumas 
especificidades. 
Os componentes principais (PC’s) são as novas variáveis geradas através 
de uma transformação matemática especial realizada sobre as variáveis originais. 
Esta operação matemática está disponível em diversos softwares estatísticos 
especializados. Cada componente principal é uma combinação linear de todas as 
variáveis originais. Por exemplo, um sistema com oito variáveis, após a 
transformação, terá oito componentes principais. Cada uma destas componentes 
principais, por sua vez, será escrita como uma combinação linear das oito 
variáveis originais. Nestas combinações, cada variável terá uma importância ou 
peso diferente. 
Duas são as características das componentes principais que as tornam mais 
efetivas que as variáveis originais para a análise do conjunto das amostras. As 
variáveis podem guardar entre si correlações que são suprimidas nas 
componentes principais. Ou seja, as componentes principais são ortogonais entre 
si. Deste modo, cada componente principal traz uma informação estatística 
diferente das outras. A segunda característica importante é decorrente do 
processo matemático-estatístico de geração de cada componente que maximiza a 
informação estatística para cada uma das coordenadas que estão sendo criadas. 
As variáveis originais têm a mesma importância estatística, enquanto que as 
componentes principais têm importância estatística decrescente. Ou seja, as 
primeiras componentes principais são tão mais importantes que podemos até 
desprezar as demais. Destas características podemos compreender como a análise 
de componentes principais: a) podem ser analisadas separadamente devido à 
ortogonalidade, servindo para interpretar o peso das variáveis originais na 
combinação das componentes principais mais importantes b) podem servir para 
visualizar o conjunto da amostra apenas pelo gráfico das primeiras componentes 
principais, que detêm maior parte da informação estatística. 
A analise de componentes principais também é útil em sistemas onde o 
número de variáveis é muito grande, como o caso da analise de perfis de 
 14
temperatura e espectros infravermelhos. O PCA reduz drasticamente o número de 
variáveis agrupando um grande numero de informações relevantes de várias 
variáveis em apenas um componente principal, facilitando a analise dos dados. 
 
2.3.1 Caracterização Matemática 
 
 
A analise PCA decompõe a matriz de dados X em uma soma de produtos 
de vetores ti e pi e um valor residual E 
 
 
 
 X = t1pT1 + t2pT2 + ... + tkpTk + E (4) 
 
 
 
 Onde o índice k tem de ser menor ou igual à dimensão da matriz. O vetor t 
é conhecido como o vetor de “scores” e descreve como as amostras se 
correlacionam entre si, já o vetor p é conhecido como o vetor de “loadings” e 
contem informações de como as variáveis se relacionam entre si. 
 No PCA os loadings são os autovetores da matriz da covariância: 
 
cov(X)pi = λi pi (5) 
 
Onde λi é o autovalor associado ao autovetor pi. O vetor de scores t forma 
uma base ortogonal enquanto p é ortonormal, assim: 
 
Xpi = ti (6) 
 
O vetor ti é uma combinação linear das variáveis originais de X definidas 
por pi. 
A analise de componentes principais pode ser mais bem vista na Figura 1. 
Na figura estão apresentados os valores de 3 variáveis coletadas em um conjunto 
de dados. Quando plotado em três dimensões aparentemente as amostras se 
dispões em um plano e podem ser agrupadas em uma elipse. O gráfico evidencia 
 15
que as amostras se variam mais em relação a um eixo da elipse que ao outro. A 
primeira componente principal (PC) descreve a direção de maior variação do 
conjunto de dados, ou seja, o maior eixo da elipse. Já a segunda componente 
principal descreve segunda maior direção de variação das amostras, o menor eixo 
da elipse. Neste caso um modelo PCA (vetores de scores e loadings associados 
por autovetores) com 2 componentes principais descreve adequadamente a 
variação das medições. 
 
Figura 1. Representação Gráfica da Analise de Componentes Principais. 
 
 
Podemos usar alguns parâmetros estatísticos associados ao PCA para 
analisarmos a distribuição dos scores e loadings. Admitindo que os scores da 
matriz X tem media zero (assumindo que esta foi centrada na media para a 
decomposição) e variância igual ao seu autovalor associado. Ainda podemos 
assumir que os scores têm distribuição normal, podemos calcular os limites de 
confiança aplicando o teste de distribuição T-Student. O limite de confiança para 
a inésima PC é calculado pela seguinte equação: 
 
 ti,α = ± sqrt(λi)*tm-1,α/2 (7) 
 
 16
Também é possível utilizar o teste Q, que nada mais é que a soma dos 
quadrados de cada coluna (amostras) da matriz E (da equação 4), pela seguinte 
equação: 
Qi = eieiT = xi(I - PkPkT)xiT (8) 
 
Onde ei é a inésima coluna de E, Pk é a matriz dos loadings do modelo 
PCA e I é a matriz identidade. O teste que indica quão bem a amostra se adequa 
ao modelo PCA. É o residual entre a amostra e sua projeção nas k componentes 
principais que compões o modelo. Analisando geometricamente, o teste Q indica 
a distancia em que a amostra esta do plano que as PC’s foram, é a indicação da 
variação fora da componente principal. Quanto maior o valor de Q em uma 
amostra mais distante ela esta do padrão do conjunto de dados, este teste é crucial 
para a analise de “outliars”. Autos valores de Q normalmente significam 
amostras anômalas ou erros de medição. 
Outro teste utilizado é a soma dos quadrados normalizados dos scores 
conhecida como a Estatística T² de Hotelling que mede a variação de cada 
amostra dentro do modelo PCA. É dado pela equação: 
 
Ti2 = tiλ-1tiT = xiPλ-1PTxiT (9) 
 
Onde ti se refere à inésima coluna de Tk, a matriz dos k vetores de scores 
do modelo e λ-1 é a matriz diagonal contendo o inverso dos autovalores aos k 
autovetores (PC’s) que compões o modelo. 
A estatística T² indica a distancia que a amostra se encontra da média 
multivariada, ou seja, a intersecção (no caso descrito) entre as PC’s. O limite de 
T² define a elipse descrita na figura 1, que descreve a distribuição normal. 
Normalmente os modelos apresentamalto grau de complexidade e não são 
distribuídos normalmente, o que, torna o T² pouco confiável, pois a média 
multivariada não é confiável. Porem o teste Q mesmo em casos mais complexos 
ainda tem boa resposta. 
 17
Nestes tipos de modelos de variáveis com distribuição não lineares 
usamos métodos de pré-tratamento dos dados para que a analise de componentes 
principais seja mais confiável, a seguir alguns tipos de pré-tratamento. 
 
a) Centramento na Média 
 
Este método desloca o eixo para o centro de gravidade do conjunto de 
dados, subtraindo o valor da média de todos os valores das amostras. Este 
procedimento concede maior estabilidade numérica para amostras em que os 
valores zero são esperados em vários fatores, como é o caso de espectros em 
quimiometria em que um valor zero de concentração significa o valor zero na 
absorvância. Centrar os valores na média remove o “tamanho” das amostras, 
sendo interessante usar em situações em que este não é relevante. 
 
b) Auto-escalonamento 
 
Consiste me conceder a cada variável o mesmo peso. Primeiramente as 
variáveis são divididas por seus desvios padrão, resultando em uma variância 
unitária e posteriormente é subtraído o valor da média. Um auto-escalonamento 
apropriado foca o modelo nas variáveis relevantes da matriz Y e ainda concede e 
as variáveis com maior numero de informações de X exercem maior influencia 
no modelo. 
 
c) Normalização 
 
A normalização faz com que a soma das variáveis sejam valores de 
potencias de 10 multiplicando os valores por um fator. O procedimento é muito 
usado na química, pois remove a influencia de ruídos nas analises de 
espectrometria, cromatografia entre outras. 
 
d) Correção Ortogonal de Sinal (OSC) 
 18
 
Este procedimento é usando para remover variações ortogonais 
sistemáticas entre as matrizes X e Y nas correlações multicomponentes. Ruídos 
estruturados da matriz Y prejudicam a projeção de X baseada nos métodos PCA, 
PLS e PCR. As variações ortogonais de Y incorporam-se no primeiro vetor ti de 
scores da matriz X prejudicando a correlação entre ti e Y propagando-se para a 
interpretação dos dados. Deve-se tomar cuidado na aplicação da OSC para que 
não ocorra overfiting. 
 
2.4 PLS (Partial Least Squares) 
 
Em meados dos anos 70 um ramo da estatística, a analise multivariada, 
começou a ser utilizado com êxito para modelar um conjunto de variáveis 
complicadas pelo grande numero por Herman Wold, este método foi chamado 
inicialmente de NIPALS ( non – linear interative Partial Least Squares) e mais 
tarde de PLS ( partial least square) ou mínimos quadrados parciais. A partir da 
década de 80 este método se tornou extremamente útil na química analítica, 
tendo que um grande número de parâmetros e dados estavam sendo obtidos, com 
a matemática disponível o tratamento desses dados se tornava extremamente 
complexa, e a implementação da ferramenta PLS resolveu muitos desses 
problemas, já que, na época os computadores já tinham uma capacidade para 
cálculos relativamente complexos e robustos. Mais recentemente com os avanços 
na área de inteligência artificial proporcionados pela rápida ascensão da 
capacidade dos microcomputadores uma outra ferramenta se tornou útil suprindo 
as deficiências que o PLS detém, esta ferramenta são as RNA´s ( Redes Neurais 
Artificiais). 
A analise multivariada aplicada na química analítica é conhecida como 
Calibração Multivariada que consiste em estabelecer uma correlação entre duas 
matrizes (blocos). Este processo consiste basicamente em 2 fases, primeiramente 
a calibração e seguida da validação do modelo. Na primeira, uma matriz (X) 
 19
consiste em “n” linhas e “p” colunas, as linhas correspondem a diferentes 
propriedades, características ou tipos de uma variável, como o espectro do 
infravermelho, a concentração da amostra ou o nível de atividade iônica e as “p” 
colunas correspondem a diferentes amostras, nota-se que quanto maior o numero 
de colunas “p” mais confiável será o modelo obtido. Já a matriz (Y) corresponde 
aos dados aos quais se deseja obter após ter um modelo que consiga relacionar a 
entrada de dados (matriz X) e fornecer os dados da matriz (Y). 
Ao se ter várias propriedades de uma mesma amostra (as linhas “n”) 
durante a modelagem percebem-se que algumas informações são mais relevantes 
que outras isso se verifica quando aplicamos o PCA (Analise dos principais 
componentes). No PCA decompõe-se a matriz de dados (X) em uma soma de 
matrizes (Gi), produto de vetores chamados escores (scores) e pesos que podem 
ser calculados por mínimos quadrados. Assim cada matriz Gi tem uma relevância 
diferente na correlação com a matriz de resultados (Y). 
 Na regressão por mínimos quadrados parciais (PLS) , expande-se a 
matriz de dados em uma soma de matrizes que não podem ser mais expandidas 
mais uma matriz de erro (que não corresponde a parte modelada).As matrizes de 
dados se transformam em matrizes que são formadas por um produto de dois 
vetores t (escores) por p (pesos). 
 
 (11) ...
(10) ...
2211
21
EptptptX
EGGGX
aa
a
+++=
+++=
 
 
Para se determinar o número de componentes principais utiliza-se um 
método chamado da Validação Cruzada, que consiste em primeiramente fazer um 
modelo, e depois de pronto retira-se uma amostra “i” do conjunto de calibração e 
é feito um novo modelo, então se tenta prever, no novo modelo, a amostra i 
retirada. Após calcula-se o erro de previsão (y-yi) , e depois o quadrado dos erros 
de previsão que é chamado de PRESS. 
 
∑ −=
2
1)( yyPRESS
 (13) 
 20
 
Onde y é o valor conhecido e yi é o valor obtido. Assim menor o valor 
PRESS mais adequado é o componente. 
Para um modelo ser o aceito ele precisa ter a capacidade de prever com 
uma precisão desejada um conjunto de valores correspondentes a novos dados, 
novas entradas, para verificar isto utilizamos métodos para validação do modelo 
que consiste na determinação do erro padrão de calibração (SEC) e o erro padrão 
de previsão (SEP). Modelos com uma boa capacidade de previsão apresentam 
baixos valores ou as vezes mínimos dos 2 erros e valores de ambos próximos. 
Normalmente os dados de entrada do modelo são de alta complexidade e 
não linearidade alem de apresentarem um grande número de variáveis, para 
obter-se modelos mais precisos os mesmos métodos de pré-tratamento utilizados 
nos modelos PCA são utilizados nos modelos PLS. 
 
2.4.1 Caracterização Matemática 
 
 Na regressão por mínimos quadrados parciais uma matriz X de amostras é 
correlacionada com uma matriz Y de dados dessas amostras por um coeficiente 
como demonstram as equações 
 
T = XW* (14) 
 
X = TP’ + E (15) 
 
Y= U’C’ + G (16) 
 
Y = TC’ + F (17) 
 
Y = XW*C’ + F (18) 
 
B = W*C’ (19) 
 21
 
Y = XB + F (20) 
 
Na equação (14) matriz T de escores é composta pelo produto da matriz de 
amostras X e um determinado peso W*. A matriz T descreve a similaridade 
entre as amostras da entrada, e o peso W* descreve como as variáveis da matriz 
X se combinam para correlacionar a matriz de amostra X e a de dados Y. 
A matriz X pode ser decomposta, assim como no PCA, em vetores de 
scores ti e uma matriz de resíduos E, cujo não é usada para a construção do 
modelo. O vetor pi corresponde aos loadings, que descreve a maneira quem a 
variáveis de X se combinam, assim como o vetor de pesos W*, como descrito na 
equação (15). A equação (16) é similar à (15) porem correspondendo a matriz de 
dados Y. A matriz de scores U’ de loadings C’ e de resíduos G, estes resíduos 
são a parte da matriz Y que não é descrita pelo modelo PLS. 
Fazendo uma combinação de variáveis chegamosà equação (20), onde a 
matriz B chamada de matriz dos coeficientes do PLS aparece proveniente da 
combinação linear das de loadings tanto de X quanto de Y. Esta matriz descreve 
as variáveis latentes (LV’s) que nada mais são que, uma combinação linear entre 
os componentes principais de cada matriz. 
Para a identificação de outliars nos modelos PLS utiliza-se o “leverage” 
que define a influencia de uma amostra na construção do modelo. O leverage é 
relacionado com a estatística T². Baixos valores de leverage significam pouca 
influencia na construção do modelo, porem há de se ter cuidado na analise deste 
parâmetro. Amostras com valores anômalos têm alta influencia na construção do 
modelo, porém uma influencia ruim. Geometricamente o leverage significa a 
distancia da amostra do centróide do conjunto de dado, daí a relação com a 
estatística T². 
 
 22
 
3. Materiais e Métodos 
 
3.1 Densidade ASTM a 20 °C 
 
 Método do Densímetro Automático O equipamento utilizado neste estudo 
é o densímetro automático modelo DMA 4500 da Antoon Paar apresentado na 
figura 4.3, que determina a densidade da gasolina a 20 oC em g/cm3. Este ensaio 
atende às normas ASTM D 4052 /NBR 14065. A amostra é introduzida, com 
auxílio de uma seringa, em um tubo capilar em forma de U, vibrando com 
freqüência definida. Um banho controlado ajusta a temperatura da amostra a 
20oC. A modificação da freqüência, provocada pela introdução da amostra, em 
conjunto com os parâmetros de calibração determina a massa específica da 
amostra, na temperatura escolhida. O tempo de análise para este método é de dois 
minutos. A densidade da gasolina está relacionada às características de 
estocagem, mas também pode indicar presença de contaminantes. 
 
3.2 Curva de Destilação 
 
Este ensaio atende às normas ASTM D 86 e NBR 9619. 
Os equipamentos disponíveis em laboratório para este estudo são: 
 a) Destilador automático Herzog mod. HDA628 (master) n.s. 
6280977 e 6280978 (máquina 1 e 3). 
 b) Destilador automático Herzog mod. HDA627 (slave) 
n.s.16271209 e 16271208 (máquina 2 e 4). 
 
 
 
 
 
 
 23
3.2.1 Terminologia (NBR 9619) 
 
PIE – Ponto inicial de ebulição: é a leitura corrigida do termômetro que é 
observada no instante que a primeira gota de condensado cai na extremidade 
mais baixa do tubo condensador . 
PFE – Ponto final de ebulição: é a máxima temperatura corrigida do 
termômetro obtida durante o teste. Esta geralmente ocorre depois da evaporação 
de todo líquido do fundo do frasco. 
Porcentagem recuperada: o volume de condensado observado na proveta 
coletora, expresso como a porcentagem do volume carregado, associado com a 
leitura simultânea da temperatura. 
Ponto seco: a leitura do termômetro corrigida que é observada no instante 
em que a última gota de líquido (excluindo quaisquer gotas ou película de líquido 
nas paredes do frasco ou do sensor de temperatura) evapore da parte mais baixa 
do fundo do frasco. Existe uma aproximação deste ponto para o ponto final de 
ebulição em amostras onde não se consegue diferenciá-los. 
Neste ensaio, 100 ml de gasolina é evaporado e condensado sob condições 
padronizadas. A taxa de destilação da amostra deve estar entre 4 a 5 ml/min, 
proporcionando uma destilação uniforme ao longo do tempo. O condensado é 
recolhido em uma proveta graduada calibrada, permitindo a leitura do volume de 
destilado. São feitas observações sistemáticas de temperatura a cada volume 
especificado de condensado, possibilitando o levantamento da curva de 
destilação do produto. É um teste básico de determinação das características de 
volatilidade do combustível, sendo utilizado para verificar se as proporções leves 
e pesadas do combustível produzido estão adequadas, visando obter uma boa 
performance na combustão. É utilizado também para detecção de contaminação 
com outros produtos leves ou pesados. A especificação define valores máximos 
de temperatura para os pontos 10%, 50% e 90% evaporados ou recuperados, 
além do ponto final de ebulição (PFE) e o resíduo da destilação. O tempo de 
análise para destilar uma amostra de gasolina comum é de 40 minutos (em 
média). 
 24
Ao destilar-se a gasolina, mistura complexa de hidrocarbonetos com 
número de carbonos variando de 4 a 12, obtemos dados a respeito de seu 
desempenho em um motor. Os dados mais importantes são: 
a) PIE - ponto inicial de ebulição. É o ponto de bolha da gasolina, 
relacionado diretamente com o teor de voláteis na gasolina. É importante 
para a partida do motor a frio. 
 b) T10 - temperatura na qual 10% (em volume) do líquido foi 
destilado. Está relacionada com a partida do motor a frio. Voláteis em excesso 
ocasionam o “vapor lock” . 
 c) T50 - temperatura na qual 50% do líquido foi destilado. Está 
relacionada com o aquecimento do motor (temperatura ótima de operação). 
 d) T90 - temperatura na qual 90% do líquido foi destilado. 
Relaciona-se com a performance e economia do motor, além da temperatura 
ótima de operação do mesmo. Hidrocarbonetos pesados em excesso podem 
causar combustão irregular, já que não volatilizam tão fácil e permanecem mais 
tempo dentro do motor causando a diluição do lubrificante. 
 e) PFE - ponto final de ebulição. Relacionado com o teor de 
hidrocarbonetos pesados. 
 
Os resultados do teste são normalmente expressos como porcentagem recuperada 
versus temperaturas correspondentes, em uma tabela ou graficamente plotando-se 
a curva de destilação. Algumas considerações do fabricante (HERZOG, 2000) 
relevantes para o estudo: 
O equipamento possui um sensor DP (Dry Point) que detecta automaticamente o 
ponto seco, que capta a mudança de temperatura na parte de cima do balão de 
destilação. A temperatura eleva-se rapidamente após a saída da última gota. 
O ponto inicial de ebulição é detectado por um sensor infravermelho de nível. O 
nível zero da proveta receptora deve ser calibrado cada vez que a mesma é 
trocada, mesmo sendo do mesmo fabricante ou também quando o equipamento é 
trocado. 
 25
O termômetro utilizado para medida das temperaturas é um PT 100, que possui 
um material sensível à temperatura (platina) com uma resistência elétrica que 
muda com a mesma. 
O equipamento possui velocidade de destilação controlada que fica entre 4 a 5 ml 
por minuto. 
 
3.3 Espectrometria por Infravermelho 
 
O equipamento utilizado para obter os espectros e infravermelho é um 
Excalibur, com kit ATR, com transformada de fourier, situado no Departamento 
de Química da UFPR. A faixa de aquisição de dados foi de 4000 a 400 cm-1, 
referente ao infravermelho médio, com resolução de 4cm-1 , com 32 scans de 
varredura. 
4. Resultados 
 
O modelo PLS construído foi baseado em amostras de infravermelho de 
gasolinas aprovadas no controle de qualidade. Apesar destas amostras seguirem 
padrões mais definidos, podendo causar overfiting, o modelo com 12 amostras de 
gasolinas tanto comum como aditivada mostro-se coerente com os dados 
experimentais.. 
Foram analisadas 6 propriedades: 4 pontos da curva de destilação (T10, 
T50, T90, PFE), Densidade ASTM a 20° e o teor de álcool etílico anidro 
combustível (AEAC). 
. 
O espectro infravermelho obtido em laboratório varia de 0 a 8000nm de 
faixa de banda como mostrado na figura 2, porem nos dois extremos do espectro 
a incidência de ruídos provenientes do equipamento é muito grande, então se 
utilizou uma faixa de 600 a 4000nm (Figura 3). Esta faixa cobre a maior parte do 
espectro relevante ao modelo. 
 
 26
 
 
-2,00E+01
0,00E+00
2,00E+01
4,00E+01
6,00E+01
8,00E+01
1,00E+02
1,20E+02
1,40E+02
0 1000 2000 3000 4000 5000 6000 7000 8000
 
Figura 2 – Espectro infravermelho obtido no equipamento 
 
 
0
20
40
60
80
100
120
1 133 265 397 529 661 793 9251057 1189 1321 1453 1585 1717
 
Figura 3 – Espectro infravermelho utilizado no modelo 
 
 Após reduzir o espectro, o mesmo foi pré-tratado de duas maneiras: 
Primeiramente foi normalizado para remover os ruídos restantes no espectro 
devido aos dados utilizados para a previsão serem relativamente diferentes 
utilizou-se o método OSC (Orthogonal Signal Corretion) já descrito acima. 
Apesar de ser muito difundido o método “Mean Center”, os pré-tratamentos 
utilizado no modelo em questão se mostram melhores. 
 A matriz Y de dados contento as propriedades físico químicas da gasolina 
sofreu um pré-tratamento centrando na média, como dito anteriormente se 
tratando de propriedades com valores relativamente diferentes. O método de 
auto-escalonamento produziu bons resultados também, porem piores que o 
método anterior. 
 27
 Na cross-validação foi utilizada do tipo “leave one out” que consiste em 
fazer sucessivos modelos retirando uma amostra e prevendo-a a partir do modelo 
sem a mesma. É uma técnica relativamente simples e para modelos de 
complexidade modera porta-se muito bem. 
 A tabela abaixo mostra o numero de variáveis latentes (LV’) obtidas no 
modelo, a variância capturada por cada LV e a variância acumulada. 
 -----Infravermelho---- ----Propriedades----- 
LV # This LV Total This LV Total 
---- ------- ------- ------- ------- 
1 74.91 74.91 36.40 36.40 
2 7.21 82.12 25.67 62.07 
3 10.79 92.91 5.91 67.98 
4 1.40 94.31 15.19 83.17 
5 1.45 95.76 6.64 89.80 
6 1.75 97.51 3.38 93.19 
7 1.13 98.64 2.95 96.14 
8 0.78 99.42 0.89 97.03 
9 0.25 99.67 1.34 98.37 
10 0.24 99.91 0.49 98.87 
11 0.09 100.00 1.13 100.00 
Tabela 1 – Variáveis Latentes 
 
 A figura 4 mostra a relação entre o numero de variáveis latentes para a 
matiz Y, a matriz das propriedades físico químicas e a variância de cada uma das 
LV’s. A partir de 8 LV’s a variância capturada pela variável latente é pouco 
relevante, foi então fixado o numero de 8 LV’s para o modelo. 
 28
 
Figura 4 – Num de LV’s x Variância Capturada 
 
Foram usadas amostras de gasolina adulterada para testar o modelo, as 
amostras foram escolhidas aleatoriamente. As tabelas a seguir apresentam os 
valores obtidos em laboratório confrontados com os previstos pelo modelo. 
 
 T10 T50 T90 PFE Densidade AEAC 
GA07 54,6 72,8 160,2 203,1 752,8 27 
GA09 55,4 73 168,1 217 759,2 29 
GA10 55,3 72,1 167,1 212,1 755,9 26 
GA11 54,9 73,4 162,9 209,4 760,8 31 
GC01 53,8 72 162,7 206,4 752,3 27 
GC02 57,3 74,5 151,3 206,3 766,3 32 
GC03 56,3 72,5 166,4 221,4 754,5 25 
GC04 55,4 72,4 161,7 207,5 753,2 27 
GC05 65,1 73,1 155,2 198,1 758,6 23 
GC06 55 98,9 169,8 210,7 741,7 2 
GC07 56,6 72,4 170,8 248,3 755,4 25 
GC08 56 73,7 167 194,3 757,4 27 
GC09 56,2 73,7 155,5 204,6 762,1 28 
GC10 54,6 72,3 165 233,2 754,2 25 
GC22 54,1 72 161,8 206,3 751,9 26 
GC23 56,1 72,7 162 212,1 754,4 28 
GC24 54,9 72,6 161,2 206,1 753,5 26 
GC25 54 72 165 220,5 752,7 26 
GC27 55,1 72,6 163,2 208,4 756,4 30 
GC28 55,7 73,2 166 213,9 760,17 29 
GC30 54,4 73 168,1 211,2 758,3 27 
GC31 53,6 72,4 167,6 209,5 756,3 25 
GC38 56,6 72,6 165,5 233,7 756,9 29 
GC39 53,2 72,4 159,7 206,7 753,8 29 
GC50 55,6 72,8 187,1 327,9 760,5 25 
GC51 59,5 71,2 149,5 198,9 750,1 26 
GC52 50,1 70,7 157,6 210,7 742,7 26 
 
Tabela 2 – Valores Experimento 
 29
 T10 T50 T90 PFE Densidade AEAC 
GA07 55,318 71,857 163,520 212,610 750,080 26,774 
GA09 54,233 72,214 168.14 215,210 751,460 24,671 
GA10 54,596 72,213 166,820 217,270 749,630 26,350 
GA11 55,391 72,225 165,020 220,160 748,530 28,412 
GC01 55,115 71,498 166,120 208,190 754,000 27,139 
GC02 58,127 72,948 165,300 226,650 748,190 33,053 
GC03 54,876 71,658 164,440 208,680 752,530 25,408 
GC04 55,700 71,844 162,890 210,240 751,080 26,706 
GC05 55,303 71,827 163,320 198,230 756,550 21,444 
GC06 55,205 71,969 164,190 208,790 752,160 24,665 
GC07 54,318 71,719 166,480 209,150 752,780 25,496 
GC08 57,539 72,756 165,780 222,740 749,850 31,473 
GC09 55,040 71,760 163,910 207,710 752,560 24,917 
GC10 54,466 71,814 166,070 211,870 751,720 26,102 
GC22 55,738 72,647 167,720 215,220 752,070 27,013 
GC23 55,625 72,273 165,510 212,980 751,490 26,246 
GC24 55,082 72,390 167,890 211,470 753,200 25,140 
GC25 54,311 71,835 166,760 210,530 751,750 26,067 
GC27 54,699 72,079 165,040 217,140 749,200 26,433 
GC28 58,570 73,100 162,880 232,030 744,950 33,322 
GC30 53,051 71,730 168,140 210,520 752,190 22,898 
GC31 53,645 71,548 164,580 211,600 749,980 24,126 
GC38 54,226 71,798 164,980 211,230 750,940 24,756 
GC39 53,651 71,557 164,210 206,510 751,210 23,559 
GC50 54,855 71,316 159,420 208,210 748,680 25,764 
GC51 54,432 71,226 159,740 206,930 749,390 24,469 
GC52 56,626 71,717 156,310 207,590 748,890 25,537 
 
Tabela 3 – Valores Obtidos pelo modelo 
 
 
Agora analisando graficamente as propriedades físico químicas 
isoladamente, as figuras mostram a comparação entre o valor experimental 
(pontos pretos e quadrados) e o previsto pelo modelo (pontos circulares e 
vermelhos) e ainda o desvio relativo das amostras. 
 30
 
Figura 5 – Ponto Experimental x Ponto Calculado para AEAC 
 
Figura 6 – Desvio de Previsão para AEAC 
 
 
 31
 
Figura 7 – Ponto Experimental x Ponto Calculado para Densidade 
 
Figura 8 – Desvio de Previsão para Densidade 
 
 32
 
Figura 9 – Ponto Experimental x Ponto Calculado para PFE 
 
Figura 10 – Desvio de Previsão para PFE 
 
 
 33
 
Figura 11 – Ponto Experimental x Ponto Calculado para T10 
 
Figura 12 – Desvio de Previsão para T10 
 
 
 34
 
 
Figura 13 – Ponto Experimental x Ponto Calculado para T50 
 
Figura 14 – Desvio de Previsão para T50 
 
 35
 
Figura 15 – Ponto Experimental x Ponto Calculado para T90 
 
 
Figura 16 – Desvio de Previsão para T90 
 36
5. Conclusão 
 
O modelo partiu inicialmente com mais amostras (50 amostras). 
Utilizando analise de componentes principais (PCA) foram retirados outliars. 
Apesar de poucos componentes principais descreverem o espectro, quando 
aplicado o PLS o numero de variáveis latentes devido à necessidade de um maior 
numero delas para descrever a matriz das propriedades físico químicas. 
Outro fator a se considerar é a forma de construção do modelo. 
Primeiramente correlacionando as 6 propriedades simultaneamente, visto que 
houve pouca diferença entre o modelo global e modelos correlacionando apenas 
1 propriedade, sendo mais vantajoso lidar com apenas 1 modelo. 
O modelo respondeu bem principalmente à densidade, onde não alcançou 
erros maiores que 2,5% fato este podendo ser explicado primeiramente por os 
valores experimentais já serem provenientes de correlações no equipamento e 
também pela alta precisão do mesmo. Os valores da curva de destilação também 
responderam relativamente bem ao modelo com erros de até no máximo 5%, 
porem erros já considerados altos para esse tipo de método estatístico. Os pontos 
T10, T50 e T90 principalmente, já o ponto final de ebulição apresentou algumas 
amostras que ficaram afastadas dos valores previstos. O equipamento usado 
apesar de ser um equipamento automático, pode ser levemente impreciso nas 
medições visto que o controle de temperatura e outros fatores físicos podem 
influenciar nos dados recolhidos. Por ultimo o teor de álcool etílico anidro 
(AEAC) apresentou comportamento bem ruim em relação às outras propriedades. 
Este tipo de análise é efetuado manualmente em uma proveta e os valoresobtidos 
para uso em modelos matemáticos não são confiáveis. 
 
 
 
 
 
 37
6. Outras Realizações 
 
6.1 Organização do 16º Congresso Nacional de Estudantes de 
Engenharia Química (CONEEQ) 
 
O 16° Congresso Nacional dos Estudantes de Engenharia Química 
(CONEEQ), que foi realizado dos dias 20 a 27 de Janeiro na Cidade de Curitiba, 
foi um evento anual que teve o objetivo de estimular o intercambio cientifico e 
cultural entre todos os estudantes de engenharia química, engenharia ambiental, 
engenharia de bioprocessos e química industrial do país. O evento foi organizado 
pelos alunos do curso de graduação em Engenharia Química da Universidade 
Federal do Paraná, em parceria com os professores e o Setor de Tecnologia da 
mesma Universidade. 
O PRH 24 teve participação crucial no evento, tanto como principal 
patrocinador como tendo na Coordenação Geral, o principal posto do evento, um 
bolsista do PRH 24. 
Alem disso, alunos de outros PRH’s tiveram a oportunidade de se 
encontrarem e discutirem sobre o programa e os mais variados temas. Vale 
lembrar que o evento foi o maior dos últimos 10 anos tanto em número de 
participantes como em número de trabalhos de iniciação cientifica apresentados, 
somando mais de 70 pôsteres e 10 classificados para apresentação oral para uma 
banca examinadora que contava com professores do programa como a Prof Drª 
Agnes de Paula Scheer e a ex-pesquisadora do programa Lillian Cristina Côcco. 
O tema central do congresso foi “Petróleo: Auto-suficiência e 
sustentabilidade” com o objetivo de integrar os alunos de todo o Brasil com esta 
nova fase que o país esta passando. 
Após o estouro da auto-suficiência na produção de petróleo nacional na 
mídia, é pertinente a discussão sobre o que realmente esta auto-suficiência 
significa para a nação e como ela influenciará no futuro do país. 
A auto-suficiência levada em conta é quando consideramos que há 
disponibilidade de petróleo produzido nos campos nacionais em volume igual ou 
 38
superior ao consumo e à capacidade de refino do país para atender à demanda do 
mercado brasileiro. 
 Hoje, esta demanda é de 1,8 milhões de barris/dia, e a produção nacional, 
em torno de 1,9 milhões de barris/dia. 
Apesar de ser tentador ao mercado uma crescente produção, esta não pode 
causar danos ao meio ambiente, e isto deve ser um foco importante nas 
discussões: como conseguiremos manter essa auto-suficiência por muitos anos 
sem agredir a natureza. 
Durante uma semana mais de 500 estudantes ficaram reunidos na cidade. 
O cronograma girou em torno dos cursos e palestras, ofertados de segunda a 
quarta feira. Apesar de o foco central ser a indústria petrolífera, foi discutido os 
mais variados temas como papel e celulose, equipamentos da indústria química e 
o enpreendedorismo. Na quinta feira o dia foi para a amostra de iniciação 
cientifica dos alunos pré classificados para apresentação oral, julgados por uma 
banda de professores. Entre eles professores orientadores do PRH24 
Ainda na quinta feira foi realizado o 1° Encontro Nacional de Empresas 
Juniores de Eng Química, uma iniciativa da Federação Nacional de Estudantes de 
Eng Química (FENEEQ) para incentivar e consolidar essa importante atividade 
dentro das instituições de ensino. Finalizando a parte acadêmica do congresso na 
sexta feira os alunos tiveram a oportunidade de visitar as indústrias da área na 
região de Curitiba. 
Compareceram ao evento mais de 900 alunos dos mais variados locais do 
Brasil, desde estudantes de Porto Alegre até uma delegação com 50 alunos de 
Natal no Rio Grande do Norte, a organização também se preocupou em 
proporcionar um calendário de festas para que todos alem de durante o dia 
participar das atividades acadêmicas, possam se divertir na capital paranaense. 
A importância da troca de experiências entre as mais de 20 instituições de 
ensino que estarão presente no evento é o que move a cada ano, congressos 
maiores e mais bem sucedidos. 
Assim como a FENEEQ, alem de integrar os alunos de todo o pais, busca 
aproximar os mesmos de sua futura profissão.
 
 39
7. Revisão Bibliográfica 
 
1. WOLD. S, SJÖSTRÖM. M , ERIKSSON. L ; PLS-regression: a basic tool of 
chemometrics
 , Elsevier Science B.V., 2001 
 
2.WENDLANT, W . W. M.; HECHT, H. G.; Reflectance Spectroscopy, New York , 
Interscience
 , 1996 
 
3. BARROS A. S.; RUTLEDGE D. N. ; Principal Components transform-partial 
least squares: a novel method to accelerate cross-validation in PLS regression
 , 
Elsevier Science B.V., 2004. 
 
4. SAVITZKY,A.; GOLLAY, M. J. E.; Anal. Chem., 36: 1627, 1994. 
 
5.OTTO. M ; Chemometrics Statistics and Computer Appilcation in Analytical 
Chemistry; Wiley-VHC; New York, 1998 
 
6. JOBSON J. D.; Applied Multivariate Data Analysis vol.1; Springer-Verlag , New 
York, 1991 
 
7. HAYKIN, S.; Neural Networks – A Comprehensive Foundation. 2. ed.: , Prentice 
Hall ,New Jersey, 1999. 
 
8. FERREIRA MÁRCAI M. C., ANTUNES ALEXANDRE M, MELGO MARISA S., 
VOLPEPEDRO L. O.; Quimiometria I: Calibração Multivariada, Um Tutorial, 
Campinas, 1999 
 
9. SMITH LINDSAY I.;A tutorial on Principal Components Analysis, 2002 
 
10. WISE BARYY M., GALLAGHER NEAL B., BRO RASMUS., SHAVER 
JEREMY M., PLS Toolbox 3.0 for use with MATLAB, Manson WA, 2003 
 
11.HANSELMAN DUANE; Mastering MATLAB 6, Prntice Hall Inc, 2001 
 
12.CÔCCO, Lílian Cristina; YAMAMOTO, Carlos Itsuo; von MEIEN, Oscar 
Felippe. Previsão de Propriedades da Gasolina a partir de sua Composição 
Química utilizando-se Rede Neural, Curitiba, 2003

Outros materiais