Prévia do material em texto
Universidade Federal do ABC Centro de Engenharia, Modelagem e Ciências Sociais Aplicadas Trabalho de Graduação em Engenharia Aeroespacial Gabriel Fernando Magalhães Silva José Willians Aparecido Vitório COMPARAÇÃO ENTRE MÉTODOS DE ANÁLISE DE CONFIABILIDADE EM ESTRUTURAS AERONÁUTICAS À BASE DE MATERIAIS COMPÓSITOS Orientador: Prof. Dr. Marcelo Araújo da Silva São Bernardo do Campo 2021 Gabriel Fernando Magalhães Silva José Willians Aparecido Vitório COMPARAÇÃO ENTRE MÉTODOS DE ANÁLISE DE CONFIABILIDADE EM ESTRUTURAS AERONÁUTICAS À BASE DE MATERIAIS COMPÓSITOS Trabalho de Graduação apresentado ao curso de Engenharia Aeroespacial, como parte dos requisitos necessários para a obtenção do Título de Bacharel em Engenharia Universidade Federal do ABC – UFABC Centro de Engenharia, Modelagem e Ciências Sociais Aplicadas Engenharia Aeroespacial Orientador: Prof. Dr. Marcelo Araújo da Silva São Bernardo do Campo - SP Novembro de 2021 Sistema de Bibliotecas da Universidade Federal do ABC Elaborada pelo Sistema de Geração de Ficha Catalográfica da UFABC com os dados fornecidos pelo(a) autor(a). Magalhães Silva, Gabriel Fernando COMPARAÇÃO ENTRE MÉTODOS DE ANÁLISE DE CONFIABILIDADE EM ESTRUTURAS AERONÁUTICAS À BASE DE MATERIAIS COMPÓSITOS / Gabriel Fernando Magalhães Silva, José willians Aparecido Vitório. — 2021. 52 fls. : il. Orientador: Marcelo Araújo da Silva Trabalho de Conclusão de Curso — Universidade Federal do ABC, Bacharelado em Engenharia Aeroespacial, São Bernardo do Campo, 2021. 1. Confiabilidade. 2. Otimização. 3. FORM. 4. Monte Carlo. I. Aparecido Vitório, José willians. II. Araújo da Silva, Marcelo. III. Bacharelado em Engenharia Aeroespacial, 2021. IV. Título. Gabriel Fernando Magalhães Silva José Willians Aparecido Vitório COMPARAÇÃO ENTRE MÉTODOS DE ANÁLISE DE CONFIABILIDADE EM ESTRUTURAS AERONÁUTICAS À BASE DE MATERIAIS COMPÓSITOS Trabalho de Graduação apresentado ao curso de Engenharia Aeroespacial, como parte dos requisitos necessários para a obtenção do Título de Bacharel em Engenharia São Bernardo do Campo - SP, Novembro de 2021 Trabalho aprovado. BANCA EXAMINADORA Prof. Dr. Marcelo Araújo da Silva Orientador Prof. Dr. Reyolando Manoel Lopes Rebello da Fonseca Brasil Membro titular Prof. Dr. Ricardo Gaspar Membro titular RESUMO O desenvolvimento de estruturas aeronáuticas à base de materiais compósitos tem aumentado significativamente nas últimas décadas. A longarina de uma asa de aeronave é um exemplo de uma estrutura que pode ser desenvolvida com o uso dema- teriais compósitos. Essa estrutura, que pode ser modelada como uma viga em balanço sob aplicação de uma carga distribuída, tem rigorosos requisitos de projeto, principal- mente no que se refere à confiabilidade da estrutura. A análise da confiabilidade de uma estrutura pode ser realizada seguindo métodos baseados em simulações ou em problemas de otimização. Independente do método utilizado para análise da confia- bilidade, uma estrutura à base de materiais compósitos apresenta uma necessidade diferenciada na sua modelagem, pelas novas propriedades mecânicas decorrentes do uso de materiais compósitos. No presente trabalho, propõe-se uma comparação en- tre dois métodos de análise de confiabilidade (um baseado em simulações e outro baseado em otimização) de uma estrutura à base de materiais compósitos que se as- semelha à longarina de uma asa de aeronave, com o intuito de realizar avaliações da eficácia e complexidade de cada método. Palavras-chave: Confiabilidade, Otimização, FORM, Monte Carlo. 1 ABSTRACT The development of aeronautical structures based on composite materials has increased significantly over the last decades. The spar of an aircraft’s wing is an exam- ple of a structure which can be made using composite materials. This structure, which can be modeled as a cantilever beam under the application of a distributed load, has rigorous design requirements, especially with regard to the structure’s reliability. The reliability analysis of a structure can be done with the use of methods based on simula- tions or optimization problems. Regardless of the method utilized for reliability analysis, a structure based on composite materials has special needs in its model, for the sake of new mechanical properties due to the use of composite materials. In this study, a comparison has been presented between two methods (one based on simulations and another based on optimization) of analyzing reliability of a composite material based structure which resembles the spar of an aircraft wing, in order to carry out evaluations of the efficacy and complexity of each method. Keywords: Reliability, Optimization, FORM, Monte Carlo. 2 LISTA DE SÍMBOLOS α Parâmetro de escala distribuição de Weibull αi Cossenos diretores αn Inverso da medida de dispersão do maior valor da variável inicial de Gumbel β Parâmetro de forma distribuição de Weibull βHL Índice de confiabilidade de Hasofer-Lind βmc Índice de confiabilidade método de Monte Carlo εd Deformação máxima de projeto εf Deformação máxima suportada pela fibra εm Deformação máxima suportada pela matriz ∂g ∂X′ i I-ésima derivada parcial avaliada no ponto de projeto µ Média da distribuição µn Maior valor característico da variável inicial de Gumbel µN Xi Média da distribuição normal equivalente Φ Função de distribuição acumulada da normal padrão φ Função de densidade de probabilidade normal padrão ρf Proporção de fibra ρm Proporção de matriz σ Desvio padrão da distribuição σ2 Variância da distribuição σd Tensão de Hooke σfr Tensão de resistência da fibra σmr Tensão de resistência da matriz σN Xi Desvio padrão da distribuição normal equivalente b Base da seção transversal 3 D Distância mínima Ec Módulo de elasticidade do compósito Ef Módulo de elasticidade da fibra Em Módulo de elasticidade da matriz f Função de densidade de probabilidade fx Função de densidade de probabilidade conjunta Fxi (x∗ i ) Função de distribuição acumulada variável não normal fxi (x∗ i ) Função de densidade de probabilidade variável não normal FYn Função de distribuição acumulada da distribuição de Gumbel fYn Função de densidade de probabilidade de Gumbel g Superfície de Falha h Altura da seção transversal L Comprimento Madm Momento admissível Mmax Momento Máximo N Números de simulações n Número de termos da variável aleatória pf Probabilidade de falha q Carregamento R Variável aleatória qualquer S Variável aleatória qualquer Sn Sequência de variáveis aleatórias t Espessura da viga Tipo I ui Vetor de variável aleatória Vmax Força cortante máxima 4 x′∗ Ponto de projeto X Variável aleatória X ′ Sistema de coordenadas transformadas ou reduzidas X ′ i Variável aleatória normal com média zero e desvio padrão unitário Z Função de performance I Momento de inércia da seção transversal k Curvatura máxima suportada pelo material 5 Sumário 1 INTRODUÇÃO 8 2 OBJETIVO 9 3 REVISÃO BIBLIOGRÁFICA 10 4 MODELAGEM DO PROBLEMA 12 4.1 FUNÇÃO DE PERFORMANCE . . . . . . . . . . . . . . . . . . . . . . . 12 4.2 MATERIAL COMPÓSITO . . . . . . . . . . . . . . . . . . . . . . . . . . 13 4.3 FUNÇÃO DE PERFORMANCE DO MATERIAL COMPÓSITO . . . . . 17 4.4 FUNÇÃO DE PERFORMANCE DA VIGA COM SEÇÃO TRANSVER- SAL EM I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 5 DISTRIBUIÇÕES 21 5.1 DISTRIBUIÇÃO NORMAL . . . . . . . . . . . . . . . . . . . . . . . . . . 21 5.2 DISTRIBUIÇÃO DE WEIBULL . . . . . . . . . . . . . . . . . . . . . . . 22 5.3 DISTRIBUIÇÃO EXTREMO TIPO I . . . . . . . . . . . . . . . . . . . . . 23 6 MÉTODO DE OTIMIZAÇÃO 24 6.1 FORM - FIRST ORDER RELIABILITY METHOD . . . . . . . . . . . . . 24 6.2 NORMAL EQUIVALENTE . . . . . . . . . . . . . . . . . . . . . . . . . . 31 6.3 TRANSFORMAÇÃO DE DOISPARAMETROS NORMAL EQUIVALENTE 31 7 MÉTODO DE SIMULAÇÃO 33 7.1 LEI DOS GRANDES NÚMEROS . . . . . . . . . . . . . . . . . . . . . . 33 7.1.1 DEFINIÇÃO: LEI DOS GRANDES NÚMEROS . . . . . . . . . . 33 7.2 TEOREMA DO LIMITE CENTRAL . . . . . . . . . . . . . . . . . . . . . 33 7.2.1 DEFINIÇÃO: TEOREMA DO LIMITE CENTRAL . . . . . . . . . 34 7.3 PROCESSO DE MONTE CARLO . . . . . . . . . . . . . . . . . . . . . 34 8 RESULTADOS 36 8.1 PROBLEMA PROPOSTO . . . . . . . . . . . . . . . . . . . . . . . . . . 36 8.1.1 FUNÇÃO DE DENSIDADE DE PROBABILIDADE DA FUNÇÃO DE PERFORMANCE . . . . . . . . . . . . . . . . . . . . . . . . 37 8.1.2 RESOLUÇÃO FORM . . . . . . . . . . . . . . . . . . . . . . . . 37 8.1.3 RESOLUÇÃO MONTE CARLO . . . . . . . . . . . . . . . . . . . 38 9 CONCLUSÕES 39 9.1 SUGESTÕES DE FUTUROS TRABALHOS . . . . . . . . . . . . . . . . 40 6 REFERÊNCIAS 41 ANEXO 43 7 1 INTRODUÇÃO Dentro das engenharias, principalmente no âmbito da engenharia civil, da en- genharia mecânica, e da engenharia aeroespacial, utilizam-se técnicas de análise de confiabilidade das estruturas. O objetivo do uso de tais técnicas é projetar estruturas mais seguras e econômicas (ALMEIDA, 2008) levando em consideração as incertezas presentes em qualquer projeto de engenharia para quantificar a confiabilidade da es- trutura, definida como a probabilidade de não ocorrer uma falha da mesma (SCIUVA; LOMARIO, 2003). Algumas técnicas de análise de confiabilidade de estruturas possuem formu- lação baseada em um problema de otimização, como os métodos FORM (First Order Reliability Method) e GRG (Generalized Reduced Gradient) (SILVA, 2019). Outras téc- nicas possuem formulação baseada em simulações aleatórias de valores para cada variável randômica, como o método de simulação de Monte Carlo (ALMEIDA, 2008). Na engenharia aeroespacial, tem se projetado mais frequentemente estruturas aeronáuticas à base de materiais compósitos. Segundo Daniel e Ishai (2006), esses materiais consistem em duas ou mais fases numa escala macroscópica, cujo desem- penho mecânico e cujas propriedades são projetadas para serem superiores às dos materiais constituintes atuando independentemente. Dentre as propriedades de uma estrutura construída commateriais compósitos está a confiabilidade, que deve ser ana- lisada e quantificada para atender aos requisitos de projeto. Na engenharia aeronáutica, uma das estruturas comumente feita de materiais compósitos, e com mais rigorosos requisitos de projeto em relação à confiabilidade, é a asa da aeronave, já que esta concentra a maior parte dos esforços aerodinâmicos responsáveis por manter a aeronave em voo. Os materiais compósitos, como os usados em estruturas aeronáuticas, exi- bem comportamentos diferenciados quando comparados aos materiais convencionais, levando-se à necessidade de estratégias de análise diferenciadas (SILVA, 2017). Assim, o objetivo do presente trabalho de graduação é a utilização de ferramen- tas computacionais para comparação de técnicas de análise de confiabilidade aplica- das no contexto das estruturas aeronáuticas à base de materiais compósitos. 8 2 OBJETIVO A importância do comparativo das formulações de análise de confiabilidade de estruturas foi ressaltada por Silva (2017), em que sugeriu uma abordagem de mais métodos para se identificar diferentes padrões de comportamento, garantindo a me- lhor tomada de decisão de projeto. O objetivo do presente trabalho é realizar esse comparativo no contexto de estruturas aeroespaciais à base de materiais compósitos (principalmente da asa de uma aeronave). Inicialmente, será feita uma revisão bibliográfica dos principais tópicos de con- fiabilidade estrutural e de distribuições de probabilidade, além de uma revisão sobre materiais compósitos aplicados nas estruturas aeronáuticas. Logo após, serão utilizados métodos analíticos para avaliação das estruturas aeronáuticas à base de materiais compósitos, com o objetivo de determinar as va- riáveis de importância para a consequente análise de confiabilidade. Dentre essas variáveis, estão incluídas a geometria da estrutura, as propriedades dos materiais que compõem o material compósito, a geometria interna do material compósito e as possí- veis forças e momentos externos atuantes sobre a estrutura. Essa avaliação será feita com o auxílio de algoritmos computacionais escritos na linguagem de programação Python. Em seguida, será feita a análise de confiabilidade estrutural (também com o auxílio de algoritmos computacionais) da estrutura aeronáutica à base de materiais compósitos modelada. Nesse momento, serão comparadas as capacidades de previ- são de falhas dos métodos de otimização e de simulação de Monte Carlo. Serão levantadas regiões de convergências das formulações, além de compa- rativos de custo computacional entre os métodos, a fim de se obter um cenário para a correta tomada de decisão de projeto de estruturas aeronáuticas à base de materiais compósitos. 9 3 REVISÃO BIBLIOGRÁFICA Foi realizada uma revisão de bibliografia sobre os temas abordados neste tra- balho de graduação. Os trabalhos lidos incluem revisões gerais das propriedades de estruturas de materiais compósitos e dos métodos de análise de confiabilidade, assim como suas aplicações em problemas de engenharia. No quarto capítulo de seu trabalho, Almeida (2008) apresenta as vantagens e desvantagens dos métodos de análise de confiabilidade em estruturas, comparando o método de simulação de Monte Carlo (MC) com o método de confiabilidade de 1ª or- dem (FORM). Segundo essa comparação, ométodo deMC de cálculo de probabilidade é de amplo uso por engenheiros pela sua facilidade de compreensão e implementa- ção computacional, mas não é recomendável em problemas de otimização conside- rando incertezas pois o tempo necessário para a obtenção da probabilidade via MC demanda inúmeras análises da função de comportamento, inviabilizando o processo. Por outro lado, o método FORM transforma as variáveis aleatórias em variáveis nor- mais padrões reduzidas e independentes, e delas, é definido o ponto de projeto que representa a maior probabilidade de falha. Para definir o índice de confiabilidade, é aplicada a função de comportamento, que define se haverá falha ou não, no ponto das médias das variáveis, e em seguida, no ponto de maior probabilidade de falha. A distância entre esses dois pontos (no espaço da função de comportamento) é o índice de confiabilidade. Essa comparação é feita também por Sciuva & Lomario (2003) para calcular a confiabilidade de estruturas compósitas. Nesse trabalho, a confiabilidade é definida pela integração da função de densidade de probabilidade (φ) de cada variável alea- tória (x̄i) sobre a região onde a função de comportamento (g, também chamada de função de desempenho) é positiva. O método de Monte Carlo (MC) é uma opção para aproximar uma solução desta integral, que, calculando g(x̄i) para um grande número de combinações de valores de cada x̄i, encontra a razão entre o número de combi- nações com g(x̄i) > 0 e o número total de combinações. Esse método apresenta facilidade de implementação, mas como sua acurácia depende principalmente do nú- mero de combinações, o consumo de tempo de implementação há de ser levado em consideração. Outra opção é o método FORM, que é representado geometricamente como um problema de procedimentos de busca pela menor distância num sistema de coordenadas cartesianas multidimensional. Esse sistema é composto pelas variáveis estocásticas x̄i, assumindo que são descritas por uma função de densidade de pro- babilidade normal e que não são correlacionadas a nenhuma outra variável. Essas variáveis estocásticas são transformadas em distribuições normais padronizadas (ūi), e um novo sistema de coordenadas é descrito, onde a origem é definida como o ponto onde todas as variáveis estocásticas assumem seu valor médio (x̄i = µi). O índice 10 de confiabilidade é definido como a razão entre amédia e o desvio padrão da função de comportamento no ponto sobre uma superfície chamada “função de estado limite” (em que g(x) = 0) de menor distância até a origem do sistema de coordenadas das variáveis transformadas (este ponto sobre a função de estado limite é o “ponto mais provável de falha”). Silva (2019) compara o método de Monte Carlo com outro método de otimiza- ção (que não é o método FORM), o método GRG (Generalized Reduced Gradient). Este estudo afirma que no caso do método GRG, o índice de confiabilidade é definido como a distância entre o projeto atual e a origem do sistema no espaço das variáveis aleatórias reduzidas, com margem de segurança nula. É apresentada a possibilidade de o método fornecer uma informação errônea de que um projeto é seguro, mas que na verdade não é. Essa possibilidade surge quando o equilíbrio entre a carga externa e a resistência é atingido minorando a força e majorando a resistência. Como o mé- todo eleva ao quadrado as variáveis reduzidas, a informação do sinal de cada variável é perdida, levando a índices de confiabilidade que não refletem a segurança real do projeto. Esse procedimento não é realizado com o método de Monte Carlo, evitando o fornecimento de informações errôneas a respeito da confiabilidade do projeto. Daniel e Ishai (2006) apresentam as características, aplicações, vantagens, li- mitações, configurações e comportamentos dos materiais compósitos usados na en- genharia, destacando a importância das aplicações aeronáuticas e aeroespaciais para o desenvolvimento da ciência dos materiais compósitos, e comparando o desempenho destes materiais com materiais monofásicos, principalmente em relação à garantia de qualidade, durabilidade e confiabilidade dos materiais. Silva (2017) apresenta métodos de estimativa de valores de coeficientes de mi- noração de carga e/ou calibração de coeficientes de segurança de estruturas à base de materiais compósitos (como tubos confeccionados com uso de Polímeros Refor- çados por Fibras) cujas incertezas resultam em imprevisibilidade de comportamento e leva a projetos com subutilização da capacidade de carga. Os métodos utilizados ava- liam a sensibilidade dos parâmetros que definem a configuração dos tubos por análise de confiabilidade estrutural quando submetidos a pressões hidrostáticas. A análise de confiabilidade estrutural é feita usando o método de simulações de Monte Carlo, e foi utilizada a ferramenta Matlab com seus recursos de paralelismo, que possibilitam a execução de um número maior de simulações em um tempomenor de processamento. 11 4 MODELAGEM DO PROBLEMA 4.1 FUNÇÃO DE PERFORMANCE Iniciaremos o problema de cálculo de confiabilidade com um exemplo demodelo simples de uma longarina de asa genérica como uma viga engastada na fuselagem do avião. A princípio, será construída uma função de performance do modelo, na qual poderemos aplicar os métodos de otimização e de simulação aleatória desenvolvidos posteriormente para a análise da sua confiabilidade estrutural. A estrutura da longarina é representada por uma viga engastada, e segue de- talhada abaixo: Figura 1: Longarina da Asa Fonte: Elaborado pelos Autores A força cortante máxima atuante na estrutura acima e o momento fletor máximo, podem ser encontrados pelas seguintes relações, respectivamente [1] : Vmax = qL (1) Mmax = −qL2 2 (2) Através dos esforços máximos que atuam na estrutura, podemos desenvolver funções de performance para a quantificação da confiabilidade estrutural. Essa função de performance depende dos esforços máximos agindo na estru- tura (Mmax) e da resistência dos materiais que a constituem (Madm): Z = Madm −Mmax (3) 12 4.2 MATERIAL COMPÓSITO Um Compósito Estrutural é um material constituído por duas ou mais fases em escala macroscópica, cuja propriedade mecânica é superior aos dos constituintes atu- ando separadamente [2] Figura 2: Fases do material compósito Fonte: Traduzido de [2] O material geralmente é composto por uma fase matriz, contínua e com uma baixa rigidez, e de uma fase dispersa, constituída de material com alta rigidez, com altas propriedades mecânicas e podendo ser contínuas ou descontínuas Figura (2). Às vezes, por interações químicas ou outros efeitos de processamento, existe uma fase distinta adicional, chamada interfase, entre o reforço e a matriz. As propriedades finais do material compósito dependem da combinação das propriedades individuais, da geometria, e da distribuição das fases constituintes. A geometria e a orientação do reforço afetam a anisotropia do sistema, e a sua distribuição determina a uniformidade e a homogeneidade do material. Uma grande variedade de fibras e matrizes estão disponíveis como reforço para compósitos, sendo que as mais utilizadas são as fibras de carbono, vidro, aramida e matrizes poliméricas e metálicas. A seguir a tabela (1) apresenta algumas vantagens e desvantagens de diversas fibras. 13 Tabela 1: Vantagens e desvantagens dos tipos de Matrizes e Fibras Fibras Vantagens Desvantagens E-glass, S- glass Alta resistência Baixo custo Baixa rigidez Curta vida em fadiga Sensível a alta temperatura Aramida (Kevlar) Alta resistência à tração Densidade baixa Baixa resistência a compressão Alta absorção de umidade Boro Alta rigidez Alta resistência a compressão Custo elevado Carbono (AS4,T300,IM7) Alta resistência Alta rigidez Custo moderadamente elevado Grafite (GY-70, Pitch) Alta Rigidez Baixa resistência Custo elevado Cerâmica (carboneto de silício, alumina) Alta Rigidez Uso em alta temperatura Baixa resistência Custo elevado Fonte: Traduzido de [2] As aplicações de compósitos são abundantes e continuam a se expandir. Suas características de alta rigidez, alta resistência e baixa densidade torna-os altamente desejáveis em estruturas primárias e secundárias de aeronaves militares e civis, além de outras estruturas aeroespaciais [2]. A introdução dos materiais compósitos de alto desempenho a partir da década de 60, chegou de maneira definitiva na indústria aeroespacial. O desenvolvimento de fibras de carbono, boro, quartzo ofereceram ao projetista a oportunidade de flexibili- zar os projetos estruturais, atendendo as necessidades de desempenho em voo de aeronaves e veículos de reentrada [3]. A seguir alguns exemplos de projetos do setor aeroespacial desenvolvidos utilizando- se materiais compósitos: 14 Figura 3: Representação da garganta de foguete produzida pelo CTA mostrando o uso de compósitos carbono/carbono e carbono/fenólica Fonte: Adaptado de [3] Figura 4: Bombardeiro Northrop Grumman B-2 Spirit feito praticamente em sua totali- dade de materiais compósitos (em especial materiais de matriz de epóxi com fibra de carbono) Fonte: US Air Force 15 Figura 5: Vista explodida da aeronave EMB-170, mostrando fabricados em compósitos Fonte: Adaptado de [4] 16 4.3 FUNÇÃO DE PERFORMANCE DO MATERIAL COMPÓSITO Uma função de performance possível do modelo descrito na seção (4.1) é de- senvolvida em função dos momentos: Z(Madm,Mmax) = Madm −Mmax (4) Se o material considerado no modelo for um material compósito, suas proprie- dades mecânicas serão alteradas em relação a um material formado por apenas um constituinte, e como consequência, também será alterado o momento atuante supor- tado pelo material, Madm. Para calcular omomento fletor suportado pelomaterial compósito, deve-se iden- tificar de quais materiais é feito o material compósito, qual a distribuição desses mate- riais na parte interior da viga, qual a geometria dessa viga, e quais são as propriedades mecânicas desses materiais. Supondo que o material compósito contenha fibras distribuídas homogenea- mente na matriz, e que o material seja isotrópico, é possível considerar o módulo de elasticidade desse compósito, Ec, como a média ponderada dos módulos de elastici- dade da fibra e da matriz (Ef , Em), pelas proporções de fibra e de matriz presentes no material (ρf , ρm), de forma que: Ec = ρfEf+ ρmEm (5) Assim, calcula-se o momento fletor suportado pela equação: Madm = kEcI (6) Onde k se refere à curvatura máxima suportada pelo material e I se refere ao momento de inércia da seção transversal. A curvatura máxima suportada pelo material é proporcional à deformação má- xima suportada pelo material, que no caso de um material compósito, é o mínimo das deformações suportadas pelos materiais (normalmente, a deformação suportada pela fibra é menor que a deformação suportada pela matriz): εd = min εf εm = k h 2 (7) k = 2εd h (8) Para encontrar os valores das deformações máximas suportadas pela fibra e pela matriz, é utilizada a Lei de Hooke: 17 σd = Eεd (9) Considerando σfr o valor da tensão de resistência da fibra e σmr o valor da tensão de resistência da matriz: εf = σfr Ef (10) εm = σmr Em (11) O momento de inércia da seção transversal depende de sua geometria. Para uma seção transversal retangular, com base b e altura h, o momento de inércia é dado por: I = bh3 12 (12) Portanto, é possível calcular o momento fletor suportado numa viga em balanço à base de material compósito com seção transversal retangular substituindo as equa- ções (8), (9), (10), (11), e (12) na equação (6), resultando em: Madm = ( 2 h )min σfr Ef σmr Em (ρfEf + ρmEm) ( bh3 12 ) (13) Essa equação pode ser simplificada para: Madm = min σfr Ef σmr Em (ρfEf + ρmEm) ( bh2 6 ) (14) 18 4.4 FUNÇÃO DE PERFORMANCE DA VIGA COM SEÇÃO TRANS- VERSAL EM I Caso a seção transversal da viga em balanço tenha uma geometria em ”I”, a sua função de performance sofre alteração no termo do momento de inércia. É possível supor que a seção transversal da viga tenha as dimensões exempli- ficadas na figura abaixo: Figura 6: Longarina da Asa com seção trasversal tipo I Fonte: Elaborado pelos Autores Para esse exemplo, omomento de inércia da viga é calculado da seguinte forma: I = th3 12 + 2 ( bt3 12 + bt ( t 2 + h 2 )2 ) (15) Com essa alteração na seção transversal da viga, o valor do momento fletor suportado na viga em balanço à base de material compósito passa a ser: Madm = ( 2 h+ 2t )min σfr Ef σmr Em (ρfEf + ρmEm) ( th3 12 + 2 ( bt3 12 + bt ( t 2 + h 2 )2 )) (16) Em conclusão, a função de performance é calculada da seguinte maneira: Z(Madm,Mmax) = Madm −Mmax (17) Madm = ( 2 h+ 2t )min σfr Ef σmr Em (ρfEf + ρmEm) ( t 12 [h3 + 2b(4t2 + 3h2)] ) (18) 19 Mmax = −qL2 2 (19) Substituindo as equações (18) e (19) na equação (17), obtemos a função de performance da viga com seção transversal do tipo I e feita com material compósito em função de Madm e Mmax: Z(Madm,Mmax) = ( 2 h+ 2t )min σfr Ef σmr Em (ρfEf + ρmEm) ( t 12 [h3 + 2b(4t2 + 3h2)] ) − ∣∣∣∣−qL2 2 ∣∣∣∣ (20) 20 5 DISTRIBUIÇÕES 5.1 DISTRIBUIÇÃO NORMAL A distribuição normal é fundamental no estudo de probabilidades e inferência estatística. Suas origens remontam a Gauss e seus trabalhos sobre erros de observa- ções astronômicas, por volta de 1810, donde origina o nome de distribuição gaussiana para tal modelo [5]. A grande utilidade dessa distribuição (função densidade de probabilidade) está associada ao fato de que aproxima de forma bastante satisfatória as curvas de frequên- cias de medidas físicas. Essa curva é conhecida como distribuição normal ou gaussi- ana [6]. A construção da distribuição normal depende de dois parâmetros, média µ e variância σ2. Dizemos que a variável aleatória X tem distribuição normal com parâmetros µ e σ2, −∞ < µ < +∞ e 0 < σ2 < ∞, se sua densidade é dada por [5] : f(x, µ, σ2) = 1 σ √ 2π e −(x−µ)2 2σ2 ,−∞ < x < ∞ (21) A figura 3 ilustra uma curva normal para média µ = 20 e desvio padrão σ = 2. Figura 7: Distribuição normal Fonte: Elaborado pelos Autores 21 5.2 DISTRIBUIÇÃO DE WEIBULL A distribuição Weibull é nomeada dessa forma em decorrência do seu criador, o físico sueco Waloddi Weibull, que em 1939 a usou para modelar a distribuição da resistência à ruptura de materiais. A distribuição Weibull é uma das mais conhecidas distribuições. Descreve ade- quadamente o resultado observado para falhas de muitos tipos diferentes de compo- nentes e fenômenos [7]. A construção da distribuição Weibull depende de dois parâmetros, escala α e de forma β. Dizemos que a variável aleatória X tem distribuição Weibull com parâmetros α e β, se sua densidade é dada por [8]: f(α, β) = αβ−αxα−1e−(x/β)α se x>0 0 caso contrário (22) A figura (4) ilustra uma curva de distribuição Weibull para α = 5 e β = 1. Figura 8: Distribuição Weibull Fonte: Elaborado pelos Autores 22 5.3 DISTRIBUIÇÃO EXTREMO TIPO I Distribuições de valores extremos são usadas comumente para representar o máximo ou mínimo de um número de amostras de várias distribuições. A distribuição extremo tipo I, também chamada de distribuição Gumbel, é nor- malmente utilizada para modelar cargas ambientais, como ventos e inundações. Outro caso de utilização dessa distribuição é na modelagem de rajadas de ventos no projeto de aeronaves [9]. A Função de distribuição acumulada (CDF) da distribuição Gumbel, pode ser expressa como: FYn = exp[−e−αn(yn−µn)] (23) onde µn é o maior valor característico da variável inicial X, e αn é a inverso medida de dispersão do maior valor de X. A função de densidade de probabilidade (PDF) da distribuição é dada por: fYn(yn) = αne −αn(yn−µn)exp[−e−αn(yn−µn)],−∞ < yn < +∞ (24) Os parâmetros µn e αn se relacionam com amédia e o desvio padrão do extremo da variável de valor Yn, na seguinte forma: αn = 1√ 6 ( π σYn ), e µn = µYn − 0, 5772 αn (25) A figura (5) ilustra uma curva de distribuição Extremo tipo I para µ = 50 e σ = 5. Figura 9: Extremo tipo I Fonte: Elaborado pelos Autores 23 6 MÉTODO DE OTIMIZAÇÃO 6.1 FORM - FIRST ORDER RELIABILITY METHOD A primeira etapa na avaliação da confiabilidade ou probabilidade de falha de uma estrutura é decidir sobre critérios de desempenho específicos e os parâmetros de carga e resistência relevantes, chamadas de variáveis aleatórias básicas Xi, além de ser necessário a construção das relações funcionais entre essas variáveis de acordo com cada critério de desempenho. Essa relação é chamada de função de performance ou de desempenho e pode ser definida matematicamente da seguinte forma [9]: Z = g(X1, X2, ...Xn) (26) A modelagem da função de performance segue o exemplo detalhado na seção (5). A superfície de falha ou o estado limite de interesse pode então ser definido como Z = 0. Isso é, o limite entre as regiões seguras e inseguras no espaço de parâ- metros do projeto, é também uma representação de um estado no qual a estrutura não pode mais cumprir a função para qual foi projetado. Supondo que R e S sejam as duas variáveis aleatórias básicas, a superfície de falha e as regiões seguras e inseguras são mostradas na figura (10): Figura 10: Estado limite Fonte: Traduzido de [9] O estado limite representa um papel importante no desenvolvimento dos mé- todos de análise em confiabilidade estrutural. Um estado limite pode ser uma função 24 explícita ou implícita das variáveis aleatórias básicas. A partir da equação (26), temos que a falha é definida quando Z = 0, pode- mos então encontrar a probabilidade de ocorrência dessa falha como sendo a integral definida: pf = ∫ ... ∫ g()<0 fX(x1, x2..., xn)dX1dX2dXn (27) Em que fX(x1, x2..., xn) é a função de densidade de probabilidade conjunta para as váriáveis aleátorias básicas X1, X2..., Xn e a integração é realizada sobre a região de falha, ou seja, g() < 0. Se as variáveis aleatórias forem estatisticamente independentes, então a pro- babilidade conjunta da função de densidade pode ser substituída pelo produto das funções de densidade de probabilidade individuais na integral. O cálculo de pf é chamado de abordagem de distribuição completa e pode ser considerado como sendo a equação fundamental da análise de confiabilidade. Em geral, a funçãode densidade de probabilidade conjunta das variáveis aleatórias é pra- ticamente impossível de obter. Ainda se disponível, a avaliação da integral múltipla é difícil. Portanto, uma abordagem inteligente é a utilização de aproximações analíticas desta integral que são mais simples de compreender. O estado limite de interesse pode ser funções lineares ou não lineares das va- riáveis básicas. O FORM (First order reliability method), ou ainda, método de confiabilidade de primeira ordem - nome vem do fato de que a função de performance Z é aproximada pela expansão de Taylor de primeira ordem - pode ser usado para avaliar a Equação 15 quando a função de estado limite é uma função linear de variáveis normais não correlacionadas ou quando a função de estado limite é não linear, mas é representada por aproximações de primeira ordem (linear) com variáveis normais equivalentes. A resolução do problema de confiabilidade através do método FORM, inicia-se com a definição das variáveis no espaço reduzido: X ′ i = Xi − µxi σxi (i = 1, 2, ..., n) (28) ondeX ′ i é uma variável aleatória de distribuição normal commédia zero e desvio padrão unitário. O estado limite original g(X) = 0 é então transformado no estado limite redu- zido, g(X ′) = 0, o sistema de coordenadas X é definido como sendo o sistema de coordenadas original e o sistema de coordenadas X ′ como sistema de coordenadas transformadas ou reduzidas. O índice de segurança βHL, ou índice de Hasofer-Lind [9], é definido como sendo a distância mínima da origem dos eixos no sistema de coordenada reduzida para a 25 superfície de estado limite (superfície de falha), podendo ser expresso como: βHL = √ (x′∗)t(x′∗) (29) O ponto de distância mínima na superfície do estado limite é chamado de ponto de projeto ou ponto de verificação. É denotado pelo vetor x∗ no sistema de coorde- nadas original e pelo vetor x′∗ no sistema de coordenadas reduzido. Esses vetores representam os valores de todos as variáveis aleatórias, ou seja, X1, X2, ..., Xn, no ponto de projeto correspondente ao sistema de coordenadas sendo utilizado. Considerando uma função de performance com duas variáveis, Z = R− S = 0 (30) A princípio as variáveis aleatórias R e S não precisam ter distribuição normal, podemos definir as variáveis reduzidas como sendo: R′ = R− µR σR (31) e S ′ = S − µS σS (32) A transformação de estados das variáveis aleatórias é detalhada na figura (11): 26 Figura 11: Função de Performance Linear Fonte: Traduzido de [9] Substituindo essas informações na equação (30), a equação de estado limite no sistema de coordenadas reduzidas torna-se: g() = σRR ′ − σSS ′ + µR − µS = 0 (33) As regiões seguras e de falha também são mostradas na figura (10). Através da figura 11.b, pode-se perceber que quando a linha de falha (linha de estado limite) estiver mais próxima da origem no sistema de coordenadas reduzido, a região de falha é maior, e se estiver mais longe da origem, a região de falha é menor. Assim, a posição da superfície de estado limite em relação à origem do sistema de coordenadas reduzido é uma medida da confiabilidade do sistema. As coordenadas dos interceptos da equação (33), em R′ e S’, são [ − (µR−µS) σR , 0 ] e [ 0, (µR−µS) σS ] respectivamente. Utilizando geometria analítica, pode-se calcular a dis- tância da linha de estado limite com relação à origem do sistema de coordenadas reduzidos: βHL = µR − µS√ σ2 R + σ2 R (34) 27 Esta distância é conhecida como índice de confiabilidade ou índice de segu- rança. Nesta definição de βHL o índice de confiabilidade é invariável, pois independen- temente da forma em que a equação de estado limite é escrita, sua forma geométrica e a distância da origem permanecem constante. Para a superfície de estado limite onde a região de falha está longe da origem. Em geral, para um conjunto de variáveis aleatórias representadas pelo vetor X = (x1, x2, ..., xn) no sistema coordenado original e X ′ = (X ′ 1, X ′ 2, ..., X ′ n) no sistema de coordenadas reduzida, o estado limite g(X ′) = 0 é uma função não linear, conforme mostrado na figura (12) para duas variáveis. As variáveis X ′ i ’s são consideradas não correlacionadas. g(X ′) > 0 denota a região segura e g(X ′) < 0 a região onde ocorre a falha. Figura 12: Hasofer-Lind Reliability Index (FORM): Nonlinear Performance Function Fonte: Traduzido de [9] Através da figura (12), temos que x′∗ (Ponto de projeto), é o ponto de falha mais provável. O índice de confiabilidade de Hasofer-Lind (FORM) pode ser utilizado para cal- cular uma aproximação de primeira ordem da probabilidade de falha, sendo definido como pf = Φ(−βHL). Esta é a integral da função de densidade da distribuição normal padrão ao longo do raio que une a origem ao x′∗. Quanto mais próximo x′∗ estiver da origem, maior será a probabilidade de falha. Com isso, temos que o ponto com distância mínima da superfície do estado limite também é o ponto de falha mais provável. 28 O ponto de distância mínima da origem para a superfície do estado limite, x′∗ pode também ser interpretado como sendo a pior combinação estocástica das variá- veis aleatórias e é denominado como sendo o ponto de design/projeto ou o ponto mais provável (MPP) de falha. Para estados limites não lineares, o cálculo da distância mínima torna-se um problema de otimização, onde buscamos minimizar: D = √ (x′)t(x′) (35) Sujeito à restrição: g(x) = g(x′) = 0 (36) onde x′ representa as coordenadas do ponto de verificação na equação de es- tado limite em coordenadas reduzidas, que precisam ser estimadas. Usando multipli- cadores de Lagrange, pode-se obter a distância mínima como sendo: βHL = − ∑n i=1 x ′∗ i ( ∂g ∂X′ i )∗ √∑n i=1 ( ∂g ∂X′ i )2∗ (37) onde ( ∂g ∂X′ i ) é a i-ésima derivada parcial avaliada no ponto de projeto com coor- denadas (x′ 1, x ′ 2, ..., x ′ n). O ponto do projeto nas coordenadas reduzidas é dado por: x′∗ i = −αiβHL (i = 1, 2, ..., n) (38) onde: αi = ( ∂g ∂X′ i )∗ √∑n i=1 ( ∂g ∂X′ i )2∗ (39) são os cossenos diretores ao longo dos eixos de coordenadasX ′ i. No espaço de coordenadas original e usando a Equação (28), podemos encontrar o ponto de projeto: x∗ i = µXi − αiσXi βHL (40) Rackwitz (1976) [9], formulou um algoritmo para o cálculo de βHL e x′∗ i o passo a passo do algoritmo é descrito a seguir: 29 1. Definir a função de Performance apropriada. 2. Assuma os valores iniciais do ponto de projeto x′∗ i (i = 1, 2, ..., n) . Tipicamente, podemos assumir o ponto de partida do projeto como sendo as médias das variáveis aleatórias. Logo após, obtenha as variáveis reduzidas x′∗ i = (x∗ i − µXi /σXi ). 3. Avalie (∂g/∂X ′)∗ e αi em x′∗ i . 4. Obtenha o novo ponto de projeto x′∗ i em termos de βHL utilizando a equação (38). 5. Substitua o novo ponto de projeto x′∗ i na equação de estado limite g(x′∗) = 0 e resolva para βHL. 6. Usando o valor de βHL obtido no passo 5, reavalie x′∗ i = −αiβHL. 7. Repita as etapas de 3 à 6 até a convergência de βHL. Figura 13: Fluxograma detalhando método de Rackwitz Fonte: Elaborado peloes Autores 30 6.2 NORMAL EQUIVALENTE Quando nem todas as variáveis aleatórias do problema seguem uma distribui- ção de probabilidade normal, como é comum em problemas de engenharia, é neces- sário transformar as variáveis não normais em variáveis normais equivalentes para a utilização do método FORM. A transformação Rosenblatt (Rosenblatt,1952) pode ser usado para obter um conjunto de variáveis normais padrão estatisticamente independentes, se a Função de distribuição acumulada (CDF) conjunta de todas as variáveis aleatórias estiver disponí- vel. Estatisticamente variáveis não normais independentes podem ser transformadas em variáveis normais equivalentes. Uma variável aleatória normal pode ser descrita exclusivamente por dois parâ- metros (média e desvio padrão), o método desenvolvido por Rackwitz-Fiessler (two- parameter equivalent normal), pode ser utilizado para a obtençãodesses parâmetros a partir de uma variável não normal [9]. 6.3 TRANSFORMAÇÃO DE DOIS PARAMETROS NORMAL EQUI- VALENTE Rackwitz e Fiessler (1976) estimaram os parâmetros da distribuição normal equivalente, µN Xi e σN Xi , impondo duas condições. As funções de distribuição acumu- lada e as funções de densidade de probabilidade das variáveis reais e das variáveis normais equivalentes devem ser iguais no ponto de verificação (x∗ 1, x ∗ 2, ..., x ∗ n) na super- fície de falha. Considerando individualmente cada variável não normal e estatisticamente in- dependente, podemos igualar sua CDF com a de uma variável normal equivalente no ponto de verificação, resultando na seguinte equação [9]: Φ ( x∗ i − µN Xi σN Xi ) = Fxi (x∗ i ) (41) em que Φ é a CDF da variável normal padrão, µN Xi e σN Xi são a média e o desvio padrão da variável normal equivalente no ponto de verificação e Fxi (x∗ i ) é a CDF da variável original não normal. Da equação (41), temos: µN Xi = x∗ i − Φ−1[Fxi (x∗ i )]σ N Xi (42) Igualando as funções de densidade de probabilidade (PDF’s) da variável original com a da variável normal equivalente no ponto de verificação: 1 σN Xi φ ( x∗ i − µN Xi σN Xi ) = fxi (x∗ i ) (43) 31 em que φ e fxi (x∗ i ) são respectivamente as PDFs da variável normal padrão e da variável aleatória não normal. Da equação (43), temos: σN Xi = φ {Φ−1[Fxi (x∗ i )} fxi (x∗ i ) (44) Assim, tendo determinado µN Xi e σN Xi e procedendo de forma semelhante em todos os casos que as variáveis aleatórias não seguem uma distribuição normal, po- demos executar o método FORM para o cálculo da probabilidade de falha da função de performance do problema. 32 7 MÉTODO DE SIMULAÇÃO 7.1 LEI DOS GRANDES NÚMEROS O problema de obter empiricamente valores numéricos de probabilidades é um dos interesses da estatística. Inúmeras técnicas foram desenvolvidas para que fos- sem obtidas estimativas da probabilidade de eventos. As leis dos grandes números fornecem a fundamentação teórica para a maioria dessas técnicas. Em um certo espaço de probabilidade, considere um experimento em que o evento A tem probabilidadeP (A) = p. A intuição, frequentemente aceita, indica que em um grande número de repetições do experimento, a frequência relativa de ocorrência de A se aproxima de p, isto é nA n ≈ p, em que nA é a frequência de A e n o total de repetições. Essa concepção intuitiva, importante para o método científico, foi tomada como definição de probabilidade por muitos anos. De fato, essa definição pode ser considerada imprecisa, se o sentido do limite não é explicitado. A formalização axiomática de Kolmogorov em 1934, permitiu colocar em bases matemáticas sólidas vários dos conceitos intuitivamente aceitos. Para experimentos aleatórios, a noção intuitiva de probabilidade, como frequência relativa para muitas repetições, torna-se um resultado matemático rigoroso, através da aplicação de um caso especial da Lei dos Grandes Números [10]. 7.1.1 DEFINIÇÃO: LEI DOS GRANDES NÚMEROS Sejam X1, X2, ... variáveis aleatórias com esperanças finitas e seja Sn = X1 + X2 + ...Xn. A sequência {Xn : n ≥ 1} satisfaz a Lei Fraca dos Grandes Números se: Sn n − E( Sn n ) p→ 0; (45) e A Lei Forte dos Grandes Números se: Sn n − E( Sn n ) qc→ 0. (46) 7.2 TEOREMA DO LIMITE CENTRAL O teorema do limite central é um teorema fundamental de probabilidade e es- tatísticas. O teorema descreve a distribuição da média de uma amostra aleatória de uma população com variância finita. Quando o tamanho amostral é suficientemente grande, a distribuição da média é uma distribuição aproximadamente normal. O te- orema aplica-se independentemente da forma da distribuição da população. Muitos 33 procedimentos estatísticos comuns requerem que os dados sejam aproximadamente normais [11]. 7.2.1 DEFINIÇÃO: TEOREMA DO LIMITE CENTRAL Sejam {Xn : n ≥ 1} variáveis aleatórias independentes, identicamente dis- tribuídas e com esperança µ e variância σ2, com 0 < σ2 < ∞. Então, para Sn = X1 +X2 + ...Xn, temos: Sn − nµ σ √ n d→ N(0, 1). (47) 7.3 PROCESSO DE MONTE CARLO O nomeMonte Carlo foi aplicado a uma classe de métodos matemáticos usados pela primeira vez por cientistas que trabalham no desenvolvimento de armas nucleares em Los Alamos na década de 40. A essência do método é a invenção de jogos de azar cujo comportamento e resultado podem ser usados para estudar alguns fenômenos interessantes [12]. O processo de Monte Carlo envolve a geração de muitos valores aleatórios ou pseudoaleatórios, para computar algumas quantidades não necessariamente aleató- rias, com base na Lei dos Grandes Números e no Teorema do Limite Central, consi- derando as distribuições que melhor representam as variáveis aleatórias de interesse. No caso da análise da confiabilidade de estruturas, isto quer dizer que, para cada variável aleatória do modelo físico estudado, será gerada randomicamente e as- sim será possível formar um vetor ui = {X1, X2, ..., Xn} A função de performance é então avaliada em Z(ui), se ela for violada (i.e. Z(ui)≤0), a estrutura ou o elemento não satisfez às condições mínimas exigidas. Assim o experimento é repetido muitas vezes com a geração de um novo vetor ui = {X1, X2, ..., Xn} em cada iteração. Finalmente, se um número N de experimentos são feitos, a probabilidade de falha é dada aproximadamente por [13]: pf ≈ n(Z(ui)≤0) N (48) onde: n(Z(ui)≤0) é o número de vezes que a função de performance teve va- lores Z(ui) < 0 e N é o número de avaliações da função de performance necessárias para a precisão desejada. O índice de confiabilidade encontrado através do método de Monte Carlo pode ser encontrado através da seguinte relação: 34 βmc = µZ(ui) σZ(ui) (49) 35 8 RESULTADOS 8.1 PROBLEMA PROPOSTO O problema proposto é o mesmo que foi desenvolvido na seção (4.4). Busca- remos encontrar a probabilidade de falha da seguinte função de performance: Z(Madm,Mmax) = ( 2 h+ 2t )min σfr Ef σmr Em (ρfEf + ρmEm) ( t 12 [h3 + 2b(4t2 + 3h2)] ) − ∣∣∣∣−qL2 2 ∣∣∣∣ (50) Para encontrar essa probabilidade de falha, utiliza-se os métodos de Monte Carlo e de otimização (FORM), destacados em seções anteriores. Assim, foram definidas as distribuições das variáveis aleatórias consideradas, e seus coeficientes de variação. Para exemplificar a execução dos métodos, selecionou- se valores médios para as variáveis de forma que seja possível obter o índice de con- fiabilidade e a probabilidade de falha, apenas para fins de comparação. Essa configuração não necessariamente teria (em um projeto real) valores mé- dios idênticos aos utilizados nesse exemplo. O algoritmo de comparação dos métodos de análise de confiabilidade pode ser executado utilizando quaisquer valores médios das variáveis como parâmetros da função de performance. As variáveis aleatórias consideradas no problema, suas respectivas distribui- ções, e os valores médios selecionados como exemplo para executar os métodos de análise, estão representadas a seguir: Tabela 2: Variáveis aleátorias e suas distribuições Variável Aleatória Distribuição Média Coef. Var. Desv. Pad. Unidade h Normal 0,20 5% 0,01 m t Normal 0,02 5% 0,001 m σfr Normal 3516000000 5% 175800000 Pa (N/m^2) Ef Normal 234430000000 5% 11721500000 Pa (N/m^2) Em Normal 3350000000 5% 167500000 Pa (N/m^2) b Normal 0,05 5% 0,0025 m q Extremo Tipo I 100000 5% 5000 N/m L Normal 2 5% 0,100 m Além disso, vamos supor que o material terá o carregamento máximo suportado limitado pela fibra, i.e: min σfr Ef σmr Em ⇒ σfr Ef (51) E sua composição é de ρf = 0.2 e ρm = 0.8 36 8.1.1 FUNÇÃO DE DENSIDADE DE PROBABILIDADE DA FUNÇÃO DE PERFOR- MANCE Fonte: Elaborado pelos Autores 8.1.2 RESOLUÇÃO FORM Antes da resolução do problema proposto pelo método FORM, foi necessário realizar a normalização da distribuição de probabilidade da variável aleatória q, que segue uma distribuição do tipo extremo tipo I. A normalização utilizadafoi descrita pelo método de Rackwitz e Fiessler, visto na seção (6), e implementado utilizando-se a linguagem Python (Anexo). A resposta obtida através do método FORM, convergiu na 3ª iteração para o nível de tolerância estipulado para βHL, conforme podemos ver na tabela a seguir que representa a saída do console após o processo iterativo ser finalizado: Tabela 3: Saída obtida através do método FORM no console Python Iteração βHL 0 0.148065 1 0.148059 2 0.148054 Sendo a probabilidade de falha para esse valor de βHL igual a pf = 44.0% 37 8.1.3 RESOLUÇÃO MONTE CARLO Para a resolução através do método de Monte Carlo foi admitido N = 1000001. As variáveis aleatórias do problema proposto foram simuladas considerando suas distribuições originais, logo após, foi computada a função de performance e a probabilidade de falha como descrito na seção (7.3). A seguir a tabela resume as saídas obtidas no console Python: Tabela 4: Saída obtida através do método Monte Carlo Simulação h t σfr Ef Em b q L Z 0 0,21 0,02 3152079773,49 246082082610,45 3456838981,28 0,05 91102,46 2,02 7320,28 1 0,20 0,02 3273388726,13 243130041984,42 3328484033,22 0,04 87767,81 1,96 14436,38 2 0,20 0,02 3531396706,20 234646417178,58 3231188752,84 0,05 90714,82 2,04 12830,04 3 0,21 0,02 3678671826,37 237892005974,37 3294330043,48 0,05 101163,49 1,88 62460,63 4 0,20 0,02 3655355341,60 256349300717,47 3346376895,09 0,05 100770,81 2,05 12394,27 ... ... ... ... ... ... ... ... ... ... 999996 0,21 0,02 3657644226,86 229040612340,47 3524133114,96 0,05 93968,19 1,99 53026,88 999997 0,19 0,02 3340742307,66 217587794165,83 3165221504,89 0,05 103270,28 1,85 4596,63 999998 0,21 0,02 3254801442,91 239608274390,94 3383845384,45 0,05 94390,33 1,97 14784,46 999999 0,19 0,02 3410177768,15 230211633862,45 3086043647,98 0,05 92152,85 2,09 -25886,55 Sendo a probabilidade de falha obtida através dessa simulação e o índice de confiabilidade iguais a, pf = 34.0% e βmc = 0.335209, respectivamente. A implementação dos algoritmos utilizados nessa seção encontra-se disponível no ambiente de desenvolvimento online ”Google Colaboratory”, para consulta, através do link: https://colab.research.google.com/drive/1bNaxM5S7Z-FVjvkzUBERADnwS IK7t6Bv?usp=sharing. E no Anexo do presente trabalho. 38 https://colab.research.google.com/drive/1bNaxM5S7Z-FVjvkzUBERADnwSIK7t6Bv?usp=sharing https://colab.research.google.com/drive/1bNaxM5S7Z-FVjvkzUBERADnwSIK7t6Bv?usp=sharing 9 CONCLUSÕES Com os resultados obtidos, é possível observar que há diferenças significati- vas entre os métodos de otimização e de simulações. A diferença mais notável é a estimativa da probabilidade de falha, que apresentou valores com uma divergência considerável. Possivelmente essa diferença observada se deve ao processo de nor- malização da distribuição de probabilidade da variável aleatória q, que foi realizada seguindo o método de Rackwitz e Fiessler com o objetivo de transformar a distribuição dessa variável de extremo tipo I para normal. Também é possível observar uma diferença clara no custo de processamento e de memória entre os métodos. Enquanto o método de otimização requer apenas 3 iterações do algoritmo para convergir a um valor do índice de confiabilidade (com a primeira iteração já sendo uma aproximação da convergência na quarta casa deci- mal), o método de simulações de Monte Carlo requer uma quantidade muito maior de simulações para calcular, com precisão, a probabilidade de falha dessa estrutura. Por fim, o método de Monte Carlo requer uma complexidade de desenvolvi- mento menor, sendo necessário apenas conhecer a função de performance do pro- blema proposto e calcular o valor da função para cada combinação de valores gerados aleatoriamente para as variáveis conforme a distribuição proposta para cada, enquanto o método de otimização exige a redução de cada variável, a normalização de variáveis que possuírem distribuição diferente da normal e a avaliação do gradiente. Além da modelagem da estrutura e da função de performance que também são realizadas no método de Monte Carlo. Evidentemente, caso haja poder computacional para tal, o desenvolvimento de uma ferramenta de análise de confiabilidade de uma estrutura é mais simples (porém ainda suficientemente correta) utilizando o método de Monte Carlo. Para os valores médios utilizados no presente estudo, observa-se que o índice de confiabilidade está demasiadamente baixo (e a probabilidade de falha demasia- damente alta, como consequência) para que um projeto de uma longarina de asa de aeronave fosse realmente desenvolvido considerando esses valores. No desenvolvimento real de um projeto de asa de aeronave, a comparação entre os métodos de análise de confiabilidade pode ser uma ferramenta valiosa para haver mais exatidão na avaliação do projeto. Com o aumento da quantidade de variáveis aleatórias presentes no modelo utilizado, também se espera uma maior dificuldade em decidir os melhores parâmetros de projeto. Com essa ferramenta, que permite avaliar a confiabilidade de uma estrutura por dois métodos diferentes e aumenta a certeza da própria avaliação, antes de um projeto ser finalizado, já é possível ter uma análise prévia da confiabilidade da estrutura. A comparação também pode ser valiosa para fins didáticos, em que estudantes 39 conseguiriam visualizar alguns exemplos semelhantes à realidade prática que possi- velmente facilitaria a compreensão dos métodos de análise de confiabilidade, do uso de materiais compósitos em estruturas e da modelagem dessas estruturas. Pelo fato de o algoritmo ter sido desenvolvido em ambiente online, é possível ser utilizado como ferramenta didática, apenas disponibilizando o endereço para estudan- tes interessados em compreender os métodos de análise de confiabilidade. O código do algoritmo deixa explícito quais etapas precisam ser executadas para calcular, com precisão, o índice de confiabilidade e a probabilidade de falha, e o ambiente permite que esse algoritmo seja executado para novos valores das variáveis aleatórias, sem necessidade de alteração do programa. 9.1 SUGESTÕES DE FUTUROS TRABALHOS Essa seção visa sugerir estudos complementares ou baseados nesse trabalho, como segue: • Desenvolvimento de um estudo do erro gerado no cálculo do índice de confiabi- lidade no método de otimização devido à normalização • Verificação dos riscos associados à multicolinearidade entre variáveis indepen- dentes • Estudos de otimização, para encontrar configurações com melhor desempenho 40 Referências [1] GASPAR, R.; TRAUWTEIN, L. M. Introdução à mecânica dos sólidos. [S.l.]: PLÊI- ADE, 2016. [2] DANIEL, I.; ISHAI, O. Engineering mechanics of composite materials. Second. [S.l.]: Oxford University Press, 2006. [3] BOTELHO E. C. O.; REZENDE, M. C. O uso de compósitos estruturais na in- dústria aeroespacial. Polímeros. 2000, v. 10, n. 2, pp. e4-e10. Disponível em: <https://doi.org/10.1590/S0104-14282000000200003>. [4] REZENDE, M. C. Fractografia de Compósitos Estruturais. Polímeros, 2007, v. 17, n. 3, pp. E4-E11. Disponível em: <https://doi.org/10.1590/S0104- 14282007000300003.>. [5] MORETTIN, P. A.; BUSSAB, W. d. O. Estatística básica. [S.l.]: Saraiva, 2004. [6] ZIBETTI, A. Distribuição Normal (Gaussiana) - Distribuição Normal. Disponível em: <https://www.inf.ufsc.br/ andre.zibetti/probabilidade/normal.html>. [7] LAI, C.-D.; MURTHY, D.; XIE, M. Weibull distributions and their applications. Sprin- ger Handbook of Engineering Statistics, Chapter 3, p. 63–78, 02 2006. [8] LAW, A. M. Simulation Modeling and Analysis. 5. ed. [S.l.]: McGraw-Hill Educa- tion, 2014. (Mcgraw-hill Series in Industrial Engineering and Management). ISBN 0073401323,9780073401324. [9] HALDAR, A.; MAHADEVAN, S. Probability, Reliability, and Statistical Methods in Engineering Design. [S.l.]: Wiley, 1999. ISBN 9780471331193. [10] MAGALHÃES, M. N. Probabilidade e Variáveis Aleatórias. [S.l.]: Edusp, 2006. ISBN 9788531409455. [11]MINITAB. O teorema do limite central: as médias de amostras grandes e aleató- rias são aproximadamente normais. Disponível em: <https://support.minitab.com/pt- br/minitab/18/help-and-how-to/statistics/basic-statistics/supporting-topics/data- concepts/about-the-central-limit-theorem/>. [12] KALOS, M. H.; WHITLOCK, P. A. Monte Carlo Methods. 2. ed. [S.l.]: Wiley-VCH, 2008. [13] ALMEIDA, A. F. D. Projeto ótimo baseado em confiabilidade de pórticos planos de concreto armado. 2008. Tese de Doutorado ( Programa de Pós-Graduação em Engenharia Civil) - PUC-Rio, 2008, Certificação Digital Nº 0410735/CA. 41 [14] SCIUVA, M. D.; LOMARIO, D. A comparison between monte carlo and forms in calculating the reliability of a composite structure. Composite Structures, v. 59, p. 155–162, 01 2003. [15] SILVA, M. A. Análise de formulações de problemas de confiabilidade estrutural. 2019. In: Congresso Ibero-LatinAmerican de métodos computacionais em engenha- ria, nº XL, 2019, Natal. CILAMCE 2019. Natal: ABMEC, 2019. p.1-14. [16] SILVA, R. M. Análise de confiabilidade estrutural de tubos de materiais compó- sitos submetidos à pressões uniformes. 2017. Monografia (Bacharelado em Enge- nharia Civil) - Universidade Federal de Alagoas - UFAL, Campus do Sertão. Delmiro Gouveia, 2017. [17] BEER, F. P. et al. Mechanics of materials. [S.l.]: McGraw-Hill Education, 2014. [18] BARBERO, E.; FERNANDEZ-SAEZ, J.; NAVARRO, C. Mechanical properties of composite materials. Department of Mechanical Engineering, Carlos II University of Madrid, Madrid, Spain. 2000. 42 Script Python 1 # −∗− coding : utf −8 −∗− 2 ”””TG_FORM_E_MONTE_CARLO.ipynb 3 4 Automatica l ly generated by Colaboratory . 5 Notebook Desenvolvido para r e s o l u ção dos problemas apresentados no ... Trabalho de gradua ção em Engenharia Aeroe spac i a l da 6 UFABC, pe l o s a lunos @José w i l l i a n s e @Gabriel S i l v a . 7 8 O traba lho apresentado tem como tema : ”∗∗ COMPARAÇÃO ENTRE MÉTODOS DE ... ANÁLISE DE CONFIABILIDADE EM ESTRUTURAS 9 AERONÁUTICAS À BASE DE 10 MATERIAIS COMPÓ”SITOS∗∗ 11 12 O traba lho completo pode s e r v i s t o no l i n k : 13 14 Tendo dú v idas sobre o mate r i a l aqui expostos , en t ra r em contato ... conosco v ia e−mail : wi l l iarandu@hotmai l . com 15 16 17 ∗∗A reprodu ção des se conteúdo é l i v r e para f i n s Acadê micos . ∗∗ 18 19 # <center >BIBLIOTECAS </center > 20 ””” 21 22 # Commented out IPython magic to ensure Python c o m p a t i b i l i t y . 23 import pandas as pd 24 25 from sympy import symbols , d i f f , Eq , s o l v e 26 27 import numpy as np 28 import math 29 import random 30 31 import m a t p l o t l i b . p y p l o t as p l t 32 import numpy as np 33 import seaborn as sns 34 35 from s c i p y . s t a t s import weibull_min 36 37 # %matp lo t l i b i n l i n e 38 from s c i p y . s t a t s import norm 39 40 from IPython .d i sp lay import Image 41 43 42 from s c i p y . s t a t s import lognorm 43 44 pd.set_opt ion ( ' display.max_columns ' , None ) 45 46 ”””#<center > FUNÇÕES AUXILIARES DO PROGRAMA </center > 47 48 ””” 49 50 51 ### c r i a d i s t r i b u i ção normal com mé dia e desv io padrão de imput : 52 de f gera_distr ibuicao_normal ( n_simula çõ es =1000000 , mu=0, sigma=1) : 53 l i s ta_va lore s_px = [ ] 54 acumulador = 0 55 whi le acumulador ≤ n_simula çõ es : 56 l i s ta_valores_px.append ( random.normalvar iate (mu=mu, sigma=sigma ) ) 57 acumulador = acumulador + 1 58 re turn ( np .array ( l i s ta_va lore s_px ) ) 59 60 61 ### c r i a d i s t r i b u i ção extremo t ipo 1 (Gumbel ) com mé dia e desv io ... padrão de imput : 62 de f gera_distr ibuicao_extremo_tipo_1 ( n_simula çõ es =1000000 , mu=50, ... sigma=5) : 63 l i s ta_va lore s_px = [ ] 64 acumulador = 0 65 whi le acumulador ≤ n_simula çõ es : 66 l i s ta_valores_px.append ( ( ( np . l og (− np . l og ( np.random.uniform ( ) ) ) ) ... ∗ sigma ) + mu) 67 acumulador = acumulador + 1 68 re turn ( np .array ( l i s ta_va lore s_px ) ) 69 70 71 ### c r i a d i s t r i b u i ção we ibu l l de do i s parametros de imput f a t o r de ... modulo e e s c a l a : 72 de f gera_distr ibuicao_weibul l_two_params ( n_simula çõ es , lam , k ) : 73 # n number o f samples 74 # k shape alpha 75 # lam s c a l e beta 76 77 n = n_simula çõ es 78 79 x = weibul l_min.rvs (k , l o c =0, s c a l e=lam , s i z e=n) 80 re turn ( x ) 81 82 83 ### c r i a d i s t r i b u i ção Lognormal paramertros_media_desvio_padrao : 84 de f gera_distr ibuicao_log_normal ( n_simula çõ es =1000000 , mu=38, sigma=3. 8 ) : 44 85 n = n_simula çõ es 86 x = np.random.lognormal (mu, sigma , n) 87 re turn ( x ) 88 89 90 #### Two−Parameter Equiva lent NormalTransformation Rackwitz−F i e s s l e r ... method : 91 92 de f calculate_normal_equivalent_log_normal (mu=38, sigma=3.8 , ... de l ta_f=0. 1 ) : 93 q s i = np . sq r t ( np . l og (1 + de l ta_f ∗∗ 2) ) 94 lambda_f = np . l og (mu) − (0 . 5 ∗ ( q s i ) ∗∗ 2) 95 mu_norm = mu ∗ (1 − np . l og (mu) + lambda_f ) 96 sigma_norm = q s i ∗ mu 97 re turn (mu_norm, sigma_norm ) 98 99 100 de f calculate_normal_equivalent_log_normal_2 (mu=27.64 , sigma=3.79 ) : 101 de l ta_f = sigma / mu 102 q s i = np . sq r t ( np . l og (1 + de l ta_f ∗∗ 2) ) 103 lambd_f = np . l og (mu) − (0 . 5 ∗ ( q s i ∗∗ 2) ) 104 cd f = (1 / ( np . sq r t (2 ∗ np .p i ) ∗ q s i ∗ mu) ) ∗ ( np.exp(−0 . 5 ∗ ... ( ( ( np . l og (mu) − lambd_f ) ) / q s i ) ∗∗ 2) ) 105 inv_pdf = ( np . l og (mu) − ( lambd_f ) ) / q s i 106 ppf = (1 / ( np . sq r t (2 ∗ np .p i ) ) ) ∗ np.exp(−0 . 5 ∗ inv_pdf ∗∗ 2) 107 108 sigma_nomr_y = ppf / cd f 109 mu_normr_y = mu − ( inv_pdf ∗ sigma_nomr_y) 110 111 re turn (mu_normr_y , sigma_nomr_y) 112 113 114 de f calculate_normal_equivalent_extremo_tipoI (mu=50, sigma=5) : 115 #### Two−Parameter Equiva lent NormalTransformation ... Rackwitz−F i e s s l e r method : 116 u_n = mu 117 a_n = 1 / sigma 118 119 ##### Calulando Cdf ( fun ção de probab i l i dade Acumulada da ... d i s t r i b u i c a o : ) 120 121 cdf_star = np.exp (−( np.exp(−a_n ∗ (mu − u_n) ) ) ) 122 123 ##### calcu lando PDF ( fun ção de dens idade de probab i l i dade ... o r i g i n a l da d i s t r i b u i c a o ) : 124 pdf_star = a_n ∗ np.exp(−a_n ∗ (mu − u_n) ) ∗ np.exp(−np.exp(−a_n ∗ ... (mu − u_n) ) ) 45 125 126 sigma_norm = ( norm.pdf ( norm.ppf ( cdf_star ) ) / pdf_star ) 127 mu_norm = mu − (( norm.ppf ( cdf_star ) ) ∗ sigma_norm ) 128 129 re turn (mu_norm, sigma_norm ) 130 131 132 ### gera gr á f i c o da d i s t r i b u i ção : 133 de f gera_grá f i c o _ d i s t r i b u i c a o ( d i s t , l a b e l =”Normal ” , name=' t e s t ' ) : 134 s n s . s e t ( s t y l e =”white ” , p a l e t t e=”muted ” , co lor_codes=True ) 135 136 f , axes = p l t . s u b p l o t s (1 , 1 , f i g s i z e =(9 , 5) , sharex=True ) 137 s n s . d e s p i n e ( l e f t=True ) 138 139 s n s . d i s t p l o t ( d i s t , l a b e l=labe l , c o l o r=”BLUE”) 140 p l t . t i t l e (name) 141 p l t . l e g e n d ( ) 142 pl t . show ( ) 143 144 145 ”””#<center > RESOLUÇÃO VIA FORM </center >””” 146 147 ##### i n i c i o do problema : 148 ##### constru ção do data frame e contadores : 149 data_resu l tados = pd.DataFrame ( ) 150 i = 0 151 di f_beta = 0 . 1 152 153 data_resu l tados [ ” I t e r a ção ” ] = [ ] 154 data_resu l tados [ ” beta ” ] = [ ] 155 data_resu l tados [ ”G(u) ” ] = [ ] 156 data_resu l tados [ ”Grad_G(u) ” ] = [ ] 157 data_resu l tados [ ” (U_x,U_y) ” ] = [ ] 158 159 l i s t _ i = [ ] 160 l i s t_grad = [ ] 161 list_g_U = [ ] 162 l ist_mpp = [ ] 163 l i s t _ b e t a = [ ] 164 165 #### CONSTANTES MATERIAL COMPÓSITO : 166 rho_f ibra = 0 . 2 # Percentua l de Fibra 167 rho_matriz = 0 . 8 # Percentua l de Resina 168 169 #### DEFININDO DISTRIBUIÇÕES DE PROBABILIDADE INICIAIS (mé dias , de sv io ... padrao ) : 170 46 171 d_h = (0 .2 , 0 . 01 ) # ¬ Normal (m) 172 d_t = (0 .02 , 0 .001 ) # ¬ Normal (m) 173 d_sigma_fibra = (3516000000 , 175800000) # ¬ Normal (m) 174 d_E_fibra = (234430000000 ,11721500000) # ¬ Normal (N/m^2) 175 d_E_matriz = (3350000000 , 167500000) # ¬ Normal (N/m^2) 176 d_b = (0 .05 , 0 .0025 ) # ¬ Normal (m) 177 d_q = (100000 , 5000) # ¬ Extremo t ipo I (N) 178 d_l = (2 , 0 .100 ) # ¬ Normal (m) 179 180 ###### DEFINIÇÃO DAS VARIÁVEIS ALEÁTORIAS NO ESPAÇO ORIGINAL E REDUZIDO: 181 h , t , s igma_fibra , E_fibra , E_matriz , b , q , l , h_reduzido , t_reduzido , ... s igma_fibra_reduzido , E_fibra_reduzido , \ 182 E_matriz_reduzido , b_reduzido , q_reduzido , l_reduzido = symbols ( 183 ' h t s igma_fibra E_fibra E_matriz b q l h_reduzido t_reduzido ... s igma_fibra_reduzido E_fibra_reduzido ' 184 ' E_matriz_reduzido b_reduzido q_reduzido l_reduzido ' , 185 r e a l=True ) 186 187 ###### DEFINIÇÃO DA FUNÇÃO DE PERFORMANCE DO PROBLEMA NO ESPAÇO ORIGINAL: 188 189 g = ((2 / (h + (2 ∗ t ) ) ) ∗ ( s igma_fibra / E_fibra ) ∗ ( rho_f ibra ∗ ... E_fibra + rho_matriz ∗ E_matriz ) ∗ ( 190 ( t / 12) ∗ ( ( h ∗∗ 3) + ((2 ∗ b) ∗ ( (4 ∗ t ∗∗ 2) + (3 ∗ (h ∗∗ ... 2) ) ) ) ) ) ) − ( ( q ∗ ( l ∗∗ 2) ) / 2) 191 192 #### NORMALIZAR VARIÁVEL EXTREMO TIPO I : 193 q_N = calculate_normal_equivalent_extremo_tipoI (d_q [ 0 ] , d_q [ 1 ] ) 194 195 ### VETOR DAS VARIAVEIS ALEÁTORIAS NO ESPAÇO REDUZIDO: 196 X = np.array ( [ d_h [ 0 ] + h_reduzido ∗ d_h [ 1 ] , d_t [ 0 ] + t_reduzido ∗ d_t [ 1 ] , 197 d_sigma_fibra [ 0 ] + sigma_fibra_reduzido ∗ d_sigma_fibra [ 1 ] , 198 d_E_fibra [ 0 ] + E_fibra_reduzido ∗ d_E_fibra [ 1 ] , ... d_E_matriz [ 0 ] + E_matriz_reduzido ∗ d_E_matriz [ 1 ] , 199 d_b [ 0 ] + b_reduzido ∗ d_b [ 1 ] , 200 q_N[ 0 ] + q_reduzido ∗ q_N[ 1 ] , 201 d_l [ 0 ] + l_reduzido ∗ d_l [ 1 ] ] ) 202 203 ##### FUNÇÃO DE PERFOMANCE NO ESPAÇO REDUZIDO: 204 G_u = ((2 / (X[ 0 ] + (2 ∗ X[ 1 ] ) ) ) ∗ (X[ 2 ] / X[ 3 ] ) ∗ ( rho_f ibra ∗ X[ 3 ] + ... rho_matriz ∗ X[ 4 ] ) ∗ ( 205 (X[ 1 ] / 12) ∗ ( (X[ 0 ] ∗∗ 3) + ((2 ∗ X[ 5 ] ) ∗ ( (4 ∗ X[ 1 ] ∗∗ 2) + ... (3 ∗ (X[ 0 ] ∗∗ 2) ) ) ) ) ) ) − ( 206 (X[ 6 ] ∗ (X[ 7 ] ∗∗ 2) ) / 2) 207 208 ##### PONTO DE PARTIDA: 209 mpp_star = np.array ( [ 0 , 0 , 0 , 0 , 0 , 0 , 0 , 0 ] , dtype=f l o a t ) 210 47 211 #### TOLERÂNCIA DO BETA: 212 t o l l = 0 .000005 213 214 #### Í̃NICIO DA ITERAÇÃO: 215 whi le di f_beta > t o l l : 216 l i s t _ i . a p p e n d ( i ) 217 218 #################### GRADIENTE ######################## 219 dgu_dh_reduzido = ( d i f f (G_u, h_reduzido ) ) . sub s ( h_reduzido , ... mpp_star [ 0 ] ) . sub s ( t_reduzido , mpp_star [ 1 ] ) . sub s ( 220 s igma_fibra_reduzido , mpp_star [ 2 ] ) . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) . sub s ( E_matriz_reduzido , 221 mpp_star [ 4 ] ) . sub s ( b_reduzido , 222 mpp_star [ 5 ] ) . sub s ( 223 q_reduzido , mpp_star [ 6 ] ) . sub s ( l_reduzido , mpp_star [ 7 ] ) 224 dgu_dt_reduzido = ( d i f f (G_u, t_reduzido ) ) . sub s ( h_reduzido , ... mpp_star [ 0 ] ) . sub s ( t_reduzido , mpp_star [ 1 ] ) . sub s ( 225 s igma_fibra_reduzido , mpp_star [ 2 ] ) . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) . sub s ( E_matriz_reduzido , 226 mpp_star [ 4 ] ) . sub s ( b_reduzido , 227 mpp_star [ 5 ] ) . sub s ( 228 q_reduzido , mpp_star [ 6 ] ) . sub s ( l_reduzido , mpp_star [ 7 ] ) 229 dgu_dsigma_fibra_reduzido = ( d i f f (G_u, ... s igma_fibra_reduzido ) ) . sub s ( h_reduzido , ... mpp_star [ 0 ] ) . sub s ( t_reduzido , 230 mpp_star [ 1 ] ) . sub s ( 231 s igma_fibra_reduzido , mpp_star [ 2 ] ) . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) . sub s ( E_matriz_reduzido , 232 mpp_star [ 4 ] ) . sub s ( b_reduzido , 233 mpp_star [ 5 ] ) . sub s ( 234 q_reduzido , mpp_star [ 6 ] ) . sub s ( l_reduzido , mpp_star [ 7 ] ) 235 dgu_dE_fibra_reduzido = ( d i f f (G_u, ... E_fibra_reduzido ) ) . sub s ( h_reduzido , mpp_star [ 0 ] ) . sub s ( t_reduzido , 236 mpp_star [ 1 ] ) . sub s ( 237 s igma_fibra_reduzido , mpp_star [ 2 ] ) . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) . sub s ( E_matriz_reduzido , 238 mpp_star [ 4 ] ) . sub s ( b_reduzido , 239 mpp_star [ 5 ] ) . sub s ( 240 q_reduzido , mpp_star [ 6 ] ) . sub s ( l_reduzido , mpp_star [ 7 ] ) 241 dgu_dE_matriz_reduzido = ( d i f f (G_u, ... E_matriz_reduzido ) ) . sub s ( h_reduzido , ... mpp_star [ 0 ] ) . sub s ( t_reduzido , 242 mpp_star [ 1 ] ) . sub s ( 243 s igma_fibra_reduzido , mpp_star [ 2 ] ) . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) . sub s ( E_matriz_reduzido , 244 mpp_star [ 4 ] ) . sub s ( b_reduzido , 245 mpp_star [ 5 ] ) . sub s ( 48 246 q_reduzido , mpp_star [ 6 ] ) . sub s ( l_reduzido , mpp_star [ 7 ] ) 247 dgu_db_reduzido = ( d i f f (G_u, b_reduzido ) ) . sub s ( h_reduzido , ... mpp_star [ 0 ] ) . sub s ( t_reduzido , mpp_star [ 1 ] ) . sub s ( 248 s igma_fibra_reduzido , mpp_star [ 2 ] ) . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) . sub s ( E_matriz_reduzido , 249 mpp_star [ 4 ] ) . sub s ( b_reduzido , 250 mpp_star [ 5 ] ) . sub s ( 251 q_reduzido , mpp_star [ 6 ] ) . sub s ( l_reduzido , mpp_star [ 7 ] ) 252 dgu_dq_reduzido = ( d i f f (G_u, q_reduzido ) ) . sub s ( h_reduzido , ... mpp_star [ 0 ] ) . sub s ( t_reduzido , mpp_star [ 1 ] ) . sub s ( 253 s igma_fibra_reduzido , mpp_star [ 2 ] ) . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) . sub s ( E_matriz_reduzido , 254 mpp_star [ 4 ] ) . sub s ( b_reduzido , 255 mpp_star [ 5 ] ) . sub s ( 256 q_reduzido , mpp_star [ 6 ] ) . sub s ( l_reduzido , mpp_star [ 7 ] ) 257 dgu_dl_reduzido = ( d i f f (G_u, l_reduzido ) ) . sub s ( h_reduzido , ... mpp_star [ 0 ] ) . sub s ( t_reduzido , mpp_star [ 1 ] ) . sub s ( 258 s igma_fibra_reduzido , mpp_star [ 2 ] ) . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) . sub s ( E_matriz_reduzido , 259 mpp_star [ 4 ] ) . sub s ( b_reduzido , 260 mpp_star [ 5 ] ) . sub s ( 261 q_reduzido , mpp_star [ 6 ] ) . sub s ( l_reduzido , mpp_star [ 7 ] ) 262 263 ##### GRADIENTE CALCULADO NO MPP STAR: 264 gradiente_gu_mpp = np.array ( 265 [ dgu_dh_reduzido , dgu_dt_reduzido , dgu_dsigma_fibra_reduzido , ... dgu_dE_fibra_reduzido , dgu_dE_matriz_reduzido , 266 dgu_db_reduzido , dgu_dq_reduzido , dgu_dl_reduzido ] , dtype=f l o a t ) 267 l i s t_grad .append ( gradiente_gu_mpp ) 268 269 #### FUNÇÃO DE PERFORMANCE DO ESPAÇO REDUZIDO CALCULADO NO MPP STAR 270 G_u_mpp = ((2 / (X[ 0 ] . sub s ( h_reduzido , mpp_star [ 0 ] ) + (2 ∗ ... X[ 1 ] . sub s ( t_reduzido , mpp_star [ 1 ] ) ) ) ) ∗ ( 271 X[ 2 ] . sub s ( sigma_fibra_reduzido , mpp_star [ 2 ] ) / ... X[ 3 ] . sub s ( E_fibra_reduzido , mpp_star [ 3 ] ) ) ∗ ( 272 rho_f ibra ∗ X[ 3 ] . sub s ( E_fibra_reduzido , ... mpp_star [ 3 ] ) + rho_matriz ∗ X[ 4 ] . sub s ( 273 E_matriz_reduzido , mpp_star [ 4 ] ) ) ∗ ... ( (X[ 1 ] . sub s ( t_reduzido , mpp_star [ 1 ] ) / 12) ∗ ( 274 (X[ 0 ] . sub s ( h_reduzido , mpp_star [ 0 ] ) ∗∗ 3) + ((2 ∗ ... X[ 5 ] . sub s ( b_reduzido , mpp_star [ 5 ] ) ) ∗ ( 275 (4 ∗ X[ 1 ] . sub s ( t_reduzido , mpp_star [ 1 ] ) ∗∗ 2) + ( 276 3 ∗ (X[ 0 ] . sub s ( h_reduzido , mpp_star [ 0 ] ) ∗∗ 2) ) ) ) ) ) ) − ( 277 (X[ 6 ] . sub s ( q_reduzido , mpp_star [ 6 ] ) ∗ ... (X[ 7 ] . sub s ( l_reduzido , mpp_star [ 7 ] ) ∗∗ 2) ) / 2) 278 l ist_g_U.append (G_u_mpp) 279 49 280 ###MÓDULO DO VETOR GRADIENTE CALCULADO NO MPP 281 mod_gradiente_gu_mpp = np . l i na l g . no rm ( gradiente_gu_mpp ) 282 283 #### NORMA 284 ao = np.array ( [ gradiente_gu_mpp [ 0 ] / mod_gradiente_gu_mpp , ... gradiente_gu_mpp [ 1 ] / mod_gradiente_gu_mpp , 285 gradiente_gu_mpp [ 2 ] / mod_gradiente_gu_mpp , ... gradiente_gu_mpp [ 3 ] / mod_gradiente_gu_mpp , 286 gradiente_gu_mpp [ 4 ] / mod_gradiente_gu_mpp , ... gradiente_gu_mpp [ 5 ] / mod_gradiente_gu_mpp , 287 gradiente_gu_mpp [ 6 ] / mod_gradiente_gu_mpp , ... gradiente_gu_mpp [ 7 ] / mod_gradiente_gu_mpp ] ) 288 289 #### BETA 290 beta_0 = np . l i na l g . no rm ( mpp_star ) 291 292 #### NOVO MPP STAR 293 mpp_star = np.mul t ip ly ( ao , −1) 294 mpp_star = ( np .mul t ip ly ( mpp_star , ( beta_0 + (G_u_mpp / ... mod_gradiente_gu_mpp ) ) ) ) . a s t ype ( f l o a t ) 295 l ist_mpp.append ( mpp_star ) 296 297 #### BETA CORRIGIDO ∗ MPP 298 beta_c = np . l i na l g . no rm( mpp_star ) 299 l i s t_beta .append ( beta_c ) 300 301 #### ITERAÇÃO E CONVERGÊNCIA 302 i += 1 303 di f_beta = abs ( beta_c − beta_0 ) 304 305 #### compila r e s u l t a d o s 306 data_resu l tados [ ” I t e r a ção ” ] = l i s t _ i 307 data_resu l tados [ ” beta ” ] = l i s t _ b e t a 308 data_resu l tados [ ”G(u) ” ] = list_g_U 309 data_resu l tados [ ”Grad_G(u) ” ] = l i s t_grad 310 data_resu l tados [ ” (U_x,U_y) ” ] = list_mpp 311 312 #### COMPUTA A PROBABILIDADE DE FALHA: 313 pf = f l o a t ( norm.cdf (−( d a t a _ r e s u l t a d o s . i l o c [ −1 : ] . b e t a ) ) ) 314 beta = f l o a t ( d a t a _ r e s u l t a d o s . i l o c [ −1 : ] . b e t a ) 315 316 #### VERIFICAÇÃO FUNÇÃO DE PERFORMANCE NAS MÉDIAS INICIAIS : 317 i f ( ( 2 / (d_h [ 0 ] + (2 ∗ d_t [ 0 ] ) ) ) ∗ ( d_sigma_fibra [ 0 ] / d_E_fibra [ 0 ] ) ... ∗ ( 318 rho_f ibra ∗ d_E_fibra [ 0 ] + rho_matriz ∗ d_E_matriz [ 0 ] ) ∗ ( 319 (d_t [ 0 ] / 12) ∗ ( (d_h [ 0 ] ∗∗ 3) + ((2 ∗ d_b [ 0 ] ) ∗ ( (4 ∗ ... d_t [ 0 ] ∗∗ 2) + (3 ∗ (d_h [ 0 ] ∗∗ 2) ) ) ) ) ) ) − ( 50 320 (d_q [ 0 ] ∗ ( d_l [ 0 ] ∗∗ 2) ) / 2) > 0 : 321 pf = f l o a t ( norm.cdf (−( d a t a _ r e s u l t a d o s . i l o c [ −1 : ] . b e t a ) ) ) 322 e l s e : 323 pr in t (”Na mé dia a fun ção de performance Falha nece s s á r i o a l t e r a r ... va l o r de beta ”) 324 pf = f l o a t ( norm.cdf(−(− d a t a _ r e s u l t a d o s . i l o c [ −1 : ] . b e t a ) ) ) 325 326 pr in t (”\ nbeta ” , beta ) 327 pr in t (” probab i l i dade de f a l h a ” , round ( pf , 2) ∗ 100 , ”%”) 328 #### FIM MÉTODO FORM 329 330 data_resu l tados 331 332 ”””#<center > RESOLUÇÃO VIA MONTE CARLO </center >””” 333 334 #### DISTRIBUIÇÕES DE PROBABILIDADE INICIAIS VARIÁVEIS ALEÁTORIAS: 335 # d_h=(0 .2 , 0 . 01 ) # ¬ Normal (m) 336 # d_t=(0 .02 , 0 .001 ) # ¬ Normal (m) 337 # d_sigma_fibra =(3516000000 ,175800000) # ¬ Normal (m) 338 # d_E_fibra =(234430000000 ,11721500000) # ¬ Normal (N/m^2) 339 # d_E_matriz=(3350000000 ,167500000) # ¬ Normal (N/m^2) 340 # d_b=(0 .05 , 0 .0025 ) # ¬ Normal (m) 341 # d_q=(100000 ,5000) # ¬ Extremo t ipo I (N) 342 # d_l=(2 ,0 .100 ) # ¬ Normal (m) 343 344 ### VETOR NÚMEROS ALEÁTORIOS: 345 v_h = gera_distr ibuicao_normal ( n_simula çõ es =1000000 , mu=d_h [ 0 ] , ... sigma=d_h [ 1 ] ) 346 v_t = gera_distr ibuicao_normal ( n_simula çõ es =1000000 , mu=d_t [ 0 ] , ... sigma=d_t [ 1 ] ) 347 v_sigma_fibra = gera_distr ibuicao_normal ( n_simula çõ es =1000000 , ... mu=d_sigma_fibra [ 0 ] , sigma=d_sigma_fibra [ 1 ] ) 348 v_E_fibra = gera_distr ibuicao_normal ( n_simula çõ es =1000000 , ... mu=d_E_fibra [ 0 ] , sigma=d_E_fibra [ 1 ] ) 349 v_E_matriz = gera_distr ibuicao_normal ( n_simula çõ es =1000000 , ... mu=d_E_matriz [ 0 ] , sigma=d_E_matriz [ 1 ] ) 350 v_b = gera_distr ibuicao_normal ( n_simula çõ es =1000000 , mu=d_b [ 0 ] , ... sigma=d_b [ 1 ] ) 351 v_q = gera_distr ibuicao_extremo_tipo_1 ( n_simula çõ es =1000000 , ... mu=d_q [ 0 ] , sigma=d_q [ 1 ] ) 352 v_l = gera_distr ibuicao_normal ( n_simula çõ es =1000000 , mu=d_l [ 0 ] , ... sigma=d_l [ 1 ] ) 353 354 #### CRIAÇÃO DO DATAFRAME: 355 df = pd.DataFrame ( ) 356 df [ ” h ” ] = v_h 357 df [ ” t ” ] = v_t 51 358 df [ ” s igma_fibra ” ] = v_sigma_fibra 359 df [ ” E_fibra ” ] = v_E_fibra 360 df [ ” E_matriz ” ] = v_E_matriz 361 df [ ” b ” ] = v_b 362 df [ ” q ” ] = v_q 363 df [ ” l ” ] = v_l 364 365 #### CÁLCULO DA FUNÇÃO DE PERFORMANCE: 366 df [ ” funcao_de_performance ” ] = ( ( ( 2 / ( df [ ” h ” ] + (2 ∗ df [ ” t ” ] ) ) ) ∗ ... ( df [ ” s igma_fibra ” ] / df [ ” E_fibra ” ] ) ∗ ( 367 rho_f ibra ∗ df [ ” E_fibra ” ] + rho_matriz ∗ df [ ” E_matriz ” ] ) ∗ ... ( ( df [ ” t ” ] / 12) ∗ ( 368 ( df [ ” h ” ] ∗∗ 3) + ((2 ∗ df [ ” b ” ] ) ∗ ( (4 ∗ df [ ” t ” ] ∗∗ 2) + (3 ∗ ... ( df [ ” h ” ] ∗∗ 2) ) ) ) ) ) ) − ( 369 ( df [ ” q ” ] ∗ ( df [ ” l ” ] ∗∗ 2) ) / 2) ) 370 371 #### EXIBINDO PRIMEIRAS LINHAS DO DATAFRAME: 372 df .head ( ) 373 374 ### CALCULANDO PROBABILIDADE DE FALHA PELA DEFINIÇÃO: 375 376 pr in t (” probab i l i dade de f a l h a ” , round ( ( d f . l o c [ df . funcao_de_performance ... < 0 ] . shape [ 0 ] / d f . shape [ 0 ] ) , 2) ∗ 100 , ”%”) 377 378 ### CALCULANDO BETA MONTE CARLO: 379 beta = df.funcao_de_performance.mean ( ) / df . funcao_de_performance .std ( ) 380 381 ### CALCULANDO PROBABILIDADE DE FALHA ( i n t e g r a l de zero at é beta ) 382 norm.cdf(−beta ) 383 384 ”””#<center > PDF DA FUNÇÃO DE PERFOMANCE </center >””” 385 386 gera_grá f i c o _ d i s t r i b u i c a o ( df. funcao_de_performance , l a b e l='PDF da ... Função performance ' , name=' ' ) 52 8fd950cb30438b2b35f8d30528a4752ee1c1f612164f99aeb5a699a5399e7dec.pdf 8fd950cb30438b2b35f8d30528a4752ee1c1f612164f99aeb5a699a5399e7dec.pdf 8fd950cb30438b2b35f8d30528a4752ee1c1f612164f99aeb5a699a5399e7dec.pdf 8fd950cb30438b2b35f8d30528a4752ee1c1f612164f99aeb5a699a5399e7dec.pdf 8fd950cb30438b2b35f8d30528a4752ee1c1f612164f99aeb5a699a5399e7dec.pdf