Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
TRABAJO DE FINAL DE GRADO Grado en Ingeniería Eléctrica MONITORIZACIÓN DE ESTRUCTURAS AERONÁUTICAS UTILIZANDO UNA RED DE SENSORES DISTRIBUIDOS DE FIBRA ÓPTICA Memoria y Anexos Autor: David Mascaró Janer Director: Luis Eduardo Mujica Delgado Co-Directora: Magda Liliana Ruiz Ordoñez Convocatoria: Junio 2022 Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica i Resumen El presente trabajo se centra en el desarrollo de una metodología enfocada a la monitorización de estructuras aeronáuticas utilizando una red de sensores de fibra óptica OBR. Este trabajo tomará como punto de partida los ensayos que se llevaron a cabo en el proyecto INESASSE (Integración y Explotación de Sistemas de Autodiagnóstico y Supervisión de Salud Estructural en aviones no tripulados), donde se aplicaron una serie de cargas sobre el fuselaje posterior de la aeronave UAV Milano, fabricada íntegramente de material compuesto epoxi-carbono. A lo largo de toda la estructura se incorporó una red de sensores de medida distribuida OBR de 20 m de longitud, la cual se encargaría de medir las microdeformaciones producidas en la estructura al aplicar una carga determinada. Para la realización de los ensayos se simularon una serie de daños en distintos puntos de la estructura, y mediante la red de sensores se obtuvieron los datos de la estructura para cada tipo de daño y para la estructura sin ningún daño. Con estos datos obtenidos de los sensores se desarrollará la metodología para detectar la existencia de alguno de los distintos daños planteados y determinar su ubicación y magnitud en caso afirmativo. Para ello, primeramente, se realizará un preprocesamiento del conjunto de datos inicial. Seguidamente, se efectuará una estandarización de los mismos y se reducirá la dimensión del conjunto de datos mediante la técnica del análisis de componentes principales (PCA, por sus siglas en inglés). Finalmente, se aplicará el algoritmo de clasificación KNN (o K vecinos más cercanos), el cual se ajustará y se evaluará con la técnica de validación cruzada K-Fold. Tras la evaluación del modelo se observó cómo, con esta metodología, se consiguió detectar si la estructura sufría alguno de los daños planteados con una exactitud del 100%, además de determinar la ubicación del daño con una exactitud del 99% y su magnitud con una exactitud del 91%. Memoria ii Resum El present treball se centra en el desenvolupament d'una metodologia enfocada al monitoratge d'estructures aeronàutiques utilitzant una xarxa de sensors de fibra òptica OBR. Aquest treball prendrà com a punt de partida els assajos que es van dur a terme en el projecte INESASSE (Integració i Explotació de Sistemes d'Autodiagnòstic i Supervisió de Salut Estructural en avions no tripulats), on es van aplicar una sèrie de càrregues sobre el fuselatge posterior de l'aeronau UAV Milano, fabricada íntegrament de material compost epoxi-carboni. Al llarg de tota l'estructura es va incorporar una xarxa de sensors de mesura distribuïda OBR de 20 m de longitud, la qual s'encarregaria de mesurar les microdeformacions produïdes en l'estructura en aplicar una càrrega determinada. Per la realització dels assajos es van simular una sèrie de danys en diferents punts de l'estructura, i mitjançant la xarxa de sensors es van obtenir les dades de l'estructura per cada tipus de dany i per l'estructura sense cap dany. Amb aquestes dades obtingudes dels sensors es desenvoluparà la metodologia per detectar l'existència d'algun dels diferents danys plantejats i determinar la seva ubicació i magnitud en cas afirmatiu. Per això, primerament, es realitzarà un preprocessament del conjunt de dades inicial. Seguidament, s'efectuarà una estandardització i es reduirà la dimensió del conjunt de dades mitjançant la tècnica de l'anàlisi de components principals (PCA, per les seves sigles en anglès). Finalment, s'aplicarà l'algoritme de classificació KNN (o K veïns més pròxims), el qual s'ajustarà i s'avaluarà amb la tècnica de validació creuada K-Fold. Després de l'avaluació del model es va observar com, amb aquesta metodologia, es va aconseguir detectar si l'estructura sofria algun dels danys plantejats amb una exactitud del 100%, a més de determinar la ubicació del dany amb una exactitud del 99% i la seva magnitud amb una exactitud del 91%. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica iii Abstract This work focuses on the development of a methodology for the monitoring of aeronautical structures using an OBR fibre optic sensor network. This work will take as a starting point the tests carried out in the INESASSE project, where a series of loads were applied on the rear fuselage of the UAV Milano aircraft, made entirely of epoxy-carbon composite material. A 20 m long network of OBR distributed measurement sensors was incorporated throughout the structure to measure the micro-deformations produced in the structure when a given load was applied. In order to carry out the tests, a series of damages were simulated at different points of the structure, and the sensor network was used to obtain the data of the structure for each type of damage and for the structure without any damage. With this data obtained from the sensors, a methodology will be developed to detect the existence of any of the different types of damage and to determine their location and magnitude, if any. To do this, firstly, a pre-processing of the initial data set will be carried out. Next, the data will be standardised and the size of the dataset will be reduced using the principal component analysis (PCA) technique. Finally, the KNN (or K-Nearest Neighbours) classification algorithm will be applied, adjusted and evaluated with the K-Fold cross-validation technique. After the evaluation of the model, it was observed how, with this methodology, it was possible to detect whether the structure suffered any of the proposed damages with an accuracy of 100%, in addition to determining the location of the damage with an accuracy of 99% and its magnitude with an accuracy of 91%. Memoria iv Agradecimientos Quisiera transmitir mi más sincero agradecimiento a todos aquellos que me han ayudado a lo largo de esta etapa y han contribuido tanto de manera directa como indirecta a la confección de este Trabajo de Fin de Grado. En primer lugar, agradezco a Luis Eduardo Mujica y a Magda Ruiz por su ayuda en la planificación, organización y elaboración de este proyecto. Gracias a su aporte de conocimiento y su implicación en todo el proceso, ha sido posible convertir este Trabajo de Fin de Grado en una experiencia enriquecedora tanto a nivel personal como académico. En segundo lugar, agradezco a mi familia por su apoyo y motivación durante toda la carrera, así como por todo el amor y la educación que me han proporcionado para seguir siempre adelante y aprender de todas las facetas de la vida. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica v Glosario DBSCAN: Density-Based Spatial Clustering of Applications with Noise ETSIAE: Escuela Técnica Superior de Ingeniería Aeronáutica y del Espacio FBG: Fiber Bragg Grating IA: Inteligencia Artificial ICA: Independent Component Analysis INESASSE: Integración y Explotación de Sistemas de Autodiagnóstico y Supervisión de Salud Estructural en aviones no tripulados INTA: Instituto Nacional de Técnica Aeroespacial KNN: K-Nearest Neighbors LOOCV: Leave-One-Out Cross-Validation ML: Machine Learning NDT: Non-Destructive Testing OBR: Optical Backscatter Reflectometry OFDR: Optical Frequency-Domain Reflectometry PCA: Principal Component Analysis SHM: Structural Health Monitoring SHMS: Structural HealthMonitoring Systems SSE: Sistemas de Supervisión Estructural t-SNE: t-Distributed Stochastic Neighbor Embedding UAV: Unmanned Aerial Vehicle UPC: Universidad Politécnica de Cataluña UPM: Universidad Politécnica de Madrid Memoria vi Índice RESUMEN ___________________________________________________________ I RESUM _____________________________________________________________ II ABSTRACT __________________________________________________________ III AGRADECIMIENTOS __________________________________________________ IV GLOSARIO __________________________________________________________ V 1 INTRODUCCIÓN _________________________________________________ 1 1.1 Motivación ............................................................................................................... 2 1.2 Objetivos del trabajo ............................................................................................... 2 2 ESTADO DEL ARTE _______________________________________________ 3 2.1 Structural Health Monitoring .................................................................................. 3 2.2 SHM en estructuras aeronáuticas ........................................................................... 4 2.3 Sensores de medida distribuida .............................................................................. 7 2.4 Daños en materiales compuestos ......................................................................... 10 2.5 Inteligencia Artificial y Machine Learning ............................................................. 13 2.5.1 Aprendizaje supervisado ....................................................................................... 15 2.5.2 Aprendizaje no supervisado ................................................................................. 16 3 PROYECTO INESASSE ____________________________________________ 17 3.1 Configuración de la estructura de estudio ............................................................ 18 3.2 Planteamiento de los daños .................................................................................. 20 3.3 Campaña de ensayos ............................................................................................. 21 4 MÉTODOS EMPLEADOS __________________________________________ 24 4.1 Análisis de componentes principales .................................................................... 24 4.2 K vecinos más cercanos ......................................................................................... 25 4.3 Validación cruzada ................................................................................................. 27 4.4 Matriz de confusión ............................................................................................... 28 4.4.1 Métricas ................................................................................................................ 30 5 METODOLOGÍA EMPLEADA _______________________________________ 31 5.1 Datos iniciales ........................................................................................................ 31 5.2 Preprocesamiento ................................................................................................. 34 Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica vii 5.3 Análisis de componentes principales .................................................................... 38 5.3.1 Estandarización de los datos ................................................................................ 39 5.3.2 Creación e implementación del modelo PCA ...................................................... 45 5.4 Aplicación del algoritmo KNN ................................................................................ 48 5.5 Validación cruzada ................................................................................................. 50 6 RESULTADOS __________________________________________________ 51 7 ANÁLISIS DEL IMPACTO AMBIENTAL _______________________________ 60 CONCLUSIONES _____________________________________________________ 62 PRESUPUESTO ______________________________________________________ 64 BIBLIOGRAFÍA ______________________________________________________ 65 ANEXO A: SECUENCIA DE ENSAYOS _____________________________________ 68 ANEXO B: DATOS INICIALES ___________________________________________ 69 ANEXO C: PREPROCESAMIENTO ________________________________________ 82 ANEXO D: ANÁLISIS DE COMPONENTES PRINCIPALES ______________________ 88 ANEXO E: APLICACIÓN DEL ALGORITMO KNN _____________________________ 91 ANEXO F: VALIDACIÓN CRUZADA ______________________________________ 92 Memoria viii Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 1 1 Introducción Actualmente, para garantizar la integridad y seguridad de estructuras aeronáuticas tales como las aeronaves, se realiza un mantenimiento preventivo, el cual consiste en la realización de inspecciones periódicas basadas en ensayos no destructivos (NDT, por sus siglas en inglés). Sin embargo, estas actividades implican costes considerables, no solamente por la ejecución de los mismos ensayos, sino también por el hecho de que durante la realización de estos exámenes la estructura está fuera de servicio. Para hacer frente a este problema, en estos últimos años la comunidad científica junto con el sector aeronáutico ha destinado una importante cantidad de recursos al desarrollo de nuevos métodos para el seguimiento y verificación de la integridad estructural de los vehículos, conocidos generalmente como sistemas de monitorización de la integridad estructural o Structural Health Monitoring Systems (SHMS). Estos sistemas permiten realizar evaluaciones en tiempo real del estado de las estructuras de forma automática y sin requerir la participación de ningún operario, modificando así radicalmente el trabajo destinado al mantenimiento. Por otra parte, con el afán de disminuir cada vez más el peso de las aeronaves, desde finales del siglo XX en la industria aeronáutica se han ido incorporando progresivamente los materiales compuestos, los cuales se forman por la unión de dos o más materiales para conseguir una combinación de propiedades que no se podría obtener solo con los materiales iniciales. Los materiales compuestos presentan una densidad significativamente menor que los metales comúnmente utilizados tales como el acero o el aluminio, proporcionando a su vez una mayor resistencia. Esto es debido a que se pueden diseñar para soportar un mayor esfuerzo en una aplicación específica, ofreciendo así una mejor ratio resistencia-peso que los materiales convencionales. Otros beneficios que ofrecen los materiales compuestos son la resistencia a la corrosión y a la fatiga, así como una mayor rigidez. Sin embargo, debido a su naturaleza heterogénea, estos materiales pueden presentar múltiples mecanismos de fractura, por lo que a la hora de realizar una detección de daños en su etapa inicial nos encontramos con un gran desafío. Por este motivo, tal y como se expone en [1], se están haciendo grandes esfuerzos para desarrollar nuevos métodos de monitoreo estructural que detecten los defectos lo suficientemente temprano como para prevenir la falla de los componentes. Estos esfuerzos se centran en el desarrollo de estructuras inteligentes que combinan sensores, algoritmos y actuadores para monitorear la integridad estructural en tiempo real. De esta forma, los SHMS no solamente se presentan como una solución para optimizar el proceso de mantenimiento de las estructuras aeronáuticas, sino que también se adecuan a los requerimientos añadidos que presenta esta nueva tendencia hacia los materiales compuestos. Memoria 2 1.1 Motivación Debido a la creciente disponibilidadde diferentes tipos de sensores, la preferencia hacia metodologías orientadas al SHM también ha ido aumentando cada vez más, ya que los sensores pueden instalarse con bastante facilidad en las aeronaves, permitiendo así adquirir a bordo las señales necesarias de forma rápida y eficiente. No obstante, si bien actualmente se puede monitorear con gran exactitud el estado de las aeronaves, todavía no existe un sistema aéreo integrado comercial para estimar el estado de las estructuras de los vehículos en tiempo real. Este hecho, juntamente con la utilización cada vez mayor de materiales compuestos, han sido los factores que han promovido la realización de este Trabajo de Fin de Grado. Cabe destacar que la idea de fundamentar este trabajo en dicha materia ha sido iniciada por la implicación del equipo de CoDAlab de la Universidad Politécnica de Cataluña (UPC) con el proyecto INESASSE. CoDAlab es un organismo de investigación con más de 13 años de experiencia en el campo de los sistemas SHM y ha trabajado con diversos grupos de investigación punteros nacionales y extranjeros. Mediante una colaboración previa entre el Instituto Nacional de Técnica Aeroespacial (INTA) y la Universidad Politécnica de Madrid (UPM) se realizó una adquisición de datos del UAV Milano, el cual es un prototipo de vehículo aéreo no tripulado fabricado íntegramente de material compuesto epoxi- carbono. Posteriormente, la UPM empezó con un proceso de tratamiento y análisis de estos datos en cooperación con CoDAlab. Mediante el presente proyecto, se pretende aportar conocimiento en este estudio, contribuyendo en la mejora de las metodologías SHM en el caso concreto de utilizar datos obtenidos con sensores de medida distribuida OBR. 1.2 Objetivos del trabajo El objetivo de este trabajo es desarrollar una metodología para un sistema SHM con el fin de detectar defectos en el fuselaje de una aeronave construida de material compuesto. Para ello, se tomarán los datos adquiridos del UAV Milano mediante sensores OBR y se les realizará un preprocesamiento para después, mediante la aplicación de diversas técnicas de Machine Learning (en español, aprendizaje automático), poder realizar una detección y clasificación de distintos defectos en el fuselaje de la aeronave. Para desarrollar esta metodología se trabajará en un entorno de desarrollo de Python donde se utilizarán librerías como Pandas, NumPy, Scikit-learn, Matplotlib y Seaborn. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 3 2 Estado del arte 2.1 Structural Health Monitoring El monitoreo de la salud estructural, conocido como SHM por sus siglas en inglés, consiste en la recogida, tratamiento e interpretación de datos en la estructura. Estos datos se obtienen mediante sensores ubicados a lo largo de toda la superficie de la estructura que se desea controlar. Además, es parte implícita del SHM la selección de estos sensores y la cantidad y ubicación de estos. De esta forma, a partir de las medidas realizadas y su posterior tratamiento se puede identificar dónde se encuentra el daño y cuál es su dimensión, además de conocer la carga que ha experimentado la estructura, lo cual nos permitirá predecir de forma completa el estado de la estructura. Tal y como se expone en [2], el SHM se puede subdividir en los siguientes pasos: 1. Evaluación operacional En primer lugar, se debe tener una idea clara de la naturaleza de la estructura a monitorear, cuáles son los problemas que esta puede presentar y dónde pueden aparecer, para así determinar la solución óptima para cada caso en concreto. Así mismo, en este primer paso, también deben considerarse las consecuencias de aplicar este sistema de sensado para la monitorización, evaluando las complicaciones que podrían surgir a la hora de implementarlo y compararlas con las ventajas que podría ofrecer. 2. Adquisición de datos En este paso se realiza el estudio de cómo se van a integrar los sensores en la estructura para obtener datos que nos aporten información. Aquí también se determina la magnitud física que se va a medir y el tipo de sensores que se van a utilizar, ya que esta elección estará fuertemente relacionada con la técnica para el procesamiento de los datos que se usará posteriormente. 3. Procesado de señales A partir de los datos obtenidos de los sensores se determina la posible existencia de daño y su magnitud. Sin embargo, primero se debe realizar un procesamiento de los datos para extraer las características que realmente nos proporcionan información útil y eliminando el ruido que se pueda presentar. 4. Modelado estadístico Este es el paso final del proceso y es donde se realiza el modelo estadístico o de aprendizaje automático que se va a utilizar para determinar y clasificar los daños. Memoria 4 En la Figura 2.1 se puede observar de forma esquematizada cómo se integra el sistema SHM en la estructura. Figura 2.1. Integración del sistema SHM en una estructura [3]. Se puede observar como en este sistema retroalimentado la entrada tiene, por un lado, las condiciones ambientales y, por otro, las condiciones de operación, que son las que se pueden alterar. Estas condiciones modificarán el estado actual en el que se encuentra la estructura, produciendo una serie de variaciones en ella que serán medidas por los sensores. El sistema SHM posteriormente comparará el estado actual con un estado de referencia en el que el sistema no tiene ningún daño, para así determinar si efectivamente existe un daño. Al ser un sistema retroalimentado, después de hacer el diagnóstico pertinente se toman medidas correctivas para reparar el daño o mitigar su efecto. 2.2 SHM en estructuras aeronáuticas Dada la versatilidad de los sistemas SHM, estos se pueden implementar en todo tipo de estructuras, desde edificios hechos de hormigón armado hasta naves espaciales. En este trabajo nos centraremos en la aplicación del SHM en una estructura aeronáutica fabricada a partir de material compuesto. Tal y como se ha explicado en el apartado 2.1, el primer paso a la hora de implementar un sistema SHM es conocer la estructura en la que se va a aplicar, así como tener presente los esfuerzos a los que estará sometida y las posibles fallas que pueda presentar. A la hora de diseñar estructuras aeronáuticas, el mayor reto a considerar es el efecto de la fatiga que tendrá que soportar cada una de sus partes. Esto es debido a que esta depende tanto del tiempo como de las cargas que tendrán que soportar durante su vida útil. En [4] se exponen los dos principios de diseño existentes para abordar este problema: el diseño de vida segura y el diseño de tolerancia al daño. En el primer caso, el componente se diseña para poder soportar una cierta cantidad de horas de vuelo siempre que no se sobrepase un cierto espectro de carga. Si no se ha sobrepasado el espectro de carga determinado, cuando estas horas de vuelo han trascurrido, el componente es sustituido, aunque no presente daño alguno. Si, por lo contrario, sí que se ha sobrepasado tal espectro, el Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 5 componente tendrá que ser evaluado. Por otro lado, el diseño tolerante al daño permite que el daño pueda presentarse en vuelo y será seguro siempre que no supere un umbral determinado. Como se observa en la Figura 2.2, una vez la grieta supera la longitud máxima, el daño podría irse propagando lentamente o, directamente, la pieza se fracturaría. Para evitar las consecuencias de este último caso, tendría que bloquearse la grieta o tener la estructura diseñada de tal manera que las cargas pudieran ser transferidas a otros componentes en caso de rotura. Figura 2.2. Criterios del diseño a fatiga de una estructura aeronáutica [4]. Las aeronaves están formadaspor una gran cantidad de componentes, cada uno de ellos diseñado para soportar unas cargas específicas. En la Figura 2.3 se observan los diferentes tipos de estrés al que cada una de estas partes puede estar sometida. Figura 2.3. Principales causas de daño en una aeronave [5]. Para garantizar su completa integridad se realizan inspecciones periódicamente donde se aplican diferentes técnicas de detección de daños. En [4] se afirma como la técnica más utilizada es la inspección visual, la cual, si se realiza de una forma correcta, permite encontrar indicios de desgaste y corrosión en las partes más externas de la estructura. No obstante, también se expone que este Memoria 6 método es insuficiente a la hora de detectar grietas, por lo que existe una gran variedad de técnicas NDT que, mediante una instrumentación específica, permiten obtener resultados más precisos. Entre todas estas técnicas, la más utilizada son los ultrasonidos, donde mediante la transmisión de una onda de alta frecuencia a través del material se puede determinar la posición de la grieta midiendo la reflexión de la onda causada por la misma grieta. Otra técnica muy utilizada en los componentes metálicos consiste en inducir corrientes de Foucault en el material mediante una bobina y, en el caso de existir una grieta, estas corrientes se ven modificadas, lo cual se refleja en la medición del campo magnético. Adicionalmente, existen otras técnicas empleadas en casos específicos, algunas de estas usan emisiones acústicas o rayos X. En definitiva, actualmente tenemos a nuestra disposición una amplia variedad de métodos que nos permiten hacer exámenes altamente precisos para determinar el estado de la aeronave. No obstante, las labores de mantenimiento periódicas son necesarias y, debido a su complejidad, requieren de una gran cantidad de tiempo. Además, durante todo este tiempo el vehículo está fuera de servicio, lo cual representa un coste adicional. Las tecnologías emergentes de SHM, tal y como se expone en [6], ofrecen la posibilidad de reducir drásticamente el tiempo y recursos destinados a estas labores de mantenimiento, así como la optimización de las mismas. Por un lado, permiten reducir el tiempo de trabajo debido a que únicamente sería necesario efectuar revisiones cuando estas fuesen requeridas en lugar realizarlas de forma programada. Por otro lado, habría una reducción de la mano de obra al evitar desarmar ciertas partes del vehículo al saber desde un primer momento donde están los defectos ocultos. Esta reducción de la intervención humana permitiría, a su vez, la reducción del tiempo de inactividad y los errores humanos, mejorando así la seguridad y la fiabilidad. La utilización de los SHMS en las aeronaves también nos proporciona beneficios como el ahorro de peso, que es posible gracias a la reducción de los márgenes de seguridad en algunas áreas de la aeronave, lo cual supone un menor consumo de combustible y un aumento de la autonomía del avión. En definitiva, los SHMS proporcionan un ahorro de dinero, tiempo y esfuerzo a la vez que mejoran la seguridad y rendimiento de la aeronave. Entre las diferentes técnicas aplicadas en los SHMS, algunas de las más utilizadas son fruto de la integración de las técnicas NDT en la misma estructura. Los métodos basados en ultrasonido son unos de los más usados, valiéndose de sensores de tipo piezoeléctrico. Por otra parte, los sensores de fibra óptica son una excelente opción a la hora de medir tanto emisiones acústicas como deformaciones en el material debido a todas las ventajas que presentan. Siendo los más empleados los sensores FBG (Fiber Bragg Grating) y los sensores de medida distribuida. En este trabajo se estudiará la aplicación de un sistema SHM basado en la medición de deformaciones en la estructura mediante sensores de medida distribuida OBR. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 7 2.3 Sensores de medida distribuida Es bien sabido que los sensores de fibra óptica presentan una serie de ventajas respecto a otros tipos de sensores usados tradicionalmente, la mayoría de los cuales se basan en la corriente eléctrica. Entre estas ventajas se encuentra el hecho de que puedan soportar un amplio rango de variaciones de temperatura; no se ven afectados por las interferencias electromagnéticas, pudiendo obtener mediciones con bajo ruido; no son químicamente reactivos, y su reducido tamaño y peso facilitan su transporte y utilización. Los sensores basados en la medida distribuida comparten las mismas ventajas de otros sensores de fibra óptica, pero presentan la ventaja añadida de permitir monitorizar longitudes mucho más extensas y con una gran cantidad de puntos de medición muy próximos entre sí (del orden de milímetros). Esto último permite obtener una visión continua del campo de deformaciones en toda la superficie de la estructura a estudiar, lo cual es un hecho remarcable si se compara con las medidas discretas que ofrecen la mayoría de los sensores. El principio en el que se fundamenta de la detección distribuida por fibra óptica es el fenómeno de dispersión, el cual es fruto de la interacción de la luz con el medio material por el que esta se propaga, que en este caso sería el núcleo de la fibra óptica. Dado que los sensores están unidos a la estructura que se quiere supervisar, al producirse modificaciones en la temperatura o la tensión del material, estos cambios se transfieren al sensor, lo que causa que la señal dispersa sea diferente de la señal dispersa que teníamos en el estado previo al cambio de tensión o temperatura en la estructura [7]. Existen tres procesos conocidos de dispersión que se utilizan para obtener mediciones distribuidas: la dispersión de Raman, Brillouin y Rayleigh, las cuales, en [8] son definidas de la siguiente manera: • Dispersión de Rayleigh Es la producida por las colisiones elásticas entre fotones y átomos. Por lo tanto, la luz retrodispersada tiene la misma longitud de onda que la luz incidente, ya que la energía se conserva. Este tipo de dispersión se emplea para la medición de deformaciones. • Dispersión de Raman Algunos de los fotones intercambian energía con enlaces atómicos, generalmente perdiendo un cuanto de energía dando lugar a la radiación Stokes1. Sin embargo, algunos de ellos pueden 1 Los parámetros de Stokes son un conjunto de valores que describen el estado de polarización de la radiación electromagnética. Fueron definidos por George Gabriel Stokes en 1852, como una alternativa matemática conveniente para la descripción más común de radiación incoherente o parcialmente polarizada [25]. Memoria 8 obtener energía de enlaces excitados originando la componente anti-Stokes. La relación de intensidad entre estas dos componentes varía con la temperatura, hecho por el cual este tipo de dispersión se emplea para la medición de la misma. • Dispersión de Brillouin Este es un efecto inelástico que implica la interacción de la luz incidente con los fonones acústicos. De nuevo, los componentes Stokes y anti-Stokes son retrodispersados y su desviación de frecuencia de las señales de onda incidentes es sensible no solo a la temperatura sino también a la deformación. En la Figura 2.4 se observa una representación gráfica de estos tres procesos de dispersión. Figura 2.4. Diagrama de las dispersiones de Rayleigh, Raman y Brillouin [8]. La tecnología de Reflectometría Óptica de Retrodispersión u Optical Backscatter Reflectometry (OBR) usada en el presente estudio se basa en la Reflectometría Óptica en el Dominio de la Frecuencia u Optical Frequency-Domain Reflectometry (OFDR), una tecnología que usa la dispersión de Rayleigh2 como método de medición. Este sistema está compuesto por una parte activa y otra pasiva. La parte activa está constituida por una unidad de monitoreoque envía luz láser a través de la parte pasiva, la cual está formada por una fibra óptica con fluctuaciones del índice de refracción a lo largo de toda su 2 La dispersión de Rayleigh (en honor a lord Rayleigh, que fue el primero en explicarlo en 1871) es la dispersión de la luz visible o cualquier otra radiación electromagnética por partículas cuyo tamaño es mucho menor que la longitud de onda de los fotones dispersados [26]. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 9 longitud [9]. Cuando la luz atraviesa la fibra, en cada una de las porciones con su determinado índice de refracción, la luz se refleja de una forma específica, actuando como una huella digital única para cada punto de la fibra (Figura 2.5). Este patrón de reflexiones y el tiempo de vuelo de la luz se miden y almacenan en un ordenador y pueden utilizarse como puntos de detección distribuidos de forma continua. Si se produce un estímulo externo tal como una tensión mecánica, el patrón local de retrodispersión de Rayleigh sufre un ligero cambio. Este nuevo patrón de reflexión también es almacenado y se compara con el patrón de reflexión previo al estímulo. De esta forma, mediante esta comparación es posible calcular las tensiones a lo largo de toda la longitud de la fibra [10]. Figura 2.5. Proceso de medición mediante el sistema OBR [7]. Si se compara este tipo de sensores con otros sensores de fibra óptica ampliamente utilizados como los FBG, se puede apreciar como la cantidad de datos obtenidos en una medida es significativamente mayor. Esto es debido a que los FBG, debido a su naturaleza, se utilizan en redes con un número reducido de sensores. Por otro lado, las redes formadas con sensores de medida distribuida OBR pueden contener millones de sensores, ya que cada punto de la longitud de la fibra actúa como un sensor virtual. Esto se consigue gracias a que se diseñan aplicando un índice de reflexión heterogéneo distribuido aleatoriamente a lo largo de toda la fibra [10]. Sin embargo, los sensores de medida distribuida presentan el inconveniente de ofrecer una medición cuasi estática, en la que cada medida puede tardar varios segundos en realizarse. En cambio, los sensores FBG pueden proporcionar una frecuencia de muestreo de varios kHz. Este hecho implica que los sensores de medida distribuida no pueden ofrecer una medición estrictamente en tiempo real, no obstante, pueden ser de gran utilidad a la hora de realizar medidas correspondientes a la respuesta lenta de la estructura frente a estímulos externos [11]. Memoria 10 2.4 Daños en materiales compuestos Dado que la estructura de estudio de este trabajo está construida con material compuesto, cabe tener presente los daños que pueden presentar este tipo materiales. La información que se expondrá a continuación se ha obtenido mayoritariamente de [2]. Cuando una estructura presenta cambios en su geometría o en el propio material, se dice que presenta un daño. Este daño puede aparecer en uno o más componentes de la estructura y dependen tanto de los factores externos a los que la estructura está sometida como de las propiedades del mismo material, tales como su rigidez, la resistencia al impacto, la resistencia a la corrosión o la resistencia a la fatiga debida a los ciclos de carga y descarga. En el caso concreto de los materiales compuestos, los daños por fatiga tienen un comportamiento significativamente más complejo que en los metales comúnmente utilizados en las estructuras aeronáuticas. Esto es debido a su naturaleza heterogénea basada fibras dispuestas en distintas orientaciones dentro de una matriz, la cual las protege de daños externos y distribuye la carga de forma equitativa. Por lo tanto, los daños no se producen en un solo paso, sino que aparecen de manera secuencial, empezando comúnmente por daños de nivel microscópico que van evolucionando hasta que, eventualmente, pueden terminar con una ruptura de la matriz apreciable a nivel macroscópico. Cuando hablamos de daños de nivel microscópico, el mecanismo de daño a nivel de la fibra es el más destructivo, ya que las fibras son la parte del material compuesto que se encarga de soportar las cargas que se puedan originar. Los mecanismos de daño principales en las fibras son la fractura, el pandeo y la flexión. La fractura de la fibra (Figura 2.6) se origina cuando las fuerzas de tracción actúan simétricamente en el mismo eje de la fibra, superando el umbral máximo que esta puede soportar, no obstante, también se puede originar con el cizallamiento. La probabilidad de que se produzca una fractura aumenta de manera proporcional a la fragilidad de la fibra. Por otro lado, el daño por pandeo (Figura 2.7) se produce al aplicar una carga en la dirección axial de la fibra como en el caso anterior, pero esta vez la carga es de compresión. Figura 2.6. Daño por fractura [2]. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 11 Figura 2.7. Daño por pandeo [12]. Al contrario que el daño por fractura o pandeo, el daño por flexión se origina cuando una fuerza es aplicada perpendicularmente a la dirección de las fibras (Figura 2.8). Lo que sucede es que las fibras que están en la superficie donde se aplica la fuerza sufren una fuerza de compresión, mientras que las que se encuentran en la superficie opuesta experimentan una fuerza de tracción. Cuando se alcanza un determinado radio de curvatura mínimo, la fuerza aplicada en las fibras de la capa exterior es de tal magnitud que la misma capa empieza a agrietarse. Figura 2.8. Daño por flexión [2]. Todos estos mecanismos de daño a nivel de la fibra que se acaban de exponer, en la mayoría de los casos se producen conjuntamente con daños en la matriz. En la Figura 2.9 se puede ver un ejemplo de cómo puede evolucionar este tipo de daño conjunto cuando es sostenido en tiempo. Generalmente, son los daños a nivel de la fibra los que provocan un daño posterior en la matriz, aunque también existe una posibilidad de que sea una grieta en la matriz la que provoque una tensión excesiva en las fibras, provocando su rotura. Adicionalmente, también pueden aparecer daños como la delaminación, la cual es una separación de dos capas contiguas de material compuesto (Figura 2.10). Esta suele deberse a una acción conjunta de los daños microscópicos junto con un debilitamiento de la fina capa de resina que une las capas de material compuesto. Este es uno de los daños a nivel macroscópico más comunes, por lo que es uno de los más importantes a la hora que determinar fallas en una estructura construida con este tipo de materiales. Memoria 12 Figura 2.9. Rotura conjunta de las fibras y la matriz [13]. Figura 2.10. Daño por delaminación [13]. A la hora de trabajar con estructuras fabricadas con materiales compuestos se debe tener presente que, en la mayoría de los casos, estas están formadas por una serie componentes unidos entre sí con un adhesivo. Por este motivo, además de considerar los defectos que se pueden producir en el mismo material, también se deben tener en cuenta los daños producidos en los puntos de unión de los componentes. En [14] se expresa como la delaminación es uno de los posibles daños más frecuentes, no solo en el mismo material, sino también en las uniones adhesivas. Cuando la delaminación se produce en la unión adhesiva pasa a llamarse desencolado. Si se considera la unión entre componentes como una configuración en capas, es razonable considerar el desencolado como un tipo de delaminación. De hecho, los mecanismos implicados en el desencolado y la delaminación son muy similares, por lo que se pueden utilizar los mismos métodos predecir ambos tipos de daño [14]. En este proyecto, se desarrollará una metodología para detectar daños originados porun desencolado en el fuselaje de una aeronave, los cuales serán provocados en unas ubicaciones específicas. Sin embargo, también podría ser útil para localizar daños producidos por delaminación en cualquier parte de la estructura. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 13 2.5 Inteligencia Artificial y Machine Learning La Inteligencia Artificial (IA) es la ciencia de entrenar entes artificiales tales como máquinas u ordenadores para que estos puedan realizar acciones propias de la inteligencia humana. Entre estas acciones podemos nombrar la capacidad de pensar, retener información, reconocer patrones, generar nuevas ideas, resolver problemas y aprender de la experiencia. En la actualidad, la IA es utilizada para realizar tareas propias de los humanos como las que se acaban de mencionar, pero de forma más eficiente, con menos tiempo y un costo menor. Dentro de la Inteligencia Artificial se pueden identificar dos grandes categorías, la IA general y la IA estrecha. • IA General Este tipo de IA tiene como objetivo imitar el comportamiento humano en su totalidad. Mediante la utilización de sensores, las máquinas podrían llegar adquirir una total autonomía, interactuando con el entorno y recopilando datos para así aprender constantemente y conseguir tomar decisiones de forma autónoma. Sin embargo, hoy en día IA general es concebida como una aspiración más que como una realidad práctica, ya que, aunque se estén logrando importantes avances, aún no se ha logrado reproducir artificialmente la complejidad del cerebro humano. • IA Estrecha A diferencia de la IA general, la IA estrecha presenta solamente ciertas facetas específicas de la inteligencia humana, teniendo la capacidad de realizar una tarea específica extremadamente bien, pero presentando carencias en otras áreas. Esta IA es la que utilizan actualmente las empresas y organizaciones para mejorar su productividad y efectividad, usando la IA como herramienta para procesar una gran cantidad de datos y tomar decisiones. Durante años, los investigadores estudiaron diversos enfoques para crear la IA, llegando a la conclusión de que la solución óptima era aportar una gran cantidad de datos de muestra a las máquinas para que, de esta manera, ellas mismas pudieran procesar estos datos y extraer sus patrones característicos. El objetivo era que, en última instancia, las propias computadoras aprendieran de manera autónoma a realizar una tarea en concreto. Así es cómo surgió el aprendizaje automático o Machine Learning (ML), el cual se define como un subconjunto de la IA (Figura 2.11), fruto de la intersección de la informática y la estadística, cuyo objetivo principal es el de aprender utilizando algoritmos para posteriormente poder realizar predicciones. Una sofisticación del ML es el aprendizaje profundo o Deep Learning. Este subgrupo del ML usa principalmente técnicas que simulan el comportamiento del cerebro humano, aplicando sistemas de Memoria 14 redes neuronales artificiales en los software de análisis de datos. La principal ventaja de ese tipo de aprendizaje es que permite procesar una mayor variedad de datos y sin la necesidad de que estén previamente estructurados, requiriendo además de una menor intervención humana. No obstante, sus inconvenientes principales son que se necesita una cantidad mucho mayor de datos que los otros métodos de ML además de que, debido a su mayor complejidad, se requiere de más recursos informáticos, por lo que su costo se ve incrementado. Este es el motivo por el cual en la mayoría de los casos se opta por otros métodos que requieran un menor coste computacional, pero que a la vez permitan realizar la tarea deseada de forma eficiente. En lo que concierne a este trabajo, no se utilizarán enfoques basados en el Deep Learning debido a que los conjuntos de datos con los que se va a trabajar son reducidos, además de las limitaciones del hardware empleado. Sin embargo, se aplicarán algoritmos del ML que permitirán obtener resultados igualmente satisfactorios y con una simplicidad mucho mayor. Figura 2.11. Estructuración de los subconjuntos de la Inteligencia Artificial [15]. Dentro del ML existen dos grandes clasificaciones que dependen del método de aprendizaje que utilizan las máquinas para lograr interpretar los datos que se les proporciona como entrada, estas son el aprendizaje supervisado y el no supervisado. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 15 2.5.1 Aprendizaje supervisado Este es el método de aprendizaje más utilizado y, como su nombre indica, el aprendizaje no se realiza de forma totalmente autónoma por parte de la máquina, sino que el desarrollador le enseña los diferentes resultados que espera obtener. Dicho en otras palabras, las posibles salidas del algoritmo son conocidas. De esta manera, los datos utilizados para entrenar el modelo ya tienen que estar previamente etiquetados con las respuestas correctas. Lo que se logra con el aprendizaje supervisado es que, tras haber entrenado el modelo con muchos ejemplos, este sea capaz de proporcionar un resultado correcto al entregarle una muestra que no haya visto antes. En la Figura 2.12 se puede observar de manera intuitiva esta idea. Figura 2.12. Representación didáctica del aprendizaje supervisado [16]. El aprendizaje supervisado se puede dividir a su vez en dos grupos, la clasificación y la regresión. • Clasificación En este caso el resultado es un valor discreto denominado clase, y existe un número limitado de clases. Algunos de los algoritmos de clasificación son la regresión logística, los árboles de decisión, las máquinas de vectores de soporte y los K vecinos más cercanos. • Regresión Cuando el resultado es un número entre un rango continuo de valores. Por lo tanto, existirá una cantidad infinita de posibles resultados. Algunos de los algoritmos de regresión son la regresión lineal, los árboles de decisión y las máquinas de vectores de soporte. Memoria 16 2.5.2 Aprendizaje no supervisado A diferencia del aprendizaje supervisado, en el aprendizaje no supervisado la máquina tiene que aprender de forma autónoma con los datos que se le proporcionan como entrada. Es decir, en su proceso de entrenamiento no se le facilitan etiquetas o clases previamente definidas, sino que es la misma máquina la que tiene que comprender las características intrínsecas de los datos para poder agruparlos en diferentes conjuntos (Figura 2.13). Entre los métodos de aprendizaje no supervisado se pueden distinguir los algoritmos de agrupamiento (clustering) y de reducción de dimensionalidad. • Agrupamiento Con las técnicas de agrupamiento se pretende encontrar una estructura en los datos y conseguir agruparlos en diferentes conjuntos o clusters identificando las características similares entre estos. Algunos de los algoritmos de agrupación son K-medias, DBSCAN y Hierarchical Clustering. • Reducción de dimensionalidad Cuando tenemos un conjunto de datos con una cantidad de atributos excesivamente grande para cada muestra, se eleva la complejidad de las tareas que tienen que realizar los algoritmos de ML. Por este motivo es conveniente reducir la dimensión del conjunto de datos intentando mantener la mayor cantidad de información posible. Estos algoritmos entran en la categoría de aprendizaje no supervisado, sin embargo, es común aplicarlos como paso previo a la utilización de otros algoritmos de ML ya sean de aprendizaje supervisado o no supervisado. Algunos ejemplos son PCA, t-SNE e ICA. Figura 2.13. Representación didáctica del aprendizaje no supervisado [17]. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 17 3 Proyecto INESASSE El Proyecto INESASSE(Integración y Explotación de Sistemas de Autodiagnóstico y Supervisión de Salud Estructural en aviones no tripulados) tiene como objeto estudiar la de implantación, en condiciones operativas, de sistemas de supervisión estructural (SSE), utilizando redes de sensores de fibra óptica. La realización de este proyecto fue llevada a cabo por el INTA (Instituto Nacional de Técnica Aeroespacial) en colaboración con la ETSIAE (Escuela Técnica Superior de Ingeniería Aeronáutica y del Espacio) de la UPM. La primera fase de este proyecto se centró en la elaboración de un modelo de elementos finitos de la estructura y, mediante la simulación de distintos daños, se determinó la posición óptima de los sensores. Posteriormente, se fabricaron dos estructuras idénticas de material compuesto epoxi- carbono, incorporando a cada una de ellas una red de sensores en la disposición determinada en la primera fase. Entonces, a una de las dos estructuras se le realizaron varios ensayos en tierra, provocando de manera controlada los mismos daños estructurales simulados en la fase anterior. Son los datos obtenidos en estos ensayos los que se tomarán como punto de partida para la realización del presente trabajo. Finalmente, la estructura que no se usó para hacer los ensayos se integró en un UAV en operaciones de vuelo reales. El vehículo aéreo no tripulado en el que se fundamenta este proyecto es el UAV Milano (Figura 3.1), con 12,5 m de envergadura, 8,2 m de longitud y una autonomía de hasta 20 horas. Su masa en vacío es de 900 kg y tiene la capacidad de albergar hasta 150 kg de carga útil. Figura 3.1. UAV INTA Milano [18]. Memoria 18 3.1 Configuración de la estructura de estudio La estructura de material compuesto sobre la que se realizaron los ensayos se corresponde con el fuselaje posterior del UAV Milano, el cual se compone de las siguientes partes: • Revestimiento superior con dos largueros en L y refuerzos en las pestañas. • 4 cuadernas con refuerzos en las pestañas. • Revestimiento inferior con un larguero longitudinal en T dividido en dos y con refuerzos en las pestañas. Esta estructura tiene unas dimensiones aproximadas de 2600 x 850 x 890 mm. En la Figura 3.2 se muestra una vista explosionada de la misma. Figura 3.2. Vista explosionada del fuselaje posterior del UAV Milano [11]. En toda la superficie de la estructura se incorporaron dos redes de sensores de fibra óptica, una de sensores FBG y la otra de sensores de medida distribuida OBR. En el caso de los sensores de medida distribuida, como permiten realizar mediciones continuas, se ubicaron a lo largo del revestimiento superior e inferior. En la Figura 3.3 se observa su disposición, en la que cuatro líneas de sensores se ubican en el revestimiento inferior y tres en el revestimiento superior. Estas imágenes se corresponden con el modelo de elementos finitos, y se pueden ver indicadas las líneas de sensores con una flecha en la que se muestra su posición dentro del modelo. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 19 Es importante destacar que los sensores de medida distribuida reales están constituidos por un solo cable de fibra óptica. Por lo tanto, para ubicarlos en diferentes líneas, tal y como se propone en el modelo de elementos finitos, al final de cada línea la fibra cambiará de dirección describiendo una trayectoria curva. El radio de esta curva será lo suficientemente grande como para mantener la continuidad de la fibra. Figura 3.3. Posicionamiento de los sensores de medida distribuida [19]. En la Figura 3.4 se observan los sensores ya incorporados en la estructura. Para posicionarlos, primero se trazaron con un lápiz de color blanco las líneas de referencia y, una vez adherida la fibra óptica a lo largo de estas líneas, se protegió con cinta azul. Finalmente, se soldó el extremo inicial de la fibra óptica con el conector del dispositivo de interrogación OBR 4600 (la información referente al instrumento se puede consultar en [20]). Figura 3.4. Fuselaje posterior del UAV Milano con los sensores de medida distribuida ya integrados [11]. Memoria 20 3.2 Planteamiento de los daños En este apartado se van a definir los distintos daños que se plantearon tanto en las simulaciones del modelo como en los ensayos de la estructura real. Estos daños se corresponden con desencolados entre distintos componentes de la estructura, los cuales se pueden apreciar en la Figura 3.5 identificados de color rojo. Cabe destacar que cada uno de estos daños se va a realizar de manera independiente, evaluando en cada ensayo la respuesta de la estructura al aplicar solamente uno de estos daños. Adicionalmente, también se incluirá un ensayo con los daños 1 y 4 provocados conjuntamente. Las características de cada uno de estos daños se pueden consultar en la Tabla 3.1. Figura 3.5. Planteamiento de los daños en la estructura [11]. Tabla 3.1. Descripción de los daños realizados sobre la estructura a analizar [11]. Daño Tipo de daño Elementos afectados Longitud (mm) D1 Desencolado parcial del pie de la cuaderna Cuaderna 2 y revestimiento inferior 450 D2 Desencolado parcial de la pestaña superior de la cuaderna Cuaderna 3 y revestimiento superior 350 D3 Desencolado parcial de la pestaña lateral de la cuaderna Cuaderna 4 y revestimiento superior 180 D4 Desencolado parcial entre el revestimiento inferior y el revestimiento superior Revestimiento inferior y revestimiento superior 900 Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 21 3.3 Campaña de ensayos Los ensayos realizados sobre la estructura de estudio se centraron en someter la estructura a una carga concreta y medir las microdeformaciones producidas al simular, para cada tipo de daño descrito en el apartado anterior, una cierta longitud de desencolado. Es decir, se simularon distintos porcentajes de desencolado para cada tipo daño, de forma que, la longitud de desencolado se aumentó progresivamente hasta llegar a la longitud máxima, que es la que se puede ver en la Tabla 3.1. Para simular estos desencolados, en lugar de unir los componentes de la estructura con adhesivo, se optó por usar remaches. De este modo, para simular una longitud de desencolado concreta simplemente se tendría que extraer un número concreto de remaches, lo cual simplificaba en gran medida el proceso. Así, dependiendo del número de remaches extraídos se conseguiría un porcentaje concreto de desencolado. En las Figuras 3.6 y 3.7 se observa la configuración de los ensayos, donde el extremo de la estructura donde está la cuaderna 1 se encuentra empotrada, mientras que al otro extremo se le aplica una carga estática. Esta carga se irá aumentando progresivamente hasta llegar a un máximo de 4 kN. Figura 3.6. Configuración de los ensayos [21]. La secuencia de ensayos se puede consultar en Tabla A.1 del Anexo A, no obstante, a continuación se describirá el proceso seguido en estos ensayos. En primer lugar, se realiza un ensayo de la estructura sin ningún daño para distintos porcentajes de carga de forma ascendente, desde el 20% hasta el 100%, donde el 100% son 4 kN. Primeramente, se realiza un ensayo con el 20% de carga, luego con el 40%, y a partir de aquí en cada ensayo se aumenta Memoria 22 un 10% hasta llegar al 100%. Cada vez que se aplica un porcentaje de carga distinto se efectúa una medición, por lo tanto, se considera como un ensayo distinto. A continuación, en la ubicación del daño D1, se extraen 3 remaches, simulando un desencolado aproximado del 21% respecto la longitud total del daño D1. Con esta cantidad de remaches extraídos se aplican los mismos porcentajes de carga que en los ensayos sin daño. Seguidamente, se hace lo mismo para 7 remaches extraídos, luego con 11 y finalmentecon 15, el cual es el número de remaches que abarca la longitud máxima de desencolado del daño D1. Esta es la parte de la campaña de ensayos referente al daño D1, ahora pasamos a los ensayos de los daños D1 y D4 realizados a la vez. A partir de ahora, los daños D1 y D4 realizados de forma conjunta pasarán a llamarse daño D1+D4. En el caso del daño D1, todos los remaches estarán siempre extraídos, mientras que en el caso del daño D4 se extraerán progresivamente 6, 15, 23 y 31 remaches. Como siempre, para cada número de remaches extraídos se efectuará un ensayo para cada porcentaje de carga aplicada. Una vez finalizados los ensayos del daño D1+D4 se pasará a los ensayos del daño D4. De este modo se reparará por completo el daño D1 y se harán ensayos del daño D4 con 31, 23, 15 y 6 remaches extraídos en este orden, ya que los ensayos del daño D1+D4 se terminaron con 31 remaches extraídos del daño D4. Seguidamente se repara por completo el daño D4, por lo que la estructura vuelve a estar sin ningún daño. A continuación, se vuelven a realizar ensayos para la estructura sin daño para cada porcentaje de carga. Figura 3.7. Visión general de la configuración de los ensayos [21]. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 23 Finalmente, se realizan los ensayos referentes al daño D2 extrayendo 3, 6, 9 y 11 remaches en este orden con la misma progresión de cargas que en todos los otros ensayos. Para terminar, se repara el daño por completo y se vuelve a hacer, para cada porcentaje de carga, un ensayo de la estructura sin daño. Nótese que no se ha nombrado en ningún momento el daño D3. Esto es debido a que para este daño únicamente se realizó un ensayo con 3 remaches extraídos y para una única carga del 100%. En consecuencia, dada la imposibilidad de poder realizar un estudio crítico con un solo ensayo, para la realización de este proyecto no sea tenido en cuenta el daño D3. Así mismo, tampoco se han considerado ciertos ensayos puntuales efectuados para los daños D1 y D1+D4 donde, para un número determinado de remaches extraídos, solamente se aplicó una carga del 100% en lugar de la progresión usual del 20% al 100% de la carga máxima. A modo de resumen, en este trabajo se utilizarán los datos obtenidos de los ensayos referentes a los daños D1, D2, D4 y D1+D4, juntamente con los datos de los ensayos de la estructura sin ningún daño. Memoria 24 4 Métodos empleados Para desarrollar la metodología que nos permitirá detectar y clasificar los distintos daños planteados en el apartado 3.2 se emplearán distintos métodos de ML. A continuación, se procederá a describir cada uno de ellos. 4.1 Análisis de componentes principales El análisis de componentes principales o Principal Component Analysis (PCA) es uno de los algoritmos de aprendizaje automático no supervisado más utilizados. Para explicar este método, una forma práctica es imaginarnos un conjunto de individuos provenientes de 4 poblaciones distintas, cada uno de los cuales tiene 3 atributos que se pueden cuantificar numéricamente. Con la finalidad de estudiar estos individuos generamos una matriz de datos donde cada fila hace referencia a uno de los individuos y cada columna describe uno de sus atributos. Si queremos saber de cuantas poblaciones proceden los individuos, una opción sería representar cada uno de estos individuos en función de dos de sus atributos, obteniendo un diagrama en dos dimensiones. Si suponemos que el gráfico de la Figura 4.1 es una representación de los individuos en función de sus tres atributos, si por ejemplo los representáramos en función de los atributos 2 y 3, no se observarían agrupaciones de individuos separadas entre sí, por lo que no se podría saber de cuantas poblaciones distintas provienen estos individuos. Si los representáramos en función de otros dos atributos, podría ser que distinguiéramos alguna separación entre algunos conjuntos de datos, pero lo más probable es que no pudiéramos ver 4 agrupaciones separadas referentes a cada una de las poblaciones. Figura 4.1. Representación de los datos en función de sus atributos originales [22]. A tr ib u to 3 Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 25 Lo que nos permitiría la técnica del PCA sería escoger un nuevo sistema de coordenadas para el cual la separación entre estos datos fuera máxima. En otras palabras, con los nuevos ejes generados con esta técnica, maximizaríamos la varianza del conjunto de datos. Para poder realizar esta tarea, primeramente, mediante un sistema iterativo, se encuentra el eje con el cual la varianza es máxima. Este eje se llamará PC1. Posteriormente, se encontrará otro eje ortogonal al primero con la segunda varianza mayor, pasándose a llamar PC2. De esta forma, si hacemos un cambio de base y representamos los individuos sobre estos nuevos ejes (ver Figura 4.2), ya podremos distinguir los cuatro conjuntos de datos referentes a cada población. Figura 4.2. Representación de los datos en función de las dos componentes principales del PCA [22]. En este caso concreto, al solamente tener tres atributos, con una representación en tres dimensiones fácilmente habríamos podido distinguir los cuatro conjuntos. No obstante, en la realidad podemos tener matrices de datos con cientos de atributos para cada individuo, por lo que una representación gráfica en 2 o 3 dimensiones no es una opción viable. Lo que nos ofrece la técnica del PCA es pasar de tener una gran cantidad de atributos (de entre los que no podemos distinguir cuáles realmente nos aportan información para separar en grupos los individuos) a tener un número inferior de atributos “artificiales” llamados componentes principales y que han sido creados a partir de los atributos reales, con la ventaja añadida de que están ordenados de mayor a menor varianza. Estas componentes principales son fruto de realizar el cambio de base de los datos originales a los nuevos ejes. De esta manera, solamente preservando las primeras componentes principales podemos tener una nueva matriz de datos significativamente más reducida y conservando la mayor parte de la información de la matriz original. 4.2 K vecinos más cercanos El algoritmo K vecinos más cercanos o K-Nearest Neighbors (KNN) es un método basado en distancias que se encuentra dentro de la categoría del aprendizaje supervisado. Este algoritmo es usado principalmente para tareas de clasificación, sin embargo, también existe una variante para la regresión. Memoria 26 A la hora de aplicar este algoritmo, en primer lugar, se le pasará un conjunto de muestras previamente clasificadas, indicando a que clase pertenece cada muestra. Seguidamente se introducirá un nuevo dato para que el algoritmo lo clasifique. Para realizar esta clasificación, el algoritmo calculará la distancia entre este nuevo valor y las muestras que ya tenía almacenadas, seleccionando un número de K vecinos más cercanos. Este valor de K es un hiperparámetro que se le tiene que introducir externamente. Finalmente, de entre las K muestras más cercanas, el algoritmo determinará cuál es la clase mayoritaria y se le asignará dicha clase a la nueva muestra. En la Figura 4.3 se observa un ejemplo para un conjunto de datos con dos dimensiones, sin embargo, el algoritmo puede trabajar non el número de dimensiones deseado. No obstante, al aumentar el número de dimensiones, la complejidad del modelo también aumenta, incrementando el coste computacional. Figura 4.3. Representación gráfica del funcionamiento del algoritmo K vecinos más cercanos [23]. En este proyecto se usará el clasificador KNN con la distancia de Minkowski (Ec. 4.1) con el parámetro p=2. Por lo tanto, la distancia usada será equivalente a la distancia euclídea. (∑|𝑥𝑖 − 𝑦𝑖|𝑝 𝑛 𝑖=1 )1 𝑝 (Ec. 4.1) Donde 𝑋 = (𝑥1, 𝑥2, … , 𝑥𝑛) y 𝑌 = (𝑦1, 𝑦2, … , 𝑦𝑛) son dos puntos. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 27 4.3 Validación cruzada A la hora de evaluar un modelo de ML, el primer paso es dividir aleatoriamente el conjunto de datos inicial en un subconjunto para entrenar el modelo y otro para validarlo. En el caso del KNN, el subconjunto de entrenamiento sería el conjunto de muestras ya clasificadas que le proporcionamos al modelo, y el conjunto de validación serían las muestras nuevas que le introducimos al modelo para que las clasifique. Una vez el modelo ha clasificado todas las muestras de validación, se evalúa el desempeño del modelo con la métrica deseada, un ejemplo sería calculando el porcentaje de aciertos. Esta métrica se conoce como exactitud o accuracy. El problema aquí es que, si se volviera a separar aleatoriamente el conjunto de datos inicial en los subconjuntos de entrenamiento y validación y se repitiese el mismo proceso, el porcentaje de aciertos sería distinto. Esto se debe a que los subconjuntos con los que se ha entrenado y evaluado el modelo no serían los mismos que antes. Por lo tanto, no podríamos determinar cuál es el desempeño real del modelo. El concepto de validación cruzada surge al aplicar esta misma idea, pero de manera iterativa. Una de las variantes más conocidas de la validación cruzada es el K-Fold. Con este método, todo el conjunto de datos es dividido en un número K de subconjuntos y, en la primera iteración, se utilizarán todos los subconjuntos menos uno (K-1) para entrenar el modelo, dejando el subconjunto restante para evaluarlo (Figura 4.4). En la segunda iteración se hará lo mismo, pero con un conjunto de validación distinto. Este proceso se realizará tantas veces como subconjuntos tengamos. Es decir, se realizarán K iteraciones. Para evaluar el modelo se hará la media de las exactitudes obtenidas en cada iteración. De esta manera se consigue un resultado con una mayor independencia de los subconjuntos de entrenamiento y validación. Figura 4.4. Validación cruzada K-Fold con K=4 [24]. Memoria 28 Otra variante conocida es la validación cruzada dejando uno fuera o Leave-One-Out Cross-Validation (LOOCV). Con este método, en vez de tener un subgrupo de muestras para la validación, solamente se realiza la validación con una muestra, dejando todas las otras para el entrenamiento (Figura 4.5). En este caso, en cada iteración se usa una muestra distinta para la validación, por lo tanto, el número de iteraciones será igual al número de muestras. Este método elimina por completo la variabilidad que obtendríamos al realizar la validación dividiendo en dos el conjunto inicial de forma aleatoria. La desventaja de este método es que, debido al número de iteraciones que tiene que realizar, el coste computacional es más elevado que el K-Fold. Figura 4.5. Validación cruzada LOOCV [24]. La validación cruzada también es de gran utilidad a la hora de ajustar el modelo. En el caso del KNN, si quisiéramos determinar el valor óptimo de K vecinos, podríamos evaluar el modelo mediante la validación cruzada para distintos valores de K vecinos y así poder ver como varía la exactitud del modelo una función del número de K vecinos. Así, una vez tuviéramos el modelo con el número K ajustado, podríamos testear el modelo en el mundo real con otro conjunto. Este conjunto se conoce como conjunto de prueba o Test. 4.4 Matriz de confusión Cuando queremos evaluar el resultado de un algoritmo de aprendizaje supervisado al clasificar datos ya sean del conjunto de validación o de Test, una herramienta ampliamente utilizada es la matriz de confusión. La matriz de confusión nos permite conocer el desempeño del modelo de una forma visual, ubicando en cada columna de la matriz las muestras de cada clase que el algoritmo ha predicho, y en cada fila las muestras de las clases reales. En la Figura 4.6 se muestra un ejemplo de matriz de confusión con las clases definidas en este estudio. Estas clases se corresponden con los daños D1, D2, D4 y D1+D4, Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 29 junto con otra clase que se corresponde con la estructura sin ningún daño, la cual se le llamará Und (del inglés, Undamaged). Figura 4.6. Ejemplo de una matriz de confusión. Si nos fijamos en una clase concreta, en la matriz de confusión se pueden observar 4 resultados distintos. • Verdadero positivo (VP) El algoritmo predijo que la muestra pertenecía una clase y realmente sí que pertenecía. • Verdadero negativo (VN) El algoritmo predijo que la muestra no pertenecía una clase y realmente no pertenecía. • Falso positivo (FP) El algoritmo predijo que la muestra pertenecía una clase y realmente no pertenecía. • Falso negativo (FN) El algoritmo predijo que la muestra no pertenecía una clase y realmente sí que pertenecía. En el caso de la Figura 4.6, si nos fijamos en la clase D1, los resultados serían los siguientes: • Verdadero positivo (VP) = 3 • Verdadero negativo (VN) = 2 + 3 + 4 + 1 + 0 x 12 = 10 • Falso positivo (FP) = 2 + 0 + 0 + 0 = 2 • Falso negativo (FN) = 0 + 0 + 0 + 0 = 0 Memoria 30 4.4.1 Métricas Para evaluar el modelo se pueden usar distintas métricas, las cuales se calculan con los distintos resultados de la matriz de confusión que se acaban de ver. En este trabajo se usará la exactitud (accuracy), la precisión (precision) y la exhaustividad (recall), las cuales se obtienen a partir de las ecuaciones 4.2, 4.3 y 4.4 respectivamente. La exactitud es igual al porcentaje total de aciertos. 𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 = 𝑉𝑃 + 𝑉𝑁 𝑉𝑃 + 𝑉𝑁 + 𝐹𝑃 + 𝐹𝑁 (Ec. 4.2) La precisión es igual a la cantidad de aciertos de una clase en particular respecto al número total de muestras que se predijeron que eran de esta misma clase. 𝑃𝑟𝑒𝑐𝑖𝑠𝑖ó𝑛 = 𝑉𝑃 𝑉𝑃 + 𝐹𝑃 (Ec. 4.3) La exhaustividad es igual a la cantidad de aciertos de una clase en particular respecto al número total de muestras que realmente pertenecían a esta misma clase. 𝐸𝑥ℎ𝑎𝑢𝑠𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑉𝑃 𝑉𝑃 + 𝐹𝑁 (Ec. 4.4) La exactitud se calcula a partir de todo el conjunto de resultados completo, sin embargo, la precisión y la exhaustividad son métricas que se calculan para cada clase en particular. Por lo tanto, si se quiere evaluar el valor de la precisión y la exhaustividad para todo el conjunto de resultados completo, se debe hacer una media del valor obtenido en cada clase. En este trabajo se utilizará la media ponderada con el número de muestras reales de cada clase. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 31 5 Metodología empleada En este apartado se describirá la metodología desarrollada para la detección y clasificación de los distintos daños planteados para la estructura de estudio. Todo el código necesario para poner en práctica esta metodología se encuentra en los Anexos B, C, D, E y F. Para obtener los datos que se utilizarán como punto de partida para este estudio se estableció una longitud total de sensores de fibra óptica de 20 m de longitud y con una cantidad total de 1800 sensores. Mediante estos sensores se midieron las microdeformaciones producidas en la estructura para cada ensayo. Es fundamental tener en cuenta que estos sensores solo realizan medidas unidireccionalmente, es por este motivo que todas las líneas de sensores se colocaron en la dirección del eje longitudinal de la estructura. Es también por este motivo que las mediciones referentes a los tramos donde la fibra describe una trayectoria curva tienen que ser eliminadas. Como ya se ha explicado en el apartado 3.1, estos tramos curvos se encuentran en la unión de dos tramos en línearecta. En consecuencia, los datos presentan discontinuidades en estos tramos, lo que reduce el número de sensores útiles a 1499. No obstante, este hecho no supone ningún problema, ya que esta cantidad de sensores sigue siendo elevada. 5.1 Datos iniciales El primer paso que se va a realizar será hacer una visualización general de los datos. Inicialmente, los datos que nos han sido facilitados están divididos en 4 archivos Excel, uno para cada tipo de daño. Por lo tanto, el primer paso será importar los archivos y convertirlos a dataframe. En la Tabla 5.1 se puede observar el dataframe correspondiente al daño D1. Tabla 5.1. Dataframe inicial de los datos correspondientes al daño D1. Memoria 32 Lo primero que se puede observar en este conjunto de datos es que tiene 1499 filas y 41 columnas. Cada fila hace referencia a uno de los 1499 sensores, y la posición en metros de cada uno de ellos dentro del cable de fibra óptica se indica en la primera columna. Por otro lado, las 40 columnas restantes representan cada uno de los ensayos. Cada columna tiene 1499 celdas con el valor de las microdeformaciones producidas en todos los puntos donde se encontraba un sensor. El orden de los ensayos en el dataframe es el mismo que el que se expuso en el apartado referente a la campaña de ensayos, teniendo en cuenta que en las primeras columnas se encuentran los ensayos de la estructura sin daño para cada porcentaje de carga. Así, la columna “Und_20%” significa que la estructura no tiene daño (Undamaged) y se le aplica una carga del 20%, y la columna “15_rivets_70%” significa que hay 15 remaches extraídos y se le aplica una carga del 70%. En el caso de los otros daños, la ordenación de las columnas sigue el mismo patrón, teniendo en cuenta que para los daños D2 y D4 los ensayos sin daño que se muestran son los que se realizaron tras reparar la estructura (ver Tabla A.1 del Anexo A). En el caso del daño D1+D4, como no se reparó la estructura ni antes ni después de la extracción de los remaches, las primeras 8 columnas son las mismas que las del dataframe del daño D1. En el Anexo B se pueden observar los dataframes de cada uno de los daños, así como las gráficas para cada daño y número de remaches extraídos. En la Figura 5.1 se puede ver la representación gráfica de las microdeformaciones medidas al provocar el daño D1 de forma competa en la estructura (es decir, extrayendo 15 remaches). Cada color representa un ensayo para una carga concreta. Figura 5.1. Campo de deformaciones de la estructura con daño D1 y 15 remaches extraídos. Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 33 En la Figura 5.1 se observa que las series de datos están divididas en siete secciones, en donde las cuatro primeras secciones presentan valores positivos de deformación y las otras tres tienen valores negativos. Esto es debido a que las cuatro primeras secciones (desde 2 hasta 12 m) se corresponden con las cuatro líneas de medida distribuida del revestimiento inferior, mientras que las otras tres (desde 12 hasta 20 m) se corresponden con las tres líneas de medida distribuida del revestimiento superior. Por lo tanto, como el revestimiento inferior está sometido a esfuerzos de tracción, las deformaciones medidas por los sensores tendrán valores positivos, y lo opuesto ocurre con el revestimiento superior, que está sometido a esfuerzos de compresión. Así mismo, los valores faltantes entre cada una de las secciones se corresponden con los tramos donde la fibra presentaba una trayectoria curva. Estos valores ya fueron eliminados antes de que se facilitaran los datos para realizar este trabajo. Idealmente, los gráficos para cada daño y número de remaches extraídos deberían tener un aspecto como el de la Figura 5.1, sin embargo, debido a la rotura de la fibra durante la extracción de remaches próximos a esta, en algunos ensayos se obtuvieron mediciones como las que se observan la Figura 5.2. De este modo, se procederá a efectuar un preprocesamiento de los datos. Figura 5.2. Campo de deformaciones de la estructura sin daño tras la reparación del daño D2. Memoria 34 5.2 Preprocesamiento Para empezar con el preprocesamiento de los datos primeramente comprobaremos que no hay valores nulos. Tras esta comprobación se observa que, en los ensayos de la estructura sin daño después de la reparación del daño D4, para las cargas del 50% y 70% no existe ninguna medición. Para poder completar estas dos columnas se aplica la relación de linealidad entre las microdeformaciones y la carga aplicada, la cual se demuestra en [11]. Esta relación implica que, para un daño y un número de remaches determinado, si se miden las deformaciones en un punto en concreto de la estructura, estas aumentan de manera lineal con la carga aplicada. En la Figura 5.3 se observa la evolución de las microdeformaciones en dos sensores, uno situado en el revestimiento inferior y otro en el revestimiento superior. Figura 5.3. Comprobación de linealidad para los sensores ubicados a 11 m y 14 m [11]. Por lo tanto, cada una de las dos columnas vacías se rellenará con datos generados mediante una interpolación lineal usando las columnas contiguas. Para la carga del 50% se usarán las columnas del 40% y 60%, y para la carga del 70% se usarán las columnas del 60% y 80%. Ahora que ya no existen valores nulos en ninguno de los dataframes, se procederá a tratar los valores atípicos. Al observar las gráficas del Anexo B se puede apreciar como en todas las gráficas del daño D2 hay valores atípicos, algunos de ellos son puntuales y tienen un valor absoluto muy distante de la media, y otros aparecen de forma repetida a lo largo de una longitud concreta y presentan un valor absoluto muy cercano de la media. Para tratar los valores atípicos puntuales, el procedimiento a seguir será descartar todos los valores que sean 3 veces mayores a la desviación estándar respecto de la media. Adicionalmente, para evitar tener valores nulos en el dataframe se rellenarán estos vacíos con Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 35 el valor del sensor inmediatamente anterior. Por otro lado, en el caso de los valores atípicos que se presentan a lo largo de una cierta longitud, se observa como solo aparecen en los ensayos con el 70% de carga. Sin embargo, no basta con eliminarlos, ya que, en el mismo tramo de longitud, el resto de las medidas del mismo ensayo también presentan ruido. De esta manera, en todos los ensayos con una carga aplicada del 70% se realizará una interpolación lineal en toda la longitud afectada. Es importante comentar que en los ensayos del daño D2 con 6 remaches extraídos, aparte de presentar valores atípicos, las medidas no cumplían el principio de linealidad entre las microdeformaciones y la carga aplicada debido a una mala práctica a la hora de realizar estos ensayos. Por este motivo se tuvo que descartar toda esta secuencia de ensayos. En este momento ya tenemos todos los conjuntos de datos sin valores nulos ni valores atípicos, sin embargo, en una de las gráficas se observan una serie de picos inusuales al final de cada sección. Esta es la gráfica correspondiente al daño D1 con 11 remaches extraídos, y se puede ver en la Figura 5.4. Si se observan detenidamente se puede ver que estos picos no son fruto de errores en los ensayos, más bien son errores a la hora de eliminar los datos de las trayectorias curvas de la fibra entre cada sección. En la gráfica se observa que los datos de los ensayos con cargas del 50% hasta el 100% están desplazados hacia la izquierda. Las únicas series de datos correctas son las del 20% y 40% de carga. Figura 5.4. Campo de deformaciones de la estructura con daño D1 y 11 remaches extraídos. Para solucionar este problema se optó por
Compartir