Logo Studenta

TFG_MASCARÓ_JANER_DAVID

¡Este material tiene más páginas!

Vista previa del material en texto

TRABAJO DE FINAL DE GRADO 
Grado en Ingeniería Eléctrica 
MONITORIZACIÓN DE ESTRUCTURAS AERONÁUTICAS 
UTILIZANDO UNA RED DE SENSORES DISTRIBUIDOS DE 
FIBRA ÓPTICA 
 
 
Memoria y Anexos 
 
 
Autor: David Mascaró Janer 
Director: Luis Eduardo Mujica Delgado 
Co-Directora: Magda Liliana Ruiz Ordoñez 
Convocatoria: Junio 2022 
 
 
 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 i 
Resumen 
El presente trabajo se centra en el desarrollo de una metodología enfocada a la monitorización de 
estructuras aeronáuticas utilizando una red de sensores de fibra óptica OBR. Este trabajo tomará como 
punto de partida los ensayos que se llevaron a cabo en el proyecto INESASSE (Integración y Explotación 
de Sistemas de Autodiagnóstico y Supervisión de Salud Estructural en aviones no tripulados), donde se 
aplicaron una serie de cargas sobre el fuselaje posterior de la aeronave UAV Milano, fabricada 
íntegramente de material compuesto epoxi-carbono. A lo largo de toda la estructura se incorporó una 
red de sensores de medida distribuida OBR de 20 m de longitud, la cual se encargaría de medir las 
microdeformaciones producidas en la estructura al aplicar una carga determinada. 
Para la realización de los ensayos se simularon una serie de daños en distintos puntos de la estructura, 
y mediante la red de sensores se obtuvieron los datos de la estructura para cada tipo de daño y para 
la estructura sin ningún daño. 
Con estos datos obtenidos de los sensores se desarrollará la metodología para detectar la existencia 
de alguno de los distintos daños planteados y determinar su ubicación y magnitud en caso afirmativo. 
Para ello, primeramente, se realizará un preprocesamiento del conjunto de datos inicial. 
Seguidamente, se efectuará una estandarización de los mismos y se reducirá la dimensión del conjunto 
de datos mediante la técnica del análisis de componentes principales (PCA, por sus siglas en inglés). 
Finalmente, se aplicará el algoritmo de clasificación KNN (o K vecinos más cercanos), el cual se ajustará 
y se evaluará con la técnica de validación cruzada K-Fold. 
Tras la evaluación del modelo se observó cómo, con esta metodología, se consiguió detectar si la 
estructura sufría alguno de los daños planteados con una exactitud del 100%, además de determinar 
la ubicación del daño con una exactitud del 99% y su magnitud con una exactitud del 91%. 
 
 Memoria 
ii 
Resum 
El present treball se centra en el desenvolupament d'una metodologia enfocada al monitoratge 
d'estructures aeronàutiques utilitzant una xarxa de sensors de fibra òptica OBR. Aquest treball prendrà 
com a punt de partida els assajos que es van dur a terme en el projecte INESASSE (Integració i 
Explotació de Sistemes d'Autodiagnòstic i Supervisió de Salut Estructural en avions no tripulats), on es 
van aplicar una sèrie de càrregues sobre el fuselatge posterior de l'aeronau UAV Milano, fabricada 
íntegrament de material compost epoxi-carboni. Al llarg de tota l'estructura es va incorporar una xarxa 
de sensors de mesura distribuïda OBR de 20 m de longitud, la qual s'encarregaria de mesurar les 
microdeformacions produïdes en l'estructura en aplicar una càrrega determinada. 
Per la realització dels assajos es van simular una sèrie de danys en diferents punts de l'estructura, i 
mitjançant la xarxa de sensors es van obtenir les dades de l'estructura per cada tipus de dany i per 
l'estructura sense cap dany. 
Amb aquestes dades obtingudes dels sensors es desenvoluparà la metodologia per detectar 
l'existència d'algun dels diferents danys plantejats i determinar la seva ubicació i magnitud en cas 
afirmatiu. Per això, primerament, es realitzarà un preprocessament del conjunt de dades inicial. 
Seguidament, s'efectuarà una estandardització i es reduirà la dimensió del conjunt de dades mitjançant 
la tècnica de l'anàlisi de components principals (PCA, per les seves sigles en anglès). Finalment, 
s'aplicarà l'algoritme de classificació KNN (o K veïns més pròxims), el qual s'ajustarà i s'avaluarà amb la 
tècnica de validació creuada K-Fold. 
Després de l'avaluació del model es va observar com, amb aquesta metodologia, es va aconseguir 
detectar si l'estructura sofria algun dels danys plantejats amb una exactitud del 100%, a més de 
determinar la ubicació del dany amb una exactitud del 99% i la seva magnitud amb una exactitud del 
91%. 
 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 iii 
Abstract 
This work focuses on the development of a methodology for the monitoring of aeronautical structures 
using an OBR fibre optic sensor network. This work will take as a starting point the tests carried out in 
the INESASSE project, where a series of loads were applied on the rear fuselage of the UAV Milano 
aircraft, made entirely of epoxy-carbon composite material. A 20 m long network of OBR distributed 
measurement sensors was incorporated throughout the structure to measure the micro-deformations 
produced in the structure when a given load was applied. 
In order to carry out the tests, a series of damages were simulated at different points of the structure, 
and the sensor network was used to obtain the data of the structure for each type of damage and for 
the structure without any damage. 
With this data obtained from the sensors, a methodology will be developed to detect the existence of 
any of the different types of damage and to determine their location and magnitude, if any. To do this, 
firstly, a pre-processing of the initial data set will be carried out. Next, the data will be standardised 
and the size of the dataset will be reduced using the principal component analysis (PCA) technique. 
Finally, the KNN (or K-Nearest Neighbours) classification algorithm will be applied, adjusted and 
evaluated with the K-Fold cross-validation technique. 
After the evaluation of the model, it was observed how, with this methodology, it was possible to 
detect whether the structure suffered any of the proposed damages with an accuracy of 100%, in 
addition to determining the location of the damage with an accuracy of 99% and its magnitude with 
an accuracy of 91%. 
 Memoria 
iv 
Agradecimientos 
Quisiera transmitir mi más sincero agradecimiento a todos aquellos que me han ayudado a lo largo de 
esta etapa y han contribuido tanto de manera directa como indirecta a la confección de este Trabajo 
de Fin de Grado. 
En primer lugar, agradezco a Luis Eduardo Mujica y a Magda Ruiz por su ayuda en la planificación, 
organización y elaboración de este proyecto. Gracias a su aporte de conocimiento y su implicación en 
todo el proceso, ha sido posible convertir este Trabajo de Fin de Grado en una experiencia 
enriquecedora tanto a nivel personal como académico. 
En segundo lugar, agradezco a mi familia por su apoyo y motivación durante toda la carrera, así como 
por todo el amor y la educación que me han proporcionado para seguir siempre adelante y aprender 
de todas las facetas de la vida. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 v 
Glosario 
 
DBSCAN: Density-Based Spatial Clustering of Applications with Noise 
 
ETSIAE: Escuela Técnica Superior de Ingeniería Aeronáutica y del Espacio 
 
FBG: Fiber Bragg Grating 
 
IA: Inteligencia Artificial 
 
ICA: Independent Component Analysis 
 
INESASSE: Integración y Explotación de Sistemas de Autodiagnóstico y Supervisión de Salud 
Estructural en aviones no tripulados 
 
INTA: Instituto Nacional de Técnica Aeroespacial 
 
KNN: K-Nearest Neighbors 
 
LOOCV: Leave-One-Out Cross-Validation 
 
ML: Machine Learning 
 
NDT: Non-Destructive Testing 
 
OBR: Optical Backscatter Reflectometry 
 
OFDR: Optical Frequency-Domain Reflectometry 
 
PCA: Principal Component Analysis 
 
SHM: Structural Health Monitoring 
 
SHMS: Structural HealthMonitoring Systems 
 
SSE: Sistemas de Supervisión Estructural 
 
t-SNE: t-Distributed Stochastic Neighbor Embedding 
 
UAV: Unmanned Aerial Vehicle 
 
UPC: Universidad Politécnica de Cataluña 
 
UPM: Universidad Politécnica de Madrid 
 Memoria 
vi 
Índice 
 
RESUMEN ___________________________________________________________ I 
RESUM _____________________________________________________________ II 
ABSTRACT __________________________________________________________ III 
AGRADECIMIENTOS __________________________________________________ IV 
GLOSARIO __________________________________________________________ V 
1 INTRODUCCIÓN _________________________________________________ 1 
1.1 Motivación ............................................................................................................... 2 
1.2 Objetivos del trabajo ............................................................................................... 2 
2 ESTADO DEL ARTE _______________________________________________ 3 
2.1 Structural Health Monitoring .................................................................................. 3 
2.2 SHM en estructuras aeronáuticas ........................................................................... 4 
2.3 Sensores de medida distribuida .............................................................................. 7 
2.4 Daños en materiales compuestos ......................................................................... 10 
2.5 Inteligencia Artificial y Machine Learning ............................................................. 13 
2.5.1 Aprendizaje supervisado ....................................................................................... 15 
2.5.2 Aprendizaje no supervisado ................................................................................. 16 
3 PROYECTO INESASSE ____________________________________________ 17 
3.1 Configuración de la estructura de estudio ............................................................ 18 
3.2 Planteamiento de los daños .................................................................................. 20 
3.3 Campaña de ensayos ............................................................................................. 21 
4 MÉTODOS EMPLEADOS __________________________________________ 24 
4.1 Análisis de componentes principales .................................................................... 24 
4.2 K vecinos más cercanos ......................................................................................... 25 
4.3 Validación cruzada ................................................................................................. 27 
4.4 Matriz de confusión ............................................................................................... 28 
4.4.1 Métricas ................................................................................................................ 30 
5 METODOLOGÍA EMPLEADA _______________________________________ 31 
5.1 Datos iniciales ........................................................................................................ 31 
5.2 Preprocesamiento ................................................................................................. 34 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 vii 
5.3 Análisis de componentes principales .................................................................... 38 
5.3.1 Estandarización de los datos ................................................................................ 39 
5.3.2 Creación e implementación del modelo PCA ...................................................... 45 
5.4 Aplicación del algoritmo KNN ................................................................................ 48 
5.5 Validación cruzada ................................................................................................. 50 
6 RESULTADOS __________________________________________________ 51 
7 ANÁLISIS DEL IMPACTO AMBIENTAL _______________________________ 60 
CONCLUSIONES _____________________________________________________ 62 
PRESUPUESTO ______________________________________________________ 64 
BIBLIOGRAFÍA ______________________________________________________ 65 
ANEXO A: SECUENCIA DE ENSAYOS _____________________________________ 68 
ANEXO B: DATOS INICIALES ___________________________________________ 69 
ANEXO C: PREPROCESAMIENTO ________________________________________ 82 
ANEXO D: ANÁLISIS DE COMPONENTES PRINCIPALES ______________________ 88 
ANEXO E: APLICACIÓN DEL ALGORITMO KNN _____________________________ 91 
ANEXO F: VALIDACIÓN CRUZADA ______________________________________ 92 
 
 
 
 
 
 
 
 
 
 Memoria 
viii 
 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 1 
1 Introducción 
Actualmente, para garantizar la integridad y seguridad de estructuras aeronáuticas tales como las 
aeronaves, se realiza un mantenimiento preventivo, el cual consiste en la realización de inspecciones 
periódicas basadas en ensayos no destructivos (NDT, por sus siglas en inglés). Sin embargo, estas 
actividades implican costes considerables, no solamente por la ejecución de los mismos ensayos, sino 
también por el hecho de que durante la realización de estos exámenes la estructura está fuera de 
servicio. 
Para hacer frente a este problema, en estos últimos años la comunidad científica junto con el sector 
aeronáutico ha destinado una importante cantidad de recursos al desarrollo de nuevos métodos para 
el seguimiento y verificación de la integridad estructural de los vehículos, conocidos generalmente 
como sistemas de monitorización de la integridad estructural o Structural Health Monitoring Systems 
(SHMS). Estos sistemas permiten realizar evaluaciones en tiempo real del estado de las estructuras de 
forma automática y sin requerir la participación de ningún operario, modificando así radicalmente el 
trabajo destinado al mantenimiento. 
Por otra parte, con el afán de disminuir cada vez más el peso de las aeronaves, desde finales del siglo 
XX en la industria aeronáutica se han ido incorporando progresivamente los materiales compuestos, 
los cuales se forman por la unión de dos o más materiales para conseguir una combinación de 
propiedades que no se podría obtener solo con los materiales iniciales. Los materiales compuestos 
presentan una densidad significativamente menor que los metales comúnmente utilizados tales como 
el acero o el aluminio, proporcionando a su vez una mayor resistencia. Esto es debido a que se pueden 
diseñar para soportar un mayor esfuerzo en una aplicación específica, ofreciendo así una mejor ratio 
resistencia-peso que los materiales convencionales. 
Otros beneficios que ofrecen los materiales compuestos son la resistencia a la corrosión y a la fatiga, 
así como una mayor rigidez. Sin embargo, debido a su naturaleza heterogénea, estos materiales 
pueden presentar múltiples mecanismos de fractura, por lo que a la hora de realizar una detección de 
daños en su etapa inicial nos encontramos con un gran desafío. Por este motivo, tal y como se expone 
en [1], se están haciendo grandes esfuerzos para desarrollar nuevos métodos de monitoreo estructural 
que detecten los defectos lo suficientemente temprano como para prevenir la falla de los 
componentes. Estos esfuerzos se centran en el desarrollo de estructuras inteligentes que combinan 
sensores, algoritmos y actuadores para monitorear la integridad estructural en tiempo real. De esta 
forma, los SHMS no solamente se presentan como una solución para optimizar el proceso de 
mantenimiento de las estructuras aeronáuticas, sino que también se adecuan a los requerimientos 
añadidos que presenta esta nueva tendencia hacia los materiales compuestos. 
 Memoria 
2 
1.1 Motivación 
Debido a la creciente disponibilidadde diferentes tipos de sensores, la preferencia hacia metodologías 
orientadas al SHM también ha ido aumentando cada vez más, ya que los sensores pueden instalarse 
con bastante facilidad en las aeronaves, permitiendo así adquirir a bordo las señales necesarias de 
forma rápida y eficiente. No obstante, si bien actualmente se puede monitorear con gran exactitud el 
estado de las aeronaves, todavía no existe un sistema aéreo integrado comercial para estimar el estado 
de las estructuras de los vehículos en tiempo real. Este hecho, juntamente con la utilización cada vez 
mayor de materiales compuestos, han sido los factores que han promovido la realización de este 
Trabajo de Fin de Grado. 
Cabe destacar que la idea de fundamentar este trabajo en dicha materia ha sido iniciada por la 
implicación del equipo de CoDAlab de la Universidad Politécnica de Cataluña (UPC) con el proyecto 
INESASSE. CoDAlab es un organismo de investigación con más de 13 años de experiencia en el campo 
de los sistemas SHM y ha trabajado con diversos grupos de investigación punteros nacionales y 
extranjeros. 
Mediante una colaboración previa entre el Instituto Nacional de Técnica Aeroespacial (INTA) y la 
Universidad Politécnica de Madrid (UPM) se realizó una adquisición de datos del UAV Milano, el cual 
es un prototipo de vehículo aéreo no tripulado fabricado íntegramente de material compuesto epoxi-
carbono. Posteriormente, la UPM empezó con un proceso de tratamiento y análisis de estos datos en 
cooperación con CoDAlab. 
Mediante el presente proyecto, se pretende aportar conocimiento en este estudio, contribuyendo en 
la mejora de las metodologías SHM en el caso concreto de utilizar datos obtenidos con sensores de 
medida distribuida OBR. 
1.2 Objetivos del trabajo 
El objetivo de este trabajo es desarrollar una metodología para un sistema SHM con el fin de detectar 
defectos en el fuselaje de una aeronave construida de material compuesto. Para ello, se tomarán los 
datos adquiridos del UAV Milano mediante sensores OBR y se les realizará un preprocesamiento para 
después, mediante la aplicación de diversas técnicas de Machine Learning (en español, aprendizaje 
automático), poder realizar una detección y clasificación de distintos defectos en el fuselaje de la 
aeronave. 
Para desarrollar esta metodología se trabajará en un entorno de desarrollo de Python donde se 
utilizarán librerías como Pandas, NumPy, Scikit-learn, Matplotlib y Seaborn. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 3 
2 Estado del arte 
2.1 Structural Health Monitoring 
El monitoreo de la salud estructural, conocido como SHM por sus siglas en inglés, consiste en la 
recogida, tratamiento e interpretación de datos en la estructura. Estos datos se obtienen mediante 
sensores ubicados a lo largo de toda la superficie de la estructura que se desea controlar. Además, es 
parte implícita del SHM la selección de estos sensores y la cantidad y ubicación de estos. De esta forma, 
a partir de las medidas realizadas y su posterior tratamiento se puede identificar dónde se encuentra 
el daño y cuál es su dimensión, además de conocer la carga que ha experimentado la estructura, lo 
cual nos permitirá predecir de forma completa el estado de la estructura. 
Tal y como se expone en [2], el SHM se puede subdividir en los siguientes pasos: 
1. Evaluación operacional 
En primer lugar, se debe tener una idea clara de la naturaleza de la estructura a monitorear, 
cuáles son los problemas que esta puede presentar y dónde pueden aparecer, para así 
determinar la solución óptima para cada caso en concreto. Así mismo, en este primer paso, 
también deben considerarse las consecuencias de aplicar este sistema de sensado para la 
monitorización, evaluando las complicaciones que podrían surgir a la hora de implementarlo 
y compararlas con las ventajas que podría ofrecer. 
 
2. Adquisición de datos 
En este paso se realiza el estudio de cómo se van a integrar los sensores en la estructura para 
obtener datos que nos aporten información. Aquí también se determina la magnitud física que 
se va a medir y el tipo de sensores que se van a utilizar, ya que esta elección estará fuertemente 
relacionada con la técnica para el procesamiento de los datos que se usará posteriormente. 
 
3. Procesado de señales 
A partir de los datos obtenidos de los sensores se determina la posible existencia de daño y su 
magnitud. Sin embargo, primero se debe realizar un procesamiento de los datos para extraer 
las características que realmente nos proporcionan información útil y eliminando el ruido que 
se pueda presentar. 
 
4. Modelado estadístico 
Este es el paso final del proceso y es donde se realiza el modelo estadístico o de aprendizaje 
automático que se va a utilizar para determinar y clasificar los daños. 
 Memoria 
4 
En la Figura 2.1 se puede observar de forma esquematizada cómo se integra el sistema SHM en la 
estructura. 
 
Figura 2.1. Integración del sistema SHM en una estructura [3]. 
Se puede observar como en este sistema retroalimentado la entrada tiene, por un lado, las condiciones 
ambientales y, por otro, las condiciones de operación, que son las que se pueden alterar. Estas 
condiciones modificarán el estado actual en el que se encuentra la estructura, produciendo una serie 
de variaciones en ella que serán medidas por los sensores. El sistema SHM posteriormente comparará 
el estado actual con un estado de referencia en el que el sistema no tiene ningún daño, para así 
determinar si efectivamente existe un daño. Al ser un sistema retroalimentado, después de hacer el 
diagnóstico pertinente se toman medidas correctivas para reparar el daño o mitigar su efecto. 
2.2 SHM en estructuras aeronáuticas 
Dada la versatilidad de los sistemas SHM, estos se pueden implementar en todo tipo de estructuras, 
desde edificios hechos de hormigón armado hasta naves espaciales. En este trabajo nos centraremos 
en la aplicación del SHM en una estructura aeronáutica fabricada a partir de material compuesto. 
Tal y como se ha explicado en el apartado 2.1, el primer paso a la hora de implementar un sistema SHM 
es conocer la estructura en la que se va a aplicar, así como tener presente los esfuerzos a los que estará 
sometida y las posibles fallas que pueda presentar. 
A la hora de diseñar estructuras aeronáuticas, el mayor reto a considerar es el efecto de la fatiga que 
tendrá que soportar cada una de sus partes. Esto es debido a que esta depende tanto del tiempo como 
de las cargas que tendrán que soportar durante su vida útil. En [4] se exponen los dos principios de 
diseño existentes para abordar este problema: el diseño de vida segura y el diseño de tolerancia al 
daño. En el primer caso, el componente se diseña para poder soportar una cierta cantidad de horas de 
vuelo siempre que no se sobrepase un cierto espectro de carga. Si no se ha sobrepasado el espectro 
de carga determinado, cuando estas horas de vuelo han trascurrido, el componente es sustituido, 
aunque no presente daño alguno. Si, por lo contrario, sí que se ha sobrepasado tal espectro, el 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 5 
componente tendrá que ser evaluado. Por otro lado, el diseño tolerante al daño permite que el daño 
pueda presentarse en vuelo y será seguro siempre que no supere un umbral determinado. Como se 
observa en la Figura 2.2, una vez la grieta supera la longitud máxima, el daño podría irse propagando 
lentamente o, directamente, la pieza se fracturaría. Para evitar las consecuencias de este último caso, 
tendría que bloquearse la grieta o tener la estructura diseñada de tal manera que las cargas pudieran 
ser transferidas a otros componentes en caso de rotura. 
 
Figura 2.2. Criterios del diseño a fatiga de una estructura aeronáutica [4]. 
Las aeronaves están formadaspor una gran cantidad de componentes, cada uno de ellos diseñado 
para soportar unas cargas específicas. En la Figura 2.3 se observan los diferentes tipos de estrés al que 
cada una de estas partes puede estar sometida. 
 
Figura 2.3. Principales causas de daño en una aeronave [5]. 
Para garantizar su completa integridad se realizan inspecciones periódicamente donde se aplican 
diferentes técnicas de detección de daños. En [4] se afirma como la técnica más utilizada es la 
inspección visual, la cual, si se realiza de una forma correcta, permite encontrar indicios de desgaste y 
corrosión en las partes más externas de la estructura. No obstante, también se expone que este 
 Memoria 
6 
método es insuficiente a la hora de detectar grietas, por lo que existe una gran variedad de técnicas 
NDT que, mediante una instrumentación específica, permiten obtener resultados más precisos. Entre 
todas estas técnicas, la más utilizada son los ultrasonidos, donde mediante la transmisión de una onda 
de alta frecuencia a través del material se puede determinar la posición de la grieta midiendo la 
reflexión de la onda causada por la misma grieta. Otra técnica muy utilizada en los componentes 
metálicos consiste en inducir corrientes de Foucault en el material mediante una bobina y, en el caso 
de existir una grieta, estas corrientes se ven modificadas, lo cual se refleja en la medición del campo 
magnético. Adicionalmente, existen otras técnicas empleadas en casos específicos, algunas de estas 
usan emisiones acústicas o rayos X. 
En definitiva, actualmente tenemos a nuestra disposición una amplia variedad de métodos que nos 
permiten hacer exámenes altamente precisos para determinar el estado de la aeronave. No obstante, 
las labores de mantenimiento periódicas son necesarias y, debido a su complejidad, requieren de una 
gran cantidad de tiempo. Además, durante todo este tiempo el vehículo está fuera de servicio, lo cual 
representa un coste adicional. 
Las tecnologías emergentes de SHM, tal y como se expone en [6], ofrecen la posibilidad de reducir 
drásticamente el tiempo y recursos destinados a estas labores de mantenimiento, así como la 
optimización de las mismas. Por un lado, permiten reducir el tiempo de trabajo debido a que 
únicamente sería necesario efectuar revisiones cuando estas fuesen requeridas en lugar realizarlas de 
forma programada. Por otro lado, habría una reducción de la mano de obra al evitar desarmar ciertas 
partes del vehículo al saber desde un primer momento donde están los defectos ocultos. Esta 
reducción de la intervención humana permitiría, a su vez, la reducción del tiempo de inactividad y los 
errores humanos, mejorando así la seguridad y la fiabilidad. 
La utilización de los SHMS en las aeronaves también nos proporciona beneficios como el ahorro de 
peso, que es posible gracias a la reducción de los márgenes de seguridad en algunas áreas de la 
aeronave, lo cual supone un menor consumo de combustible y un aumento de la autonomía del avión. 
En definitiva, los SHMS proporcionan un ahorro de dinero, tiempo y esfuerzo a la vez que mejoran la 
seguridad y rendimiento de la aeronave. 
Entre las diferentes técnicas aplicadas en los SHMS, algunas de las más utilizadas son fruto de la 
integración de las técnicas NDT en la misma estructura. Los métodos basados en ultrasonido son unos 
de los más usados, valiéndose de sensores de tipo piezoeléctrico. Por otra parte, los sensores de fibra 
óptica son una excelente opción a la hora de medir tanto emisiones acústicas como deformaciones en 
el material debido a todas las ventajas que presentan. Siendo los más empleados los sensores FBG 
(Fiber Bragg Grating) y los sensores de medida distribuida. En este trabajo se estudiará la aplicación de 
un sistema SHM basado en la medición de deformaciones en la estructura mediante sensores de 
medida distribuida OBR. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 7 
2.3 Sensores de medida distribuida 
Es bien sabido que los sensores de fibra óptica presentan una serie de ventajas respecto a otros tipos 
de sensores usados tradicionalmente, la mayoría de los cuales se basan en la corriente eléctrica. Entre 
estas ventajas se encuentra el hecho de que puedan soportar un amplio rango de variaciones de 
temperatura; no se ven afectados por las interferencias electromagnéticas, pudiendo obtener 
mediciones con bajo ruido; no son químicamente reactivos, y su reducido tamaño y peso facilitan su 
transporte y utilización. 
Los sensores basados en la medida distribuida comparten las mismas ventajas de otros sensores de 
fibra óptica, pero presentan la ventaja añadida de permitir monitorizar longitudes mucho más extensas 
y con una gran cantidad de puntos de medición muy próximos entre sí (del orden de milímetros). Esto 
último permite obtener una visión continua del campo de deformaciones en toda la superficie de la 
estructura a estudiar, lo cual es un hecho remarcable si se compara con las medidas discretas que 
ofrecen la mayoría de los sensores. 
El principio en el que se fundamenta de la detección distribuida por fibra óptica es el fenómeno de 
dispersión, el cual es fruto de la interacción de la luz con el medio material por el que esta se propaga, 
que en este caso sería el núcleo de la fibra óptica. Dado que los sensores están unidos a la estructura 
que se quiere supervisar, al producirse modificaciones en la temperatura o la tensión del material, 
estos cambios se transfieren al sensor, lo que causa que la señal dispersa sea diferente de la señal 
dispersa que teníamos en el estado previo al cambio de tensión o temperatura en la estructura [7]. 
Existen tres procesos conocidos de dispersión que se utilizan para obtener mediciones distribuidas: la 
dispersión de Raman, Brillouin y Rayleigh, las cuales, en [8] son definidas de la siguiente manera: 
• Dispersión de Rayleigh 
Es la producida por las colisiones elásticas entre fotones y átomos. Por lo tanto, la luz 
retrodispersada tiene la misma longitud de onda que la luz incidente, ya que la energía se 
conserva. Este tipo de dispersión se emplea para la medición de deformaciones. 
 
• Dispersión de Raman 
Algunos de los fotones intercambian energía con enlaces atómicos, generalmente perdiendo 
un cuanto de energía dando lugar a la radiación Stokes1. Sin embargo, algunos de ellos pueden 
 
1 Los parámetros de Stokes son un conjunto de valores que describen el estado de polarización de la radiación 
electromagnética. Fueron definidos por George Gabriel Stokes en 1852, como una alternativa matemática 
conveniente para la descripción más común de radiación incoherente o parcialmente polarizada [25]. 
 Memoria 
8 
obtener energía de enlaces excitados originando la componente anti-Stokes. La relación de 
intensidad entre estas dos componentes varía con la temperatura, hecho por el cual este tipo 
de dispersión se emplea para la medición de la misma. 
 
• Dispersión de Brillouin 
Este es un efecto inelástico que implica la interacción de la luz incidente con los fonones 
acústicos. De nuevo, los componentes Stokes y anti-Stokes son retrodispersados y su 
desviación de frecuencia de las señales de onda incidentes es sensible no solo a la temperatura 
sino también a la deformación. 
En la Figura 2.4 se observa una representación gráfica de estos tres procesos de dispersión. 
 
Figura 2.4. Diagrama de las dispersiones de Rayleigh, Raman y Brillouin [8]. 
La tecnología de Reflectometría Óptica de Retrodispersión u Optical Backscatter Reflectometry (OBR) 
usada en el presente estudio se basa en la Reflectometría Óptica en el Dominio de la Frecuencia u 
Optical Frequency-Domain Reflectometry (OFDR), una tecnología que usa la dispersión de Rayleigh2 
como método de medición. Este sistema está compuesto por una parte activa y otra pasiva. La parte 
activa está constituida por una unidad de monitoreoque envía luz láser a través de la parte pasiva, la 
cual está formada por una fibra óptica con fluctuaciones del índice de refracción a lo largo de toda su 
 
2 La dispersión de Rayleigh (en honor a lord Rayleigh, que fue el primero en explicarlo en 1871) es la dispersión 
de la luz visible o cualquier otra radiación electromagnética por partículas cuyo tamaño es mucho menor que 
la longitud de onda de los fotones dispersados [26]. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 9 
longitud [9]. Cuando la luz atraviesa la fibra, en cada una de las porciones con su determinado índice 
de refracción, la luz se refleja de una forma específica, actuando como una huella digital única para 
cada punto de la fibra (Figura 2.5). Este patrón de reflexiones y el tiempo de vuelo de la luz se miden y 
almacenan en un ordenador y pueden utilizarse como puntos de detección distribuidos de forma 
continua. Si se produce un estímulo externo tal como una tensión mecánica, el patrón local de 
retrodispersión de Rayleigh sufre un ligero cambio. Este nuevo patrón de reflexión también es 
almacenado y se compara con el patrón de reflexión previo al estímulo. De esta forma, mediante esta 
comparación es posible calcular las tensiones a lo largo de toda la longitud de la fibra [10]. 
 
Figura 2.5. Proceso de medición mediante el sistema OBR [7]. 
Si se compara este tipo de sensores con otros sensores de fibra óptica ampliamente utilizados como 
los FBG, se puede apreciar como la cantidad de datos obtenidos en una medida es significativamente 
mayor. Esto es debido a que los FBG, debido a su naturaleza, se utilizan en redes con un número 
reducido de sensores. Por otro lado, las redes formadas con sensores de medida distribuida OBR 
pueden contener millones de sensores, ya que cada punto de la longitud de la fibra actúa como un 
sensor virtual. Esto se consigue gracias a que se diseñan aplicando un índice de reflexión heterogéneo 
distribuido aleatoriamente a lo largo de toda la fibra [10]. Sin embargo, los sensores de medida 
distribuida presentan el inconveniente de ofrecer una medición cuasi estática, en la que cada medida 
puede tardar varios segundos en realizarse. En cambio, los sensores FBG pueden proporcionar una 
frecuencia de muestreo de varios kHz. Este hecho implica que los sensores de medida distribuida no 
pueden ofrecer una medición estrictamente en tiempo real, no obstante, pueden ser de gran utilidad 
a la hora de realizar medidas correspondientes a la respuesta lenta de la estructura frente a estímulos 
externos [11]. 
 Memoria 
10 
2.4 Daños en materiales compuestos 
Dado que la estructura de estudio de este trabajo está construida con material compuesto, cabe tener 
presente los daños que pueden presentar este tipo materiales. La información que se expondrá a 
continuación se ha obtenido mayoritariamente de [2]. 
Cuando una estructura presenta cambios en su geometría o en el propio material, se dice que presenta 
un daño. Este daño puede aparecer en uno o más componentes de la estructura y dependen tanto de 
los factores externos a los que la estructura está sometida como de las propiedades del mismo 
material, tales como su rigidez, la resistencia al impacto, la resistencia a la corrosión o la resistencia a 
la fatiga debida a los ciclos de carga y descarga. En el caso concreto de los materiales compuestos, los 
daños por fatiga tienen un comportamiento significativamente más complejo que en los metales 
comúnmente utilizados en las estructuras aeronáuticas. Esto es debido a su naturaleza heterogénea 
basada fibras dispuestas en distintas orientaciones dentro de una matriz, la cual las protege de daños 
externos y distribuye la carga de forma equitativa. Por lo tanto, los daños no se producen en un solo 
paso, sino que aparecen de manera secuencial, empezando comúnmente por daños de nivel 
microscópico que van evolucionando hasta que, eventualmente, pueden terminar con una ruptura de 
la matriz apreciable a nivel macroscópico. Cuando hablamos de daños de nivel microscópico, el 
mecanismo de daño a nivel de la fibra es el más destructivo, ya que las fibras son la parte del material 
compuesto que se encarga de soportar las cargas que se puedan originar. Los mecanismos de daño 
principales en las fibras son la fractura, el pandeo y la flexión. 
La fractura de la fibra (Figura 2.6) se origina cuando las fuerzas de tracción actúan simétricamente en 
el mismo eje de la fibra, superando el umbral máximo que esta puede soportar, no obstante, también 
se puede originar con el cizallamiento. La probabilidad de que se produzca una fractura aumenta de 
manera proporcional a la fragilidad de la fibra. Por otro lado, el daño por pandeo (Figura 2.7) se produce 
al aplicar una carga en la dirección axial de la fibra como en el caso anterior, pero esta vez la carga es 
de compresión. 
 
Figura 2.6. Daño por fractura [2]. 
 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 11 
 
Figura 2.7. Daño por pandeo [12]. 
Al contrario que el daño por fractura o pandeo, el daño por flexión se origina cuando una fuerza es 
aplicada perpendicularmente a la dirección de las fibras (Figura 2.8). Lo que sucede es que las fibras 
que están en la superficie donde se aplica la fuerza sufren una fuerza de compresión, mientras que las 
que se encuentran en la superficie opuesta experimentan una fuerza de tracción. Cuando se alcanza 
un determinado radio de curvatura mínimo, la fuerza aplicada en las fibras de la capa exterior es de tal 
magnitud que la misma capa empieza a agrietarse. 
 
Figura 2.8. Daño por flexión [2]. 
Todos estos mecanismos de daño a nivel de la fibra que se acaban de exponer, en la mayoría de los 
casos se producen conjuntamente con daños en la matriz. En la Figura 2.9 se puede ver un ejemplo de 
cómo puede evolucionar este tipo de daño conjunto cuando es sostenido en tiempo. Generalmente, 
son los daños a nivel de la fibra los que provocan un daño posterior en la matriz, aunque también existe 
una posibilidad de que sea una grieta en la matriz la que provoque una tensión excesiva en las fibras, 
provocando su rotura. Adicionalmente, también pueden aparecer daños como la delaminación, la cual 
es una separación de dos capas contiguas de material compuesto (Figura 2.10). Esta suele deberse a 
una acción conjunta de los daños microscópicos junto con un debilitamiento de la fina capa de resina 
que une las capas de material compuesto. Este es uno de los daños a nivel macroscópico más comunes, 
por lo que es uno de los más importantes a la hora que determinar fallas en una estructura construida 
con este tipo de materiales. 
 Memoria 
12 
 
Figura 2.9. Rotura conjunta de las fibras y la matriz [13]. 
 
Figura 2.10. Daño por delaminación [13]. 
A la hora de trabajar con estructuras fabricadas con materiales compuestos se debe tener presente 
que, en la mayoría de los casos, estas están formadas por una serie componentes unidos entre sí con 
un adhesivo. Por este motivo, además de considerar los defectos que se pueden producir en el mismo 
material, también se deben tener en cuenta los daños producidos en los puntos de unión de los 
componentes. En [14] se expresa como la delaminación es uno de los posibles daños más frecuentes, 
no solo en el mismo material, sino también en las uniones adhesivas. Cuando la delaminación se 
produce en la unión adhesiva pasa a llamarse desencolado. 
Si se considera la unión entre componentes como una configuración en capas, es razonable considerar 
el desencolado como un tipo de delaminación. De hecho, los mecanismos implicados en el 
desencolado y la delaminación son muy similares, por lo que se pueden utilizar los mismos métodos 
predecir ambos tipos de daño [14]. En este proyecto, se desarrollará una metodología para detectar 
daños originados porun desencolado en el fuselaje de una aeronave, los cuales serán provocados en 
unas ubicaciones específicas. Sin embargo, también podría ser útil para localizar daños producidos por 
delaminación en cualquier parte de la estructura. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 13 
2.5 Inteligencia Artificial y Machine Learning 
La Inteligencia Artificial (IA) es la ciencia de entrenar entes artificiales tales como máquinas u 
ordenadores para que estos puedan realizar acciones propias de la inteligencia humana. Entre estas 
acciones podemos nombrar la capacidad de pensar, retener información, reconocer patrones, generar 
nuevas ideas, resolver problemas y aprender de la experiencia. En la actualidad, la IA es utilizada para 
realizar tareas propias de los humanos como las que se acaban de mencionar, pero de forma más 
eficiente, con menos tiempo y un costo menor. 
Dentro de la Inteligencia Artificial se pueden identificar dos grandes categorías, la IA general y la IA 
estrecha. 
• IA General 
Este tipo de IA tiene como objetivo imitar el comportamiento humano en su totalidad. 
Mediante la utilización de sensores, las máquinas podrían llegar adquirir una total autonomía, 
interactuando con el entorno y recopilando datos para así aprender constantemente y 
conseguir tomar decisiones de forma autónoma. Sin embargo, hoy en día IA general es 
concebida como una aspiración más que como una realidad práctica, ya que, aunque se estén 
logrando importantes avances, aún no se ha logrado reproducir artificialmente la complejidad 
del cerebro humano. 
 
• IA Estrecha 
A diferencia de la IA general, la IA estrecha presenta solamente ciertas facetas específicas de 
la inteligencia humana, teniendo la capacidad de realizar una tarea específica 
extremadamente bien, pero presentando carencias en otras áreas. Esta IA es la que utilizan 
actualmente las empresas y organizaciones para mejorar su productividad y efectividad, 
usando la IA como herramienta para procesar una gran cantidad de datos y tomar decisiones. 
Durante años, los investigadores estudiaron diversos enfoques para crear la IA, llegando a la conclusión 
de que la solución óptima era aportar una gran cantidad de datos de muestra a las máquinas para que, 
de esta manera, ellas mismas pudieran procesar estos datos y extraer sus patrones característicos. El 
objetivo era que, en última instancia, las propias computadoras aprendieran de manera autónoma a 
realizar una tarea en concreto. Así es cómo surgió el aprendizaje automático o Machine Learning (ML), 
el cual se define como un subconjunto de la IA (Figura 2.11), fruto de la intersección de la informática 
y la estadística, cuyo objetivo principal es el de aprender utilizando algoritmos para posteriormente 
poder realizar predicciones. 
Una sofisticación del ML es el aprendizaje profundo o Deep Learning. Este subgrupo del ML usa 
principalmente técnicas que simulan el comportamiento del cerebro humano, aplicando sistemas de 
 Memoria 
14 
redes neuronales artificiales en los software de análisis de datos. La principal ventaja de ese tipo de 
aprendizaje es que permite procesar una mayor variedad de datos y sin la necesidad de que estén 
previamente estructurados, requiriendo además de una menor intervención humana. No obstante, 
sus inconvenientes principales son que se necesita una cantidad mucho mayor de datos que los otros 
métodos de ML además de que, debido a su mayor complejidad, se requiere de más recursos 
informáticos, por lo que su costo se ve incrementado. Este es el motivo por el cual en la mayoría de los 
casos se opta por otros métodos que requieran un menor coste computacional, pero que a la vez 
permitan realizar la tarea deseada de forma eficiente. En lo que concierne a este trabajo, no se 
utilizarán enfoques basados en el Deep Learning debido a que los conjuntos de datos con los que se va 
a trabajar son reducidos, además de las limitaciones del hardware empleado. Sin embargo, se aplicarán 
algoritmos del ML que permitirán obtener resultados igualmente satisfactorios y con una simplicidad 
mucho mayor. 
 
Figura 2.11. Estructuración de los subconjuntos de la Inteligencia Artificial [15]. 
Dentro del ML existen dos grandes clasificaciones que dependen del método de aprendizaje que 
utilizan las máquinas para lograr interpretar los datos que se les proporciona como entrada, estas son 
el aprendizaje supervisado y el no supervisado. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 15 
2.5.1 Aprendizaje supervisado 
Este es el método de aprendizaje más utilizado y, como su nombre indica, el aprendizaje no se realiza 
de forma totalmente autónoma por parte de la máquina, sino que el desarrollador le enseña los 
diferentes resultados que espera obtener. Dicho en otras palabras, las posibles salidas del algoritmo 
son conocidas. De esta manera, los datos utilizados para entrenar el modelo ya tienen que estar 
previamente etiquetados con las respuestas correctas. 
Lo que se logra con el aprendizaje supervisado es que, tras haber entrenado el modelo con muchos 
ejemplos, este sea capaz de proporcionar un resultado correcto al entregarle una muestra que no haya 
visto antes. En la Figura 2.12 se puede observar de manera intuitiva esta idea. 
 
Figura 2.12. Representación didáctica del aprendizaje supervisado [16]. 
El aprendizaje supervisado se puede dividir a su vez en dos grupos, la clasificación y la regresión. 
• Clasificación 
En este caso el resultado es un valor discreto denominado clase, y existe un número limitado 
de clases. Algunos de los algoritmos de clasificación son la regresión logística, los árboles de 
decisión, las máquinas de vectores de soporte y los K vecinos más cercanos. 
 
• Regresión 
Cuando el resultado es un número entre un rango continuo de valores. Por lo tanto, existirá 
una cantidad infinita de posibles resultados. Algunos de los algoritmos de regresión son la 
regresión lineal, los árboles de decisión y las máquinas de vectores de soporte. 
 Memoria 
16 
2.5.2 Aprendizaje no supervisado 
A diferencia del aprendizaje supervisado, en el aprendizaje no supervisado la máquina tiene que 
aprender de forma autónoma con los datos que se le proporcionan como entrada. Es decir, en su 
proceso de entrenamiento no se le facilitan etiquetas o clases previamente definidas, sino que es la 
misma máquina la que tiene que comprender las características intrínsecas de los datos para poder 
agruparlos en diferentes conjuntos (Figura 2.13). 
Entre los métodos de aprendizaje no supervisado se pueden distinguir los algoritmos de agrupamiento 
(clustering) y de reducción de dimensionalidad. 
• Agrupamiento 
Con las técnicas de agrupamiento se pretende encontrar una estructura en los datos y 
conseguir agruparlos en diferentes conjuntos o clusters identificando las características 
similares entre estos. Algunos de los algoritmos de agrupación son K-medias, DBSCAN y 
Hierarchical Clustering. 
 
• Reducción de dimensionalidad 
Cuando tenemos un conjunto de datos con una cantidad de atributos excesivamente grande 
para cada muestra, se eleva la complejidad de las tareas que tienen que realizar los algoritmos 
de ML. Por este motivo es conveniente reducir la dimensión del conjunto de datos intentando 
mantener la mayor cantidad de información posible. Estos algoritmos entran en la categoría 
de aprendizaje no supervisado, sin embargo, es común aplicarlos como paso previo a la 
utilización de otros algoritmos de ML ya sean de aprendizaje supervisado o no supervisado. 
Algunos ejemplos son PCA, t-SNE e ICA. 
 
Figura 2.13. Representación didáctica del aprendizaje no supervisado [17]. 
 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 17 
3 Proyecto INESASSE 
El Proyecto INESASSE(Integración y Explotación de Sistemas de Autodiagnóstico y Supervisión de Salud 
Estructural en aviones no tripulados) tiene como objeto estudiar la de implantación, en condiciones 
operativas, de sistemas de supervisión estructural (SSE), utilizando redes de sensores de fibra óptica. 
La realización de este proyecto fue llevada a cabo por el INTA (Instituto Nacional de Técnica 
Aeroespacial) en colaboración con la ETSIAE (Escuela Técnica Superior de Ingeniería Aeronáutica y del 
Espacio) de la UPM. 
La primera fase de este proyecto se centró en la elaboración de un modelo de elementos finitos de la 
estructura y, mediante la simulación de distintos daños, se determinó la posición óptima de los 
sensores. Posteriormente, se fabricaron dos estructuras idénticas de material compuesto epoxi-
carbono, incorporando a cada una de ellas una red de sensores en la disposición determinada en la 
primera fase. Entonces, a una de las dos estructuras se le realizaron varios ensayos en tierra, 
provocando de manera controlada los mismos daños estructurales simulados en la fase anterior. Son 
los datos obtenidos en estos ensayos los que se tomarán como punto de partida para la realización del 
presente trabajo. Finalmente, la estructura que no se usó para hacer los ensayos se integró en un UAV 
en operaciones de vuelo reales. 
El vehículo aéreo no tripulado en el que se fundamenta este proyecto es el UAV Milano (Figura 3.1), 
con 12,5 m de envergadura, 8,2 m de longitud y una autonomía de hasta 20 horas. Su masa en vacío 
es de 900 kg y tiene la capacidad de albergar hasta 150 kg de carga útil. 
 
Figura 3.1. UAV INTA Milano [18]. 
 Memoria 
18 
3.1 Configuración de la estructura de estudio 
La estructura de material compuesto sobre la que se realizaron los ensayos se corresponde con el 
fuselaje posterior del UAV Milano, el cual se compone de las siguientes partes: 
• Revestimiento superior con dos largueros en L y refuerzos en las pestañas. 
• 4 cuadernas con refuerzos en las pestañas. 
• Revestimiento inferior con un larguero longitudinal en T dividido en dos y con refuerzos en las 
pestañas. 
Esta estructura tiene unas dimensiones aproximadas de 2600 x 850 x 890 mm. En la Figura 3.2 se 
muestra una vista explosionada de la misma. 
 
Figura 3.2. Vista explosionada del fuselaje posterior del UAV Milano [11]. 
En toda la superficie de la estructura se incorporaron dos redes de sensores de fibra óptica, una de 
sensores FBG y la otra de sensores de medida distribuida OBR. En el caso de los sensores de medida 
distribuida, como permiten realizar mediciones continuas, se ubicaron a lo largo del revestimiento 
superior e inferior. En la Figura 3.3 se observa su disposición, en la que cuatro líneas de sensores se 
ubican en el revestimiento inferior y tres en el revestimiento superior. Estas imágenes se corresponden 
con el modelo de elementos finitos, y se pueden ver indicadas las líneas de sensores con una flecha en 
la que se muestra su posición dentro del modelo. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 19 
Es importante destacar que los sensores de medida distribuida reales están constituidos por un solo 
cable de fibra óptica. Por lo tanto, para ubicarlos en diferentes líneas, tal y como se propone en el 
modelo de elementos finitos, al final de cada línea la fibra cambiará de dirección describiendo una 
trayectoria curva. El radio de esta curva será lo suficientemente grande como para mantener la 
continuidad de la fibra. 
 
Figura 3.3. Posicionamiento de los sensores de medida distribuida [19]. 
En la Figura 3.4 se observan los sensores ya incorporados en la estructura. Para posicionarlos, primero 
se trazaron con un lápiz de color blanco las líneas de referencia y, una vez adherida la fibra óptica a lo 
largo de estas líneas, se protegió con cinta azul. Finalmente, se soldó el extremo inicial de la fibra óptica 
con el conector del dispositivo de interrogación OBR 4600 (la información referente al instrumento se 
puede consultar en [20]). 
 
Figura 3.4. Fuselaje posterior del UAV Milano con los sensores de medida distribuida ya integrados [11]. 
 Memoria 
20 
3.2 Planteamiento de los daños 
En este apartado se van a definir los distintos daños que se plantearon tanto en las simulaciones del 
modelo como en los ensayos de la estructura real. Estos daños se corresponden con desencolados 
entre distintos componentes de la estructura, los cuales se pueden apreciar en la Figura 3.5 
identificados de color rojo. Cabe destacar que cada uno de estos daños se va a realizar de manera 
independiente, evaluando en cada ensayo la respuesta de la estructura al aplicar solamente uno de 
estos daños. Adicionalmente, también se incluirá un ensayo con los daños 1 y 4 provocados 
conjuntamente. Las características de cada uno de estos daños se pueden consultar en la Tabla 3.1. 
 
Figura 3.5. Planteamiento de los daños en la estructura [11]. 
Tabla 3.1. Descripción de los daños realizados sobre la estructura a analizar [11]. 
Daño Tipo de daño Elementos afectados 
Longitud 
(mm) 
D1 
Desencolado parcial del pie de la 
cuaderna 
Cuaderna 2 y revestimiento inferior 450 
D2 
Desencolado parcial de la pestaña 
superior de la cuaderna 
Cuaderna 3 y revestimiento superior 350 
D3 
Desencolado parcial de la pestaña 
lateral de la cuaderna 
Cuaderna 4 y revestimiento superior 180 
D4 
Desencolado parcial entre el 
revestimiento inferior y el revestimiento 
superior 
Revestimiento inferior y revestimiento 
superior 
900 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 21 
3.3 Campaña de ensayos 
Los ensayos realizados sobre la estructura de estudio se centraron en someter la estructura a una carga 
concreta y medir las microdeformaciones producidas al simular, para cada tipo de daño descrito en el 
apartado anterior, una cierta longitud de desencolado. Es decir, se simularon distintos porcentajes de 
desencolado para cada tipo daño, de forma que, la longitud de desencolado se aumentó 
progresivamente hasta llegar a la longitud máxima, que es la que se puede ver en la Tabla 3.1. 
Para simular estos desencolados, en lugar de unir los componentes de la estructura con adhesivo, se 
optó por usar remaches. De este modo, para simular una longitud de desencolado concreta 
simplemente se tendría que extraer un número concreto de remaches, lo cual simplificaba en gran 
medida el proceso. Así, dependiendo del número de remaches extraídos se conseguiría un porcentaje 
concreto de desencolado. 
En las Figuras 3.6 y 3.7 se observa la configuración de los ensayos, donde el extremo de la estructura 
donde está la cuaderna 1 se encuentra empotrada, mientras que al otro extremo se le aplica una carga 
estática. Esta carga se irá aumentando progresivamente hasta llegar a un máximo de 4 kN. 
 
Figura 3.6. Configuración de los ensayos [21]. 
La secuencia de ensayos se puede consultar en Tabla A.1 del Anexo A, no obstante, a continuación se 
describirá el proceso seguido en estos ensayos. 
En primer lugar, se realiza un ensayo de la estructura sin ningún daño para distintos porcentajes de 
carga de forma ascendente, desde el 20% hasta el 100%, donde el 100% son 4 kN. Primeramente, se 
realiza un ensayo con el 20% de carga, luego con el 40%, y a partir de aquí en cada ensayo se aumenta 
 Memoria 
22 
un 10% hasta llegar al 100%. Cada vez que se aplica un porcentaje de carga distinto se efectúa una 
medición, por lo tanto, se considera como un ensayo distinto. A continuación, en la ubicación del daño 
D1, se extraen 3 remaches, simulando un desencolado aproximado del 21% respecto la longitud total 
del daño D1. Con esta cantidad de remaches extraídos se aplican los mismos porcentajes de carga que 
en los ensayos sin daño. Seguidamente, se hace lo mismo para 7 remaches extraídos, luego con 11 y 
finalmentecon 15, el cual es el número de remaches que abarca la longitud máxima de desencolado 
del daño D1. Esta es la parte de la campaña de ensayos referente al daño D1, ahora pasamos a los 
ensayos de los daños D1 y D4 realizados a la vez. 
A partir de ahora, los daños D1 y D4 realizados de forma conjunta pasarán a llamarse daño D1+D4. En 
el caso del daño D1, todos los remaches estarán siempre extraídos, mientras que en el caso del daño 
D4 se extraerán progresivamente 6, 15, 23 y 31 remaches. Como siempre, para cada número de 
remaches extraídos se efectuará un ensayo para cada porcentaje de carga aplicada. Una vez finalizados 
los ensayos del daño D1+D4 se pasará a los ensayos del daño D4. 
De este modo se reparará por completo el daño D1 y se harán ensayos del daño D4 con 31, 23, 15 y 6 
remaches extraídos en este orden, ya que los ensayos del daño D1+D4 se terminaron con 31 remaches 
extraídos del daño D4. Seguidamente se repara por completo el daño D4, por lo que la estructura 
vuelve a estar sin ningún daño. A continuación, se vuelven a realizar ensayos para la estructura sin 
daño para cada porcentaje de carga. 
 
Figura 3.7. Visión general de la configuración de los ensayos [21]. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 23 
Finalmente, se realizan los ensayos referentes al daño D2 extrayendo 3, 6, 9 y 11 remaches en este 
orden con la misma progresión de cargas que en todos los otros ensayos. Para terminar, se repara el 
daño por completo y se vuelve a hacer, para cada porcentaje de carga, un ensayo de la estructura sin 
daño. 
Nótese que no se ha nombrado en ningún momento el daño D3. Esto es debido a que para este daño 
únicamente se realizó un ensayo con 3 remaches extraídos y para una única carga del 100%. En 
consecuencia, dada la imposibilidad de poder realizar un estudio crítico con un solo ensayo, para la 
realización de este proyecto no sea tenido en cuenta el daño D3. Así mismo, tampoco se han 
considerado ciertos ensayos puntuales efectuados para los daños D1 y D1+D4 donde, para un número 
determinado de remaches extraídos, solamente se aplicó una carga del 100% en lugar de la progresión 
usual del 20% al 100% de la carga máxima. 
A modo de resumen, en este trabajo se utilizarán los datos obtenidos de los ensayos referentes a los 
daños D1, D2, D4 y D1+D4, juntamente con los datos de los ensayos de la estructura sin ningún daño. 
 Memoria 
24 
4 Métodos empleados 
Para desarrollar la metodología que nos permitirá detectar y clasificar los distintos daños planteados 
en el apartado 3.2 se emplearán distintos métodos de ML. A continuación, se procederá a describir 
cada uno de ellos. 
4.1 Análisis de componentes principales 
El análisis de componentes principales o Principal Component Analysis (PCA) es uno de los algoritmos 
de aprendizaje automático no supervisado más utilizados. 
Para explicar este método, una forma práctica es imaginarnos un conjunto de individuos provenientes 
de 4 poblaciones distintas, cada uno de los cuales tiene 3 atributos que se pueden cuantificar 
numéricamente. Con la finalidad de estudiar estos individuos generamos una matriz de datos donde 
cada fila hace referencia a uno de los individuos y cada columna describe uno de sus atributos. Si 
queremos saber de cuantas poblaciones proceden los individuos, una opción sería representar cada 
uno de estos individuos en función de dos de sus atributos, obteniendo un diagrama en dos 
dimensiones. Si suponemos que el gráfico de la Figura 4.1 es una representación de los individuos en 
función de sus tres atributos, si por ejemplo los representáramos en función de los atributos 2 y 3, no 
se observarían agrupaciones de individuos separadas entre sí, por lo que no se podría saber de cuantas 
poblaciones distintas provienen estos individuos. Si los representáramos en función de otros dos 
atributos, podría ser que distinguiéramos alguna separación entre algunos conjuntos de datos, pero lo 
más probable es que no pudiéramos ver 4 agrupaciones separadas referentes a cada una de las 
poblaciones. 
 
Figura 4.1. Representación de los datos en función de sus atributos originales [22]. 
A
tr
ib
u
to
 3
 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 25 
Lo que nos permitiría la técnica del PCA sería escoger un nuevo sistema de coordenadas para el cual la 
separación entre estos datos fuera máxima. En otras palabras, con los nuevos ejes generados con esta 
técnica, maximizaríamos la varianza del conjunto de datos. Para poder realizar esta tarea, 
primeramente, mediante un sistema iterativo, se encuentra el eje con el cual la varianza es máxima. 
Este eje se llamará PC1. Posteriormente, se encontrará otro eje ortogonal al primero con la segunda 
varianza mayor, pasándose a llamar PC2. De esta forma, si hacemos un cambio de base y 
representamos los individuos sobre estos nuevos ejes (ver Figura 4.2), ya podremos distinguir los 
cuatro conjuntos de datos referentes a cada población. 
 
Figura 4.2. Representación de los datos en función de las dos componentes principales del PCA [22]. 
En este caso concreto, al solamente tener tres atributos, con una representación en tres dimensiones 
fácilmente habríamos podido distinguir los cuatro conjuntos. No obstante, en la realidad podemos 
tener matrices de datos con cientos de atributos para cada individuo, por lo que una representación 
gráfica en 2 o 3 dimensiones no es una opción viable. Lo que nos ofrece la técnica del PCA es pasar de 
tener una gran cantidad de atributos (de entre los que no podemos distinguir cuáles realmente nos 
aportan información para separar en grupos los individuos) a tener un número inferior de atributos 
“artificiales” llamados componentes principales y que han sido creados a partir de los atributos reales, 
con la ventaja añadida de que están ordenados de mayor a menor varianza. Estas componentes 
principales son fruto de realizar el cambio de base de los datos originales a los nuevos ejes. De esta 
manera, solamente preservando las primeras componentes principales podemos tener una nueva 
matriz de datos significativamente más reducida y conservando la mayor parte de la información de la 
matriz original. 
4.2 K vecinos más cercanos 
El algoritmo K vecinos más cercanos o K-Nearest Neighbors (KNN) es un método basado en distancias 
que se encuentra dentro de la categoría del aprendizaje supervisado. Este algoritmo es usado 
principalmente para tareas de clasificación, sin embargo, también existe una variante para la regresión. 
 
 Memoria 
26 
A la hora de aplicar este algoritmo, en primer lugar, se le pasará un conjunto de muestras previamente 
clasificadas, indicando a que clase pertenece cada muestra. Seguidamente se introducirá un nuevo 
dato para que el algoritmo lo clasifique. Para realizar esta clasificación, el algoritmo calculará la 
distancia entre este nuevo valor y las muestras que ya tenía almacenadas, seleccionando un número 
de K vecinos más cercanos. Este valor de K es un hiperparámetro que se le tiene que introducir 
externamente. 
Finalmente, de entre las K muestras más cercanas, el algoritmo determinará cuál es la clase mayoritaria 
y se le asignará dicha clase a la nueva muestra. En la Figura 4.3 se observa un ejemplo para un conjunto 
de datos con dos dimensiones, sin embargo, el algoritmo puede trabajar non el número de 
dimensiones deseado. No obstante, al aumentar el número de dimensiones, la complejidad del modelo 
también aumenta, incrementando el coste computacional. 
 
Figura 4.3. Representación gráfica del funcionamiento del algoritmo K vecinos más cercanos [23]. 
En este proyecto se usará el clasificador KNN con la distancia de Minkowski (Ec. 4.1) con el parámetro 
p=2. Por lo tanto, la distancia usada será equivalente a la distancia euclídea. 
(∑|𝑥𝑖 − 𝑦𝑖|𝑝
𝑛
𝑖=1
)1
𝑝
 
(Ec. 4.1) 
Donde 𝑋 = (𝑥1, 𝑥2, … , 𝑥𝑛) y 𝑌 = (𝑦1, 𝑦2, … , 𝑦𝑛) son dos puntos. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 27 
4.3 Validación cruzada 
A la hora de evaluar un modelo de ML, el primer paso es dividir aleatoriamente el conjunto de datos 
inicial en un subconjunto para entrenar el modelo y otro para validarlo. En el caso del KNN, el 
subconjunto de entrenamiento sería el conjunto de muestras ya clasificadas que le proporcionamos al 
modelo, y el conjunto de validación serían las muestras nuevas que le introducimos al modelo para 
que las clasifique. Una vez el modelo ha clasificado todas las muestras de validación, se evalúa el 
desempeño del modelo con la métrica deseada, un ejemplo sería calculando el porcentaje de aciertos. 
Esta métrica se conoce como exactitud o accuracy. El problema aquí es que, si se volviera a separar 
aleatoriamente el conjunto de datos inicial en los subconjuntos de entrenamiento y validación y se 
repitiese el mismo proceso, el porcentaje de aciertos sería distinto. Esto se debe a que los subconjuntos 
con los que se ha entrenado y evaluado el modelo no serían los mismos que antes. Por lo tanto, no 
podríamos determinar cuál es el desempeño real del modelo. 
El concepto de validación cruzada surge al aplicar esta misma idea, pero de manera iterativa. Una de 
las variantes más conocidas de la validación cruzada es el K-Fold. Con este método, todo el conjunto 
de datos es dividido en un número K de subconjuntos y, en la primera iteración, se utilizarán todos los 
subconjuntos menos uno (K-1) para entrenar el modelo, dejando el subconjunto restante para 
evaluarlo (Figura 4.4). En la segunda iteración se hará lo mismo, pero con un conjunto de validación 
distinto. Este proceso se realizará tantas veces como subconjuntos tengamos. Es decir, se realizarán K 
iteraciones. 
Para evaluar el modelo se hará la media de las exactitudes obtenidas en cada iteración. De esta manera 
se consigue un resultado con una mayor independencia de los subconjuntos de entrenamiento y 
validación. 
 
Figura 4.4. Validación cruzada K-Fold con K=4 [24]. 
 Memoria 
28 
Otra variante conocida es la validación cruzada dejando uno fuera o Leave-One-Out Cross-Validation 
(LOOCV). Con este método, en vez de tener un subgrupo de muestras para la validación, solamente se 
realiza la validación con una muestra, dejando todas las otras para el entrenamiento (Figura 4.5). En 
este caso, en cada iteración se usa una muestra distinta para la validación, por lo tanto, el número de 
iteraciones será igual al número de muestras. Este método elimina por completo la variabilidad que 
obtendríamos al realizar la validación dividiendo en dos el conjunto inicial de forma aleatoria. La 
desventaja de este método es que, debido al número de iteraciones que tiene que realizar, el coste 
computacional es más elevado que el K-Fold. 
 
Figura 4.5. Validación cruzada LOOCV [24]. 
La validación cruzada también es de gran utilidad a la hora de ajustar el modelo. En el caso del KNN, si 
quisiéramos determinar el valor óptimo de K vecinos, podríamos evaluar el modelo mediante la 
validación cruzada para distintos valores de K vecinos y así poder ver como varía la exactitud del 
modelo una función del número de K vecinos. Así, una vez tuviéramos el modelo con el número K 
ajustado, podríamos testear el modelo en el mundo real con otro conjunto. Este conjunto se conoce 
como conjunto de prueba o Test. 
4.4 Matriz de confusión 
Cuando queremos evaluar el resultado de un algoritmo de aprendizaje supervisado al clasificar datos 
ya sean del conjunto de validación o de Test, una herramienta ampliamente utilizada es la matriz de 
confusión. La matriz de confusión nos permite conocer el desempeño del modelo de una forma visual, 
ubicando en cada columna de la matriz las muestras de cada clase que el algoritmo ha predicho, y en 
cada fila las muestras de las clases reales. En la Figura 4.6 se muestra un ejemplo de matriz de confusión 
con las clases definidas en este estudio. Estas clases se corresponden con los daños D1, D2, D4 y D1+D4, 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 29 
junto con otra clase que se corresponde con la estructura sin ningún daño, la cual se le llamará Und 
(del inglés, Undamaged). 
 
Figura 4.6. Ejemplo de una matriz de confusión. 
Si nos fijamos en una clase concreta, en la matriz de confusión se pueden observar 4 resultados 
distintos. 
• Verdadero positivo (VP) 
El algoritmo predijo que la muestra pertenecía una clase y realmente sí que pertenecía. 
 
• Verdadero negativo (VN) 
El algoritmo predijo que la muestra no pertenecía una clase y realmente no pertenecía. 
 
• Falso positivo (FP) 
El algoritmo predijo que la muestra pertenecía una clase y realmente no pertenecía. 
 
• Falso negativo (FN) 
El algoritmo predijo que la muestra no pertenecía una clase y realmente sí que pertenecía. 
En el caso de la Figura 4.6, si nos fijamos en la clase D1, los resultados serían los siguientes: 
• Verdadero positivo (VP) = 3 
• Verdadero negativo (VN) = 2 + 3 + 4 + 1 + 0 x 12 = 10 
• Falso positivo (FP) = 2 + 0 + 0 + 0 = 2 
• Falso negativo (FN) = 0 + 0 + 0 + 0 = 0 
 Memoria 
30 
4.4.1 Métricas 
Para evaluar el modelo se pueden usar distintas métricas, las cuales se calculan con los distintos 
resultados de la matriz de confusión que se acaban de ver. En este trabajo se usará la exactitud 
(accuracy), la precisión (precision) y la exhaustividad (recall), las cuales se obtienen a partir de las 
ecuaciones 4.2, 4.3 y 4.4 respectivamente. 
La exactitud es igual al porcentaje total de aciertos. 
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 = 
𝑉𝑃 + 𝑉𝑁
𝑉𝑃 + 𝑉𝑁 + 𝐹𝑃 + 𝐹𝑁
 (Ec. 4.2) 
La precisión es igual a la cantidad de aciertos de una clase en particular respecto al número total de 
muestras que se predijeron que eran de esta misma clase. 
𝑃𝑟𝑒𝑐𝑖𝑠𝑖ó𝑛 = 
𝑉𝑃
𝑉𝑃 + 𝐹𝑃
 
(Ec. 4.3) 
La exhaustividad es igual a la cantidad de aciertos de una clase en particular respecto al número total 
de muestras que realmente pertenecían a esta misma clase. 
𝐸𝑥ℎ𝑎𝑢𝑠𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 
𝑉𝑃
𝑉𝑃 + 𝐹𝑁
 
(Ec. 4.4) 
La exactitud se calcula a partir de todo el conjunto de resultados completo, sin embargo, la precisión y 
la exhaustividad son métricas que se calculan para cada clase en particular. Por lo tanto, si se quiere 
evaluar el valor de la precisión y la exhaustividad para todo el conjunto de resultados completo, se 
debe hacer una media del valor obtenido en cada clase. En este trabajo se utilizará la media ponderada 
con el número de muestras reales de cada clase. 
 
 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 31 
5 Metodología empleada 
En este apartado se describirá la metodología desarrollada para la detección y clasificación de los 
distintos daños planteados para la estructura de estudio. Todo el código necesario para poner en 
práctica esta metodología se encuentra en los Anexos B, C, D, E y F. 
Para obtener los datos que se utilizarán como punto de partida para este estudio se estableció una 
longitud total de sensores de fibra óptica de 20 m de longitud y con una cantidad total de 1800 
sensores. Mediante estos sensores se midieron las microdeformaciones producidas en la estructura 
para cada ensayo. Es fundamental tener en cuenta que estos sensores solo realizan medidas 
unidireccionalmente, es por este motivo que todas las líneas de sensores se colocaron en la dirección 
del eje longitudinal de la estructura. Es también por este motivo que las mediciones referentes a los 
tramos donde la fibra describe una trayectoria curva tienen que ser eliminadas. Como ya se ha 
explicado en el apartado 3.1, estos tramos curvos se encuentran en la unión de dos tramos en línearecta. En consecuencia, los datos presentan discontinuidades en estos tramos, lo que reduce el número 
de sensores útiles a 1499. No obstante, este hecho no supone ningún problema, ya que esta cantidad 
de sensores sigue siendo elevada. 
5.1 Datos iniciales 
El primer paso que se va a realizar será hacer una visualización general de los datos. Inicialmente, los 
datos que nos han sido facilitados están divididos en 4 archivos Excel, uno para cada tipo de daño. Por 
lo tanto, el primer paso será importar los archivos y convertirlos a dataframe. En la Tabla 5.1 se puede 
observar el dataframe correspondiente al daño D1. 
Tabla 5.1. Dataframe inicial de los datos correspondientes al daño D1. 
 
 Memoria 
32 
Lo primero que se puede observar en este conjunto de datos es que tiene 1499 filas y 41 columnas. 
Cada fila hace referencia a uno de los 1499 sensores, y la posición en metros de cada uno de ellos 
dentro del cable de fibra óptica se indica en la primera columna. Por otro lado, las 40 columnas 
restantes representan cada uno de los ensayos. Cada columna tiene 1499 celdas con el valor de las 
microdeformaciones producidas en todos los puntos donde se encontraba un sensor. 
El orden de los ensayos en el dataframe es el mismo que el que se expuso en el apartado referente a 
la campaña de ensayos, teniendo en cuenta que en las primeras columnas se encuentran los ensayos 
de la estructura sin daño para cada porcentaje de carga. Así, la columna “Und_20%” significa que la 
estructura no tiene daño (Undamaged) y se le aplica una carga del 20%, y la columna “15_rivets_70%” 
significa que hay 15 remaches extraídos y se le aplica una carga del 70%. 
En el caso de los otros daños, la ordenación de las columnas sigue el mismo patrón, teniendo en cuenta 
que para los daños D2 y D4 los ensayos sin daño que se muestran son los que se realizaron tras reparar 
la estructura (ver Tabla A.1 del Anexo A). En el caso del daño D1+D4, como no se reparó la estructura 
ni antes ni después de la extracción de los remaches, las primeras 8 columnas son las mismas que las 
del dataframe del daño D1. En el Anexo B se pueden observar los dataframes de cada uno de los daños, 
así como las gráficas para cada daño y número de remaches extraídos. 
En la Figura 5.1 se puede ver la representación gráfica de las microdeformaciones medidas al provocar 
el daño D1 de forma competa en la estructura (es decir, extrayendo 15 remaches). Cada color 
representa un ensayo para una carga concreta. 
 
Figura 5.1. Campo de deformaciones de la estructura con daño D1 y 15 remaches extraídos. 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 33 
En la Figura 5.1 se observa que las series de datos están divididas en siete secciones, en donde las 
cuatro primeras secciones presentan valores positivos de deformación y las otras tres tienen valores 
negativos. Esto es debido a que las cuatro primeras secciones (desde 2 hasta 12 m) se corresponden 
con las cuatro líneas de medida distribuida del revestimiento inferior, mientras que las otras tres 
(desde 12 hasta 20 m) se corresponden con las tres líneas de medida distribuida del revestimiento 
superior. Por lo tanto, como el revestimiento inferior está sometido a esfuerzos de tracción, las 
deformaciones medidas por los sensores tendrán valores positivos, y lo opuesto ocurre con el 
revestimiento superior, que está sometido a esfuerzos de compresión. Así mismo, los valores faltantes 
entre cada una de las secciones se corresponden con los tramos donde la fibra presentaba una 
trayectoria curva. Estos valores ya fueron eliminados antes de que se facilitaran los datos para realizar 
este trabajo. 
Idealmente, los gráficos para cada daño y número de remaches extraídos deberían tener un aspecto 
como el de la Figura 5.1, sin embargo, debido a la rotura de la fibra durante la extracción de remaches 
próximos a esta, en algunos ensayos se obtuvieron mediciones como las que se observan la Figura 5.2. 
De este modo, se procederá a efectuar un preprocesamiento de los datos. 
 
Figura 5.2. Campo de deformaciones de la estructura sin daño tras la reparación del daño D2. 
 
 Memoria 
34 
5.2 Preprocesamiento 
Para empezar con el preprocesamiento de los datos primeramente comprobaremos que no hay 
valores nulos. Tras esta comprobación se observa que, en los ensayos de la estructura sin daño después 
de la reparación del daño D4, para las cargas del 50% y 70% no existe ninguna medición. Para poder 
completar estas dos columnas se aplica la relación de linealidad entre las microdeformaciones y la 
carga aplicada, la cual se demuestra en [11]. Esta relación implica que, para un daño y un número de 
remaches determinado, si se miden las deformaciones en un punto en concreto de la estructura, estas 
aumentan de manera lineal con la carga aplicada. En la Figura 5.3 se observa la evolución de las 
microdeformaciones en dos sensores, uno situado en el revestimiento inferior y otro en el 
revestimiento superior. 
 
Figura 5.3. Comprobación de linealidad para los sensores ubicados a 11 m y 14 m [11]. 
Por lo tanto, cada una de las dos columnas vacías se rellenará con datos generados mediante una 
interpolación lineal usando las columnas contiguas. Para la carga del 50% se usarán las columnas del 
40% y 60%, y para la carga del 70% se usarán las columnas del 60% y 80%. 
Ahora que ya no existen valores nulos en ninguno de los dataframes, se procederá a tratar los valores 
atípicos. Al observar las gráficas del Anexo B se puede apreciar como en todas las gráficas del daño D2 
hay valores atípicos, algunos de ellos son puntuales y tienen un valor absoluto muy distante de la 
media, y otros aparecen de forma repetida a lo largo de una longitud concreta y presentan un valor 
absoluto muy cercano de la media. Para tratar los valores atípicos puntuales, el procedimiento a seguir 
será descartar todos los valores que sean 3 veces mayores a la desviación estándar respecto de la 
media. Adicionalmente, para evitar tener valores nulos en el dataframe se rellenarán estos vacíos con 
Monitorización de estructuras aeronáuticas utilizando una red de sensores distribuidos de fibra óptica 
 
 35 
el valor del sensor inmediatamente anterior. Por otro lado, en el caso de los valores atípicos que se 
presentan a lo largo de una cierta longitud, se observa como solo aparecen en los ensayos con el 70% 
de carga. Sin embargo, no basta con eliminarlos, ya que, en el mismo tramo de longitud, el resto de las 
medidas del mismo ensayo también presentan ruido. De esta manera, en todos los ensayos con una 
carga aplicada del 70% se realizará una interpolación lineal en toda la longitud afectada. 
Es importante comentar que en los ensayos del daño D2 con 6 remaches extraídos, aparte de presentar 
valores atípicos, las medidas no cumplían el principio de linealidad entre las microdeformaciones y la 
carga aplicada debido a una mala práctica a la hora de realizar estos ensayos. Por este motivo se tuvo 
que descartar toda esta secuencia de ensayos. 
En este momento ya tenemos todos los conjuntos de datos sin valores nulos ni valores atípicos, sin 
embargo, en una de las gráficas se observan una serie de picos inusuales al final de cada sección. Esta 
es la gráfica correspondiente al daño D1 con 11 remaches extraídos, y se puede ver en la Figura 5.4. Si 
se observan detenidamente se puede ver que estos picos no son fruto de errores en los ensayos, más 
bien son errores a la hora de eliminar los datos de las trayectorias curvas de la fibra entre cada sección. 
En la gráfica se observa que los datos de los ensayos con cargas del 50% hasta el 100% están 
desplazados hacia la izquierda. Las únicas series de datos correctas son las del 20% y 40% de carga. 
 
Figura 5.4. Campo de deformaciones de la estructura con daño D1 y 11 remaches extraídos. 
Para solucionar este problema se optó por

Continuar navegando

Otros materiales