Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
INSTITUTO TECNOLÓGICO Y DE ESTUDIOS SUPERIORES DE MONTERREY ESTUDIO COMPARATIVO DE DISEÑOS EXPERIMENTALES DE SUPERFICIE DE RESPUESTA PARA LA OPTIMIZACIÓN DE FACTORES LIMITANTES EN PROCESOS INDUSTRIALES. TESIS QUE PARA OPTAR EL GRADO DE MAESTRO EN CIENCIAS CON ESPECIALIDAD EN INGENIERÍA INDUSTRIAL PRESENTA EDUARDO ELEUTERIO HERNÁNDEZ CRUZ Asesor: Dr. Manuel Álvarez Madrigal Co-Asesor: Dr. Humberto Vaquera Huerta Asesor Externo: M. en C. Mario Ulises Larqué Saavedra Comité de Tesis: Dr. Manuel Álvarez Madrigal M. en C. Mario Ulises Larqué Saavedra Dra. Ivonne Abud Urbiola Jurado: Dra. Ivonne Abud Urbiola Presidente M. en C. Mario Ulises Larqué Saavedra Secretario Dr. Manuel Álvarez Madrigal Vocal I DEDICACIONES. A MIS PADRES Y HERMANOS. Este trabajo no hubiera podido culminarse sin el apoyo, siempre incondicional, de la FAMILIA HERNÁNDEZ CRUZ, quienes durante toda mi vida han creído en mí como estudiante, hijo y hermano, orientándome por el camino del éxito y colmándome de amor, cariño y admiración. A MIS ABUELITOS. A estas maravillosas personas que Dios asentó para siempre en un lugar primordial en mi corazón y que gracias a su amor he logrado alcanzar un éxito más en mi vida profesional. En especial, deseo dedicar este trofeo académico a mi ABUELITO TOMÁS CRUZ, quien desafortunadamente me dejó prematuramente al iniciar estos estudios, no sin antes dejarme infinidad de enseñanzas de vida que llevaré indelebles durante toda mi vida. A MI PAREJA. A ese pequeño ser que me ha colmado de cariño y respeto, orientado y apoyado en todos y cada uno de mis proyectos tanto académicos como de vida. II RECONOCIMIENTOS. Es una tarea difícil enumerar a todas aquellas personas que de alguna manera intervinieron, ya sea directa o indirectamente, en la realización de este trabajo. Sin embargo, intentaré hacer patente el agradecimiento y el reconocimiento que cada una de ellas se merece, en su tiempo y lugar. Agradezco: Al TECNOLÓGICO DE MONTERREY CAMPUS ESTADO DE MÉXICO y en particular a la ESCUELA DE GRADUADOS EN INGENIERÍA Y CIENCIAS (EGIC) por haberme otorgado el apoyo económico como becario durante los estudios realizados. En particular, al DR. JAIME MORA VARGAS -Director del Programa de Maestría- quien me apoyó a lo largo de todo este tiempo tanto como profesor como amigo. Al DR. HUMBERTO VAQUERA HUERTA por haber sido el gestor y punto de partida para iniciar este trabajo de investigación, y sobretodo por haberme proporcionado el apoyo y orientación para realizarlo con éxito. A los profesores del Comité de Tesis, profesor DR. MANUEL ÁLVAREZ MADRIGAL, por haberme recibido como tesista, orientado y apoyado hasta la culminación de este trabajo; a la DRA. IVONNE ABUD URBIOLA, con quien más que una relación alumno-profesor, demostró ser siempre una amiga incondicional y guía-receptora activa de muchas de mis inquietudes académicas; y al profesor M. en C. MARIO ULISES LARQUÉ SAAVEDRA, por haber fungido como promotor de las ideas sobre Estadística y Diseño de Experimentos en las aulas de la Universidad Autónoma Metropolitana, y que ahora han sido plasmadas en un trabajo de investigación a nivel Maestría. A todos y cada uno de los profesores con quienes tuve la oportunidad de compartir un valioso tiempo en las aulas académicas del TECNOLÓGICO DE MONTERREY: Dr. Eduardo Díaz Santillán, Dr. Miguel González, Dr. Iván Roa y Dr. Mario Carranza. Al profesor M. en C. GERARDO ARAGÓN GONZÁLEZ, por haber apostado por mí aún siendo estudiante de Ingeniería Industrial en la Universidad Autónoma Metropolitana Unidad Azcapotzalco y por apoyarme en el proyecto de continuar con mis estudios de Maestría. A todos mis compañeros de aula, en especial a Ricardo Trucíos y Erick García. A la secretaria de la Escuela de Graduados en Ingeniería y Ciencias (EGIC), la señora Martha Martínez, por todo su apoyo en la parte administrativa que no podemos nunca evitar. A todos ellos: MUCHAS GRACIAS. III RESUMEN. El Diseño de Experimentos (DOE) aplicado al estudio de procesos industriales ha sido una herramienta cada vez más utilizada en la práctica común, debido a las ventajas operativas que representa analizar el comportamiento de una máquina, equipo, o un conjunto de éstos, bajo condiciones normales de operación, considerando sólo aquellos factores o elementos físicos controlables que realmente están afectando el desempeño del proceso, lo que permite estimar de manera veraz y confiable las posibles mejoras que podrían aplicarse con objeto de incrementar la calidad del producto final. Para realizar dicho análisis operativo, existen distintas metodologías de aplicación que involucran elementos de distinta naturaleza y que van desde la simple intuición y experiencia que sobre el proceso se tenga, hasta la utilización de sofisticados sistemas de análisis de datos para la construcción de las conclusiones finales. En este sentido, es importante contar con una metodología lo suficientemente capaz de guiar al experimentador por el camino correcto en la conducción de diseños experimentales, pero sin llegar a ser demasiado rígida que sea aplicable sólo en casos especiales. En este trabajo de investigación se plantean y desarrollan dos aspectos relevantes para el estudio y análisis de un proceso de tipo industrial: una Metodología de Aplicación Integral, que considera aspectos fundamentales a considerar para una correcta conducción de experimentos; y por otro, el análisis cuantitativo del desempeño que presentan algunos arreglos experimentales específicos para la optimización y mejoramiento de procesos: los Diseños de Superficie de Respuesta. Este último elemento se incluye dentro de la Metodología de Aplicación, para guiar al interesado en la selección racional del mejor diseño que ajusta una superficie y con la cual se establecen los niveles óptimos de operación del proceso que se analiza. El trabajo esta dividido en 5 capítulos. El primero consta de una revisión que si bien no pretende ser exhaustiva, al menos pretende involucrar al lector en la terminología y jerga estadística sobre el análisis y diseño de experimentos en ingeniería. El segundo establece los principales objetivos que se intentará cubrir a lo largo del presente trabajo y desarrolla punto por punto la Metodología de Aplicación propuesta, mencionando los supuestos que deben considerarse así como algunos ejemplos sobre las herramientas de análisis aplicables en cada uno de ellos. El capítulo tercero hace referencia al Estudio Comparativo de Diseños de Superficie de Respuesta; es aquí donde se desarrolla el análisis cuantitativo que permite establecer el desempeño que cada arreglo experimental considerado presenta al aplicarse a un proceso industrial, y es con base en él, que debe llevarse a cabo la selección del mejor diseño a ser aplicado al proceso que se desea optimizar. El cuarto capítulo presenta un caso de aplicación para la técnica de análisis de diseños descrita en el Estudio Comparativo (cap.3); plantea algunas observaciones generadas para los dos casos considerados: 3 y 4 factores de estudio y marca la pauta para la construcción de las conclusiones generales, las cuales son presentadas en el quinto capítulo del trabajo. Al final se incluyen los anexos y demás información que dan soporte al trabajo, como son: las matrices de cada diseño analizado, la discusión del caso con 4 factores de estudio y los códigos de los programas utilizados. IV ÍNDICE ANALÍTICO 1 INTRODUCCIÓN AL DISEÑO DE EXPERIMENTOS (DOE). 1 1.1. DISEÑO DE UN SOLO FACTOR A LA VEZ (OFAT) PARA LLEVAR A CABO EL ANÁLISIS DE UN EXPERIMENTO. 2 1.2. ¿PARA QUE SIRVE EL DISEÑO DE EXPERIMENTOS (DOE)? 3 1.3. DISEÑOS MÁS USADOS EN LA PRÁCTICA COMÚN: FACTORIALES FRACCIONADOS. 5 1.3.1. DISEÑO FACTORIAL 2K. 9 1.4. DISEÑOS FACTORIALESFRACCIONADOS. 11 1.4.1. LA FRACCIÓN UN MEDIO DEL DISEÑO 2K. 12 1.5. CONFUSIÓN EN UN DISEÑO EXPERIMENTAL. 14 1.6. RESOLUCIÓN DE UN DISEÑO EXPERIMENTAL. 15 1.7. LA EXPERIMENTACIÓN COMO HERRAMIENTA DE OPTIMIZACIÓN. 16 1.8. CRITERIOS DE OPTIMALIDAD. 18 1.8.1. CRITERIO DE OPTIMALIDAD D. 19 1.8.2. CRITERIOS DE OPTIMALIDAD A Y G. 20 1.9. DISEÑOS ESTÁNDARES PARA OPTIMIZACIÓN GENERAL. 21 1.10. METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR). 22 1.10.1. FUNCIÓN DEL ANÁLISIS DE REGRESIÓN DENTRO DE LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR). 23 1.10.2. NATURALEZA SECUENCIAL DE LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR). 24 1.10.3. DISEÑOS DE PRIMER ORDEN. 25 1.10.4. DISEÑOS DE SEGUNDO ORDEN. 25 1.10.5. DISEÑOS EXPERIMENTALES PARA AJUSTAR SUPERFICIES DE RESPUESTA. 26 2 APROXIMACIONES METODOLÓGICAS: JUSTIFICACIÓN Y APORTE DEL TRABAJO. 33 2.1. OBJETIVOS GENERALES DEL TRABAJO. 34 2.2. OBJETIVOS PARTICULARES. 35 2.3. METODOLOGÍA DE APLICACIÓN PROPUESTA PARA LA OPTIMIZACIÓN DE FACTORES LIMITANTES EN PROCESOS INDUSTRIALES. 35 1. DETECTAR EL PROCESO A ANALIZAR 35 2. DEFINIR LOS OBJETIVOS DEL ANÁLISIS 37 3. IDENTIFICAR LOS FACTORES IMPORTANTES Y SUS NIVELES 38 4. REALIZAR LA SELECCIÓN DEL DISEÑO EXPERIMENTAL A SER APLICADO (ESTUDIO COMPARATIVO) 40 5. LLEVAR A CABO EL EXPERIMENTO 40 6. ANALIZAR LOS DATOS EXPERIMENTALES 41 7. BOSQUEJAR CONCLUSIONES Y TOMAR DECISIONES 41 8. IMPLEMENTAR LAS MEJORAS AL PROCESO EN UN TIEMPO ADECUADO 41 9. SEGUIMIENTO OPERATIVO DE MEJORAS AL PROCESO 41 3 ESTUDIO COMPARATIVO DE DISEÑOS EXPERIMENTALES PARA LA OPTIMIZACIÓN DE FACTORES. 43 3.1. COMPARATIVA DE DISEÑOS MEDIANTE EFICIENCIAS. 44 3.1.1. RESULTADOS. 46 3.1.2. DISCUSIÓN. 47 V 3.2. COMPARATIVA DE DISEÑOS UTILIZANDO UN MODELO DE SIMULACIÓN. 51 3.2.1. DISCUSIÓN. 58 4 CASO DE APLICACIÓN. MODELO DE SIMULACIÓN UTILIZADO. 60 4.1. DESCRIPCIÓN DE CASO Y CÁLCULO SECUENCIAL. 60 4.2. RESULTADOS Y DISCUSIÓN. 66 4.3. RESUMEN ESTUDIO COMPARATIVO BASADO EN EL CASO DE APLICACIÓN. 71 5 CONCLUSIONES GENERALES. 72 5.1. SOBRE EL ESTUDIO COMPARATIVO DESARROLLADO. 72 5.2. SOBRE LA METODOLOGÍA DE APLICACIÓN PROPUESTA. 75 5.3. INVESTIGACIÓN FUTURA. 76 6 REFERENCIAS Y BIBLIOGRAFÍA. 78 ANEXO A. MATRICES DE LOS DISEÑOS EXPERIMENTALES UTILIZADAS EN EL ESTUDIO COMPARATIVO. 80 A1. DISEÑOS DE SUPERFICIE DE RESPUESTA ESTÁNDAR. 80 A1.1. PARA 3 FACTORES DE ESTUDIO. 81 A1.2. PARA 4 FACTORES DE ESTUDIO. 85 A2. DISEÑOS ÓPTIMOS GENERADOS POR COMPUTADORA. 90 A2.1. PARA 3 FACTORES DE ESTUDIO. 90 A2.2. PARA 4 FACTORES DE ESTUDIO. 93 ANEXO B. ANÁLISIS CUANTITATIVO Y DE CÁLCULO PARA EL CASO CON 4 FACTORES DE ESTUDIO. 95 B1. DESARROLLO MATRICIAL. 95 B2. ANÁLISIS DE ESTABILIDAD PARA EL MODELO DE SIMULACIÓN CON 4 FACTORES. 101 ANEXO C. CÓDIGOS DE LOS PROGRAMAS UTILIZADOS PARA GENERAR EL MODELO DE SIMULACIÓN PROPUESTO Y PARA LA CONSTRUCCIÓN DE DISEÑOS ÓPTIMOS EN SAS®. 103 C1. CÓDIGO UTILIZADO PARA EL MODELO DE SIMULACIÓN PROPUESTO. 103 C1.1. PROGRAMA PARA EL CASO DE 3 FACTORES DE ESTUDIO. 104 C1.2. PROGRAMA PARA EL CASO DE 4 FACTORES DE ESTUDIO. 105 C2. CÓDIGO UTILIZADO PARA CONSTRUIR LOS DISEÑOS ÓPTIMOS. 107 C2.1. PROGRAMA PARA CONSTRUIR UN DISEÑO ÓPTIMO 108 C2.2. EJEMPLO DE SALIDA SAS® PARA UN DISEÑO ÓPTIMO. 108 VI LISTA DE TABLAS Tabla 1. Experimento Factorial con dos factores. 5 Tabla 2. Experimento Factorial con interacción. 6 Tabla 3. Matriz de Diseño de un experimento con 3 factores y 8 corridas. 12 Tabla 4. Matriz de Diseño de un experimento factorial 2(4-1). 12 Tabla 5. Patrón de Alias para un experimento factorial 2(4-1). 13 Tabla 6. Eficiencias D- y G- para Diseños Estándar. 47 Tabla 7. Eficiencias D- y G- para Diseños Óptimos. 47 Tabla 8. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación y un error máximo permisible de 0.0739 para 3 factores de estudio. 66 Tabla 9. Comparativa de Diseños Estándar empleando el Modelo de Simulación con 3 factores de estudio. 67 Tabla 10. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación y un error máximo permisible de 0.0832 para 4 factores de estudio. 68 Tabla 11. Comparativa de Diseños Estándar empleando el Modelo de Simulación con 4 factores de estudio. 69 Tabla 11a. Errores Cuadrados Medios para Diseños Óptimos. 70 Tabla 12. Resultados del Estudio utilizando dos criterios comparativos para Diseños Experimentales, considerando experimentos con 3 y 4 factores de estudio. 71 Tabla 13. Algunas recomendaciones de uso para Diseños Óptimos en comparación con Diseños Estándar. 74 Tabla 8. Número de Réplicas necesarias para obtener estabilidad en el modelo de simulación y un error máximo permisible de 0.0832 para 4 factores de estudio. 101 VII LISTA DE FIGURAS Fig. 1. Experimento factorial sin interacción. 7 Fig. 2. Experimento factorial con interacción. 7 Fig. 3. Experimento con un factor a la vez. 8 Fig. 4. Eficiencia relativa de un diseño factorial con respecto a un experimento de un factor a la vez (OFAT) a dos niveles. 8 Fig. 5. Ejemplo del Contorno de una Superficie de Respuesta. 23 Fig. 6. Exploración Secuencial de la Superficie de Respuesta. 26 Fig. 7. Diseño Box-Behnken para 3 factores. 30 Fig. 8. Diseños Centrales Compuestos para k = 2 y k = 3. 31 Fig. 9. Encadenamiento de Procesos para la Fabricación de cocinas domésticas de acero inoxidable. 36 Fig. 10. Diagrama Ishikawa o de Causa-Efecto para la identificación de procesos críticos. 37 Fig. 11. Ejemplo de un Diagrama de Gantt para la programación de actividades y asignación de recursos. 38 Fig. 12. Factores de importancia: a) variables físicas, b) variables codificadas. 40 Fig. 13. Ejemplo del Análisis de Varianza (ANOVA) con 3 factores de estudio generado por Minitab. 41 Fig. 14. Gráfica Comparativa para Diseños Box-Behnken y Diseños Óptimos a 3 factores. 48 Fig. 15. Gráfica Comparativa para Diseños Central Compuesto y Diseños Óptimos a 3 factores. 49 Fig. 16. Gráfica Comparativa para Diseños Box-Behnken y Diseños Óptimos a 4 factores. 50 Fig. 17. Gráfica Comparativa para Diseños Central Compuesto y Diseños Óptimos a 4 factores. 51 Fig. 18. Ilustración del Grado de Aproximación de Diseños mediante Análisis de Regresión. 52 Fig. 19. Errores asociados a cada punto de diseño a generar para el vector ŷ . 54 Figs. 20-28. Gráficas de Estabilidad del Modelo de Simulación Propuesto con 3 factores. 57 Fig. 29. Superficie de Respuesta asociada al modelo de regresión utilizado para validar el Modelo de Simulación propuesto. 61 Fig. 30. Gráfica de Errores Cuadrados Medios como función del Número de Simulaciones para los Diseños Estándar con 3 factores. 67 Fig. 31. Gráfica de Errores Cuadrados Medios como función del Número de Simulaciones para los Diseños Estándar con 4 factores. 69 Figs. B2.1-B2.9. Gráficas de Estabilidad para el Modelo de Simulación propuesto con 4 factores de estudio. 102 1 1 INTRODUCCIÓN AL DISEÑO DE EXPERIMENTOS (DOE). El Diseño de Experimentos (DOE) es una herramienta estadística muy útil y aplicable para poder conocer el comportamiento de datos recolectados a partir de una serie de ensayos diseñados para probar una relación definida bajo alguna circunstancia específica. Esta relación puede involucrar varios elementos de variación, también conocidos como factores, que afectan sensiblemente la respuesta estudiada, incluyéndose además todas las interacciones posibles, es decir, la respuesta esperada puede estar siendo afectada en gran medida por la interacción (o interdependencia) entre dos o más factores y no simplemente por los factores individuales. Un punto importante en experimentación es observar la utilidad de los resultados buscados, es decir, el investigador debe tener clara conciencia de qué es lo que se pretende determinar al diseñar y realizar el experimento; debe tener claroque todo proceso bajo estudio contiene tanto variables conocidas (controlables) como desconocidas (no controlables) que de forma sistemática afectarán los resultados deseados. Es por ello necesario que el investigador sea una persona familiarizada con el sistema o proceso estudiado, de manera que pueda ser capaz de distinguir y manejar los errores y discrepancias observadas así como discriminar las interacciones no significativas de los factores considerados en el experimento. Además, este hecho permitirá que la conducción del experimento se realice de forma correcta y asertiva. Un diseño de experimentos común podría ser aplicado para estudiar las relaciones entre las distintas concentraciones de ácido sulfhídrico y la cantidad de cloruros acumulados en un ducto de acero al carbono cuya sustancia de trabajo es petróleo crudo. En este ejemplo práctico, la variable respuesta sería la velocidad de corrosión observada en el tiempo de operación establecido. Los resultados del experimento deberán conducir a resolver las siguientes preguntas: • ¿cuáles de los factores considerados en el experimento realmente están afectando la velocidad de corrosión del ducto? 2 • ¿cuáles son las relaciones entre los factores críticos que afectan de manera significativa la velocidad de corrosión del ducto? • ¿cuál es el comportamiento esperado de la velocidad de corrosión al variar los niveles de cada factor crítico simultáneamente? • ¿qué cantidad máxima de cloruros acumulados y qué concentración máxima de ácido sulfhídrico (niveles) debe poseer el ducto para que la velocidad de corrosión sea mínima? Asimismo, el investigador podría interesarse en estudiar solamente la influencia que tiene la cantidad de cloruros en la velocidad de corrosión del ducto sin modificar la concentración de ácido sulfhídrico (nivel del factor). Este análisis se conoce como enfoque de un factor a la vez (OFAT) y es útil cuando se desea observar el efecto individual de cada factor en la variable respuesta, es decir, cuando las interacciones carecen de interés al investigador. Sin embargo, está comprobado que esta estrategia de estudio suele ser ineficiente y poco confiable, conduciendo a determinar condiciones de optimalidad falsas. Es aquí cuando el Diseño de Experimentos (DOE) ofrece una alternativa de estudio más estructurada [1]. 1.1. DISEÑO DE UN SOLO FACTOR A LA VEZ (OFAT) PARA LLEVAR A CABO EL ANÁLISIS DE UN EXPERIMENTO. Como su nombre lo indica, este método de análisis consiste en la variación de un solo factor a un tiempo, dejando el resto en valores fijos (invariantes) con el propósito de observar el cambio en la variable de respuesta y asociar un patrón de cambio a este factor, lo que permite establecer una idea de la magnitud crítica que posee en el proceso estudiado. El enfoque OFAT para experimentación es aún empleado en muchas organizaciones cuando se desea realizar un experimento para determinar los valores de operación estándar de los parámetros principales [2]. En un principio, este enfoque era efectivo y proporcionaba resultados válidos y relativamente confiables cuando se deseaba tener un primer acercamiento en la exploración de posibles mejoras a un proceso o bien en algunas actividades de solución de problemas. Algunas de las razones por las cuales el enfoque OFAT cobró popularidad en experimentación son los siguientes: • Era comúnmente aceptado el hecho de que la única manera de medir con precisión el efecto del cambio en un diseño era conservar todo lo demás fijo de manera que el último cambio fuera evaluado. • Los experimentos OFAT podían ser fácilmente conducidos y no requerían ningún conocimiento estadístico avanzado en su ejecución o análisis. • Con el enfoque OFAT, las conclusiones del experimento podían ser bosquejadas inmediatamente después de la obtención del dato de cada ensayo o corrida por simple comparación con los datos obtenidos de ensayos anteriores. Este proceso podía ser utilizado para sugerir “soluciones rápidas” al problema. 3 • En muchas compañías de manufactura, los gerentes exhortaban a los ingenieros a utilizar soluciones “domésticas” en la solución de problemas de proceso y relacionadas con el producto. Estas soluciones internas eran frecuentemente consistentes con el enfoque OFAT para experimentación –especialmente mientras los gerentes se conformaban con soluciones rápidas que producían beneficios en el corto plazo. • Muchas organizaciones no estaban aún culturalmente preparadas para la introducción e implementación de técnicas avanzadas de mejoramiento de la calidad como el Diseño de Experimentos (DOE). Los ingenieros e investigadores en muchas instituciones académicas no conocían el significado del Diseño de Experimentos utilizado en la solución de ejemplos o problemas del mundo real. El enfoque de la estadística en ingeniería se basaba en teoría de probabilidad, distribuciones de probabilidad y en aspectos más matemáticos sobre la materia. Sin embargo, este enfoque de análisis depende en gran medida de la suerte, la especulación, la intuición y la experiencia que se tenga sobre el proceso bajo estudio para alcanzar resultados satisfactorios. Además, este tipo de experimentación requiere de muchos recursos para obtener apenas una cantidad limitada de información acerca del proceso. Así, experimentos OFAT serán frecuentemente poco confiables, ineficientes, con alto consumo de tiempo y quizá proporcione condiciones óptimas de operación falsas. El pensamiento estadístico y los métodos estadísticos juegan un papel muy importante en la planeación, conducción, análisis e interpretación de datos obtenidos de experimentos en ingeniería. Cuando varias variables influyen cierta característica de un producto, la mejor estrategia es diseñar un experimento de tal manera que permita la obtención de conclusiones válidas, confiables y coherentes de forma efectiva, eficiente y económica. 1.2. ¿PARA QUE SIRVE EL DISEÑO DE EXPERIMENTOS (DOE)? En una perspectiva más formal, un experimento puede definirse como una prueba o serie de pruebas en las que se hacen cambios deliberados en las variables de entrada de un proceso o sistema para observar e identificar las razones de los cambios que pudieran observarse en la respuesta de salida o variable respuesta. Inicialmente, el diseño experimental fue aplicado al área agrícola. Este primer acercamiento fue encabezado por el trabajo pionero de Sir Ronald A. Fisher en los años 1920 y principios de la década de 1930. En este período, Fisher fue el responsable de las estadísticas y el análisis de datos en la Estación Agrícola Experimental de Rothamsted en las cercanías de Londres, Inglaterra. Fisher se percató de que las fallas en la forma en que se llevaba a cabo el experimento que generaba los datos obstaculizaban con frecuencia el análisis de los datos de los sistemas agrícolas. Fisher incorporó de manera sistemática el pensamiento y los principios estadísticos en 4 el diseño de las investigaciones experimentales, incluyendo el concepto de diseño factorial y el análisis de varianza. Sus libros tuvieron profundas influencias en el uso de la Estadística, particularmente en la agricultura y las ciencias biológicas relacionadas. Si bien es cierto que la aplicación del diseño estadístico en ambientes industriales se inició en la década de 1930, el catalizador fue el desarrollo de la Metodología de Superficie de Respuesta (MSR) por parte de Box y Wilson [3]. Estos autores se percataron y explotaron el hecho de que muchos experimentos industriales son fundamentalmente diferentes de sus contrapartes agrícolas en dos sentidos: a) la variable de respuesta puede observarse por lo general casi de inmediato, y b) el investigador puede obtener con prontitud información crucial de un pequeño grupo de corridas que pueden usarse para planear el siguiente experimento. En los 30 años siguientes, la MSR y otras técnicasde diseño se generalizaron en la industria química y de proceso, sobre todo en el trabajo de investigación y desarrollo. A partir de los resultados obtenidos de la aplicación de los diseños experimentales al análisis causal de factores, y más aún, gracias a la creciente integración de conocimientos sólidos en estadística y en educación formal en Diseño de Experimentos en los programas de ingeniería en las universidades, tanto a nivel de licenciaturas como de posgrado, se ha logrado ampliar sensiblemente el rango de aplicación de experimentos más allá del campo agrícola, incluyendo procesos operativos en prácticamente cualquier industria. Como en el ejemplo presentado en la sección anterior, muchos campos de la ciencia aplicada utilizan actualmente el Diseño de Experimentos para determinar las principales relaciones de, y entre factores bajo estudio; como se mencionó, dichas relaciones deben ser estudiadas para definir puntos clave en el comportamiento del suceso analizado y permitir una mejor toma de decisiones a partir de las inferencias realizadas. Existen diferentes enfoques en que el diseño experimental proporciona valiosos resultados: • Análisis para Diseño de Producto: características elementales de un nuevo producto nuevo tales como especificaciones técnicas y dimensiones críticas de operación deben ser consideradas en el diseño final de éste, a fin de que se tengan estimaciones confiables acerca de los requerimientos de materia prima e insumos así como de los procesos de transformación que implica su fabricación. En esta tarea, el Diseño de Experimentos juega un papel fundamental al permitir estudiar las variables que intervienen en dicha fabricación, sin necesidad de montar todo el sistema de manufactura necesario. • Análisis de Procesos de Manufactura: aunado al punto anterior, el Diseño de Experimentos puede ser aplicado al desarrollo de procesos de manufactura al permitir el estudio de variables o factores críticos a considerarse tales como dimensiones y capacidades de maquinaria, cantidad de recursos humanos y técnicos, etc. y sus principales efectos en el producto final. • Mejoramiento de Procesos: como se mencionó anteriormente, el Diseño de Experimentos es aplicado para realizar estudios relacionados con la detección e implementación de mejoras en el desempeño de algún proceso, generalmente industrial, que involucre variables cuantificables que proporcionen información valiosa acerca del producto final. 5 Este último enfoque permite utilizar las herramientas adicionales de análisis estadístico para establecer los niveles óptimos en que los factores críticos considerados en el estudio deben ser empleados para obtener el resultado deseado en la variable respuesta, tal es el caso de la Metodología de Superficie de Respuesta (MSR) introducida por Box y Wilson, permitiendo un uso racional de los recursos disponibles para llevar a cabo el experimento. En este campo el Diseño de Experimentos juega un papel preponderante en la industria moderna y cobra cada vez más una mayor difusión y utilización entre los ingenieros de procesos. 1.3. DISEÑOS MÁS USADOS EN LA PRÁCTICA COMÚN: FACTORIALES FRACCIONADOS. Uno de los diseños más comúnmente utilizados en experimentación son los conocidos como Diseños Factoriales. Estos son diseños en los que los factores varían juntos. Específicamente, por un experimento factorial se entiende que en cada ensayo o réplica completos del experimento se investigan todas las combinaciones posibles de los niveles de los factores. De tal modo, si hay dos factores A y B con a niveles del factor A y b niveles del factor B, entonces cada réplica contiene todas las ab combinaciones, cada una de ellas denominada tratamiento. Como se mencionó anteriormente, el efecto de un factor se define como el cambio en la respuesta producido por un cambio en el nivel del factor. Esto se denomina un efecto principal porque se refiere a los factores principales en el estudio. Por ejemplo, considérense los datos en la tabla 1[4]. Tabla 1. Experimento Factorial con dos factores. Factor B Factor A B1 B2 A1 10 20 A2 30 40 El efecto principal del factor A es la diferencia entre la respuesta promedio en el primer nivel de A y la respuesta promedio en el segundo nivel de A, ó 20 2 2010 2 4030 = + − + =A Esto es, el cambio del factor A del nivel 1 al nivel 2 ocasiona un incremento en la respuesta promedio de 20 unidades. De modo similar, el efecto principal de B es: 10 2 3010 2 4020 = + − + =B 6 En algunos experimentos, la diferencia en la respuesta entre los niveles de un factor no es la misma en todos los niveles de los otros factores. Cuando esto ocurre, hay una interacción entre ellos. Para ilustrar esto, considérense los datos de la tabla 2. Tabla 2. Experimento Factorial con interacción. Factor B Factor A B1 B2 A1 10 20 A2 30 0 En el primer nivel del factor B, el efecto de A es A = 30-10 = 20 y en el segundo nivel del factor B, el efecto de A es A = 0 – 20 = -20 Puesto que el efecto de A depende del nivel elegido para el factor B, hay una interacción entre A y B. Cuando una interacción es grande, los efectos principales correspondientes tienen poca importancia. Por ejemplo, empleando los datos de la tabla 2, encontramos el efecto principal de A como: 0 2 2010 2 030 = + − + =A y estaríamos tentados a concluir que no hay efecto de A. Sin embargo, cuando examinamos los efectos de A en niveles diferentes del factor B, se observó que este no fue el caso. El efecto del factor A depende de los niveles del factor B. De tal modo, el conocimiento de la interacción AB es más útil que el conocimiento del efecto principal. Una interacción significativa puede enmascarar la importancia de los efectos principales. El concepto de interacción puede ilustrarse en forma gráfica. En la Figura 1 se grafican los datos de la tabla 1 contra los niveles de A para ambos niveles de B. Nótese que las líneas B1 y B2 son aproximadamente paralelas, lo que indica que los factores A y B no interactúan en forma significativa. En la figura 2 se grafican los datos de la tabla 2. En esta gráfica, las líneas B1 y B2 no son paralelas, señalando la interacción entre los factores A y B. Tales despliegues gráficos a menudo son útiles en la presentación de resultados de experimentos. 7 Fig. 1. Experimento factorial sin interacción1. Fig. 2. Experimento factorial con interacción. El concepto de interacción puede ilustrarse de otra manera. Suponga que los dos factores del diseño tratado son cuantitativos (temperatura, presión, tiempo, etc.) Entonces una representación con un modelo de regresión del experimento factorial de dos factores podría escribirse como: εββββ ++++= 211222110 xxxxy donde y es la respuesta, las β son parámetros cuyos valores deben ser determinados, x1 es una variable que representa al factor A, x2 es una variable que representa al factor B, y ε es un término del error aleatorio. Las variables x1 y x2 se definen en una escala codificada de -1 a +1 (los niveles bajo y alto de A y B), y x1x2 representa la interacción entre x1 y x2. Las estimaciones de los parámetros en este modelo de regresión resultan estar relacionadas con las estimaciones de los efectos. Para el ejemplo considerado en la tabla 2 se encontró que los efectos principales de A y B son A = 20 y B = 10. Las estimaciones de β1 y β2 son la mitad del valor del efecto principal correspondiente; por lo tanto, β1estimada = 20/2 = 10 y β2estimada = 10/2 = 5. El efecto de la interacción de la figura 2 es AB = -20, por lo que el valor del coeficiente de la interacción en el modelo de regresión es β12estimada = -20/2 = -10. El parámetro β0 se estima con el promedio de las cuatro respuestas, o β0estimada = (10+30+20+0)/4 = 15. Por lo tanto, el modelo de regresión ajustado es: 2121 1051015 xxxxy −++=1 Adaptado de: Hines, Montgomery. Probabilidad y Estadística para Ingeniería. Ed. CECSA. México, 2004. 8 Las estimaciones obtenidas de esta manera de los parámetros para el diseño factorial en el que todos los factores tienen dos niveles (- y +) resultan ser estimaciones de mínimos cuadrados. Es sencillo ilustrar la ventaja de los diseños factoriales. Suponga que se tienen dos factores A y B cada uno con dos niveles, como en los ejemplos anteriores. Ahora, los niveles de los factores se denotarán por A-, A+, B- y B+. Podría obtenerse información acerca de ambos factores haciéndolos variar uno a la vez, similarmente al enfoque de experimentación OFAT analizado en la sección anterior y como se muestra en la figura 3; el efecto de cambiar el factor A está dado por A+B- - A-B-, y el efecto de cambiar el factor B está dado por A-B+ - A-B-. Debido a que está presente el error experimental, es deseable realizar dos observaciones, por ejemplo, para cada combinación de tratamientos y estimar los efectos de los factores utilizando las respuestas promedio. Por lo tanto, se necesita un total de seis observaciones. Fig. 3. Experimento con un factor a la vez2. Si se hubiera efectuado un experimento factorial, se habría registrado una combinación adicional de los tratamiento, A+B+. Ahora, utilizando sólo cuatro observaciones, pueden hacerse dos estimaciones del efecto de A: A+B- - A-B- y A+B+ - A-B+. De manera similar, pueden hacerse dos estimaciones del efecto de B. Estas dos estimaciones de cada efecto principal podrían promediarse para producir efectos principales promedio que tienen la misma precisión que las estimaciones del experimento con un solo factor, pero sólo se requieren cuatro observaciones en total, y se diría que la eficiencia relativa del diseño factorial con respecto al experimento de un factor a la vez (OFAT) es de 6/4 = 1.5. En general, esta eficiencia relativa aumentará conforme se incremente el número de factores, como se muestra en la figura 4. Fig. 4. Eficiencia relativa de un diseño factorial con respecto a un experimento de un factor a la vez (OFAT) a dos niveles. 2 ídem. 9 Suponga que ahora está presente una interacción. Si el diseño de un factor a la vez indicara que A-B+ y A+B- dieron mejores respuestas que A-B-, una conclusión lógica es que A+B+ sería todavía mejor. Sin embargo, si está presente una interacción, esta conclusión puede ser una equivocación grave. En resumen, se observa que los diseños factoriales ofrecen varias ventajas. Son más eficientes que los experimentos de un factor a la vez (OFAT), según se analizó con mayor detalle en la sección anterior. Además, un diseño factorial es necesario cuando puede haber interacciones presentes a fin de evitar llegar a conclusiones incorrectas. Por último, los diseños factoriales permiten la estimación de los efectos de un factor con varios niveles de los factores restantes, produciendo conclusiones que son válidas para un rango de condiciones experimentales. 1.3.1. DISEÑO FACTORIAL 2K. Los tipos más simples de diseños factoriales incluyen únicamente dos factores o conjuntos de tratamientos. El número total de experimentos para estudiar k factores a dos niveles es 2k. Los diseños factoriales 2k son particularmente útiles en las primeras fases del trabajo experimental, especialmente cuando el número de parámetros de proceso o parámetros de diseño (factores) es menor o igual a 4. Para el caso general del diseño factorial de dos factores, sea yijk la respuesta observada cuando el factor A tiene el nivel i-ésimo (i = 0, 1) y el factor B tiene el nivel j-ésimo (j = 0, 1) en la réplica k-ésima (k = 1, 2,…, n). En general, el experimento factorial de dos factores aparece distribuido en forma tabular cuyos reglones serán los tratamientos del factor A aplicados a distintos niveles del factor B; análogamente, las columnas son los tratamientos del factor B a distintos niveles del factor A. El orden en que se hacen las abn observaciones se selecciona al azar, por lo que este diseño es un diseño completamente aleatorio. Las observaciones de un experimento factorial pueden describirse con un modelo. Hay varias formas de escribir el modelo de un experimento factorial. El modelo de los efectos es: ijkijjiijky ετββτμ ++++= )( i = 0, 1 para j = 0, 1 k = 1, 2,…, n donde μ es el efecto promedio global, τi es el efecto del nivel i-ésimo del factor A, βj es el efecto del nivel j-ésimo del factor B, (τβ)ij es el efecto de la interacción entre τi y βj, y εijk es un componente del error aleatorio. Se supone que ambos factores son fijos, y los efectos de los tratamientos se definen como las desviaciones de la media global, por lo que ∑ y = = a i i 1 0τ 10 ∑ = = b j j 1 0β . De manera similar, los efectos de las interacciones son fijos y se definen de tal modo que . Puesto que hay n réplicas del experimento, hay abn observaciones en total. ∑ ∑ = = =+ a i b j ijij 1 1 0)()( τβτβ Otro modelo posible de un experimento factorial es el modelo de las medias: ijkijijky εμ += i = 0, 1 para j = 0, 1 k = 1, 2,…, n donde la media de la celda ij-ésima es: ijjiij )(τββτμμ +++= También podría utilizarse un modelo de regresión como el presentado en la sección anterior. Los modelos de regresión resultan ser particularmente útiles cuando uno o más de los factores del experimento son cuantitativos. En el diseño factorial de dos factores, los factores (o tratamientos) de los renglones y las columnas A y B son de igual interés. Específicamente, el interés se encuentra en probar hipótesis acerca de la igualdad de los efectos de los tratamientos de los renglones, por ejemplo: Ho: τ1 = τ2 =…= τa H1: al menos una τi ≠ 0 y de la igualdad de los efectos de los tratamientos de las columnas, por ejemplo, Ho: β1 = β2 =… = βb = 0 H1: al menos una βj ≠ 0 También existe interés en determinar si los tratamientos de los renglones y las columnas interactúan. Por lo tanto, también querría probarse: Ho: (τβ)ij = 0 H1: al menos una (τβ)ij ≠ 0 11 1.4. DISEÑOS FACTORIALES FRACCIONADOS. Hasta el momento se han presentado algunas generalidades para el estudio de los diseños factoriales, particularmente el diseño 2k el cual es ampliamente utilizado al estudiar sólo dos niveles para cada uno de los k factores que afectan la variable de respuesta; asimismo, se han presentado algunos elementos a considerar dentro del análisis estadístico posterior a la recolección de datos, los cuales establecen las conclusiones generales del experimento, ya que permiten asociar los resultados del experimento realizado e inferir a partir de ellos, el comportamiento del proceso bajo estudio. Esto a su vez permite llevar a cabo la correcta toma de decisiones acerca del mejoramiento de dicho proceso (fijar niveles óptimos de los factores críticos, tener mayor control sobre la variable de respuesta, coordinar acciones preventivas sobre el proceso, etc.) de manera rápida y confiable. Sin embargo, es necesario ahondar un poco más en el estudio de diseños experimentales desarrollados en primera instancia y como un primer acercamiento en el estudio de procesos de optimización de recursos, donde lo que se busca es obtener resultados confiables utilizando un mínimo número de corridas experimentales. Para llevar a cabo esto, es obligado trabar conocimiento con el tipo de diseños conocidos como Factoriales Fraccionados, los cuáles parten de consideraciones más experimentadas acerca del comportamiento general del proceso, para poder discriminar interacciones entre factores que podrían considerarse insignificantes en la determinación de la variable de respuesta, por lo cual se toma sólouna fracción del diseño factorial completo reduciéndose así el número de corridas necesarias para el experimento y reduciendo por ende, los recursos para hacerlo. Si bien el aplicar este criterio requiere de un conocimiento mayor por parte del investigador-dueño del proceso a analizar, lo que hace a estos diseños un poco más sofisticados, su aplicación e interpretación es muy útil y fácil. Además, cuando el número de factores de un diseño factorial 2k se incrementa, el número de corridas necesarias para realizar una réplica completa del diseño rebasa con rapidez los recursos de la mayoría de los experimentadores, lo que obliga a eliminar algunas corridas del experimento, haciéndolo más esbelto y manejable. Por ejemplo, una réplica completa de un diseño 26 requiere 64 corridas. En este diseño, sólo 6 de los 63 grados de libertad corresponden a los efectos principales, y sólo 15 a las interacciones de dos factores. Los 42 grados de libertad restantes se asocian con las interacciones de tres o más factores. Si el experimentador puede suponer razonablemente que ciertas interacciones de orden superior son insignificantes es posible obtener información de los efectos principales y las interacciones de orden superior corriendo únicamente una fracción del experimento factorial completo. Como se mencionó anteriormente, estos diseños factoriales fraccionados se encuentran entre los tipos de diseños más generalizado en el diseño de productos y procesos así como también en el mejoramiento de procesos industriales. 12 Una de las principales aplicaciones de los diseños factoriales fraccionados es en los experimentos de tamizado o exploración [5]. Se trata de experimentos en los que se consideran muchos factores y el objetivo es identificar aquellos factores (en caso de haberlos) que tienen efectos grandes. Los experimentos de tamizado suelen realizarse en las etapas iniciales de un proyecto, cuando es posible que muchos de los factores considerados en un principio tengan efecto reducido o nulo sobre la variable de respuesta. Entonces, los factores que se identifican como importantes o críticos se investigan con mayor detalle en experimentos subsecuentes. 1.4.1. LA FRACCIÓN UN MEDIO DEL DISEÑO 2K. La construcción de fracciones un medio de un diseño factorial completo es sencillo y resulta de manera directa. Considere un experimento sencillo con 3 factores [6]. La tabla 3 muestra la matriz de diseño con todos los efectos principales e interacciones asignados a varias columnas de la matriz. Basados en la consideración de que las interacciones entre 3 factores (tercer orden) y orden superior son despreciables, se puede utilizar la interacción de la columna ABC en la tabla 3 para generar valores fijos para el cuarto factor D. En otras palabras, sería factible estudiar 4 factores usando 8 corridas aliando deliberadamente el factor D con la interacción ABC. Esto se refiere a un diseño factorial 2(4-1) (Tabla 4). Tabla 3. Matriz de Diseño de un experimento con 3 factores y 8 corridas. Tabla 4. Matriz de Diseño de un experimento factorial 2(4-1). En esta tabla, D = ABC implica que el efecto principal D es confundido (o aliado) con la interacción de tercer orden ABC. Sin embargo, interacciones de tercer orden están fuera del interés de los experimentadores. El diseño generador de este diseño en particular esta dado por D = ABC. En ocasiones se hará referencia a un diseño generador, por ejemplo ABC, como una palabra. La relación de definición de este diseño esta dada por: D x D = D2 = ABC = I, donde I 13 es elemento identidad. Una vez que se conoce la relación de definición de un diseño, se puede generar entonces la estructura alias para ese diseño en particular. En el experimento considerado, I = ABCD (relación de definición). Para determinar el alias de A, se multiplican ambos lados de la relación de definición por A. Esto produce: A x I = A x ABCD = A2BCD = BCD con A2 = 1 Ahora, se pueden generar alias de B y C como se muestra: B x I = B = ACD C x I = C = ABD Como se está interesado generalmente en conocer las interacciones entre dos factores, se pueden generar también alias para todas ellas, como se muestra: I x AB = A2B2CD = CD I x AC = A2BC2D = BD I x BC = AB2C2D = AD I x AD = A2BCD2 = BC I x BD = AB2CD2 = AC I x CD = ABC2D2 = AB Similarmente, se pueden generar alias para interacciones de tercer orden, como se muestra: ABC = A2B2C2D = D I x ABD = A2B2CD2 = C I x ACD = A2BC2D2 = B I x BCD = AB2C2D2 = A La tabla 5 presenta el patrón completo de alias (o patrón de confusión) para 4 factores en 8 corridas. Tabla 5. Patrón de Alias para un experimento factorial 2(4-1). 14 Para el diseño ejemplificado, la resolución es de IV3 (los efectos principales están confundidos con interacciones de tres factores y las interacciones de dos factores están confundidas con otras interacciones de dos factores). En situaciones reales, algunas interacciones podrían estar confundidas con otras interacciones de dos factores, de aquí que no se pueda establecer cuales de ellas son importantes para ese proceso. En tales situaciones se deberá utilizar diseños cruzados. Los diseños cruzados son usados para reducir la confusión cuando uno o más efectos no pueden ser estimados independiente o separadamente. Dicho de otro modo, se dice que los efectos son aliados. Sin embargo, los diseños cruzados son utilizados en diseños de resolución III para romper los lazos entre los efectos principales y los efectos de interacciones de dos factores. Por ejemplo, si se cruza un factor, dígase A, entonces A y todas sus interacciones de dos factores estarán libres de otros efectos principales y de otras interacciones de dos factores. Si se cruzan todos los factores, entonces todos los efectos principales estarán libres entre sí y de todas las interacciones de dos factores. En un diseño cruzado, se podría realizar un segundo experimento donde el nivel de los factores son todos opuestos de sus respectivos valores en el primer experimento. Esto es, intercambiar los -1 y los +1 antes de comenzar la ejecución del segundo experimento. Sin embargo, tales diseños no son recomendados cuando el tiempo y recursos son limitados para experimentos de tipo industrial. Bajo tales circunstancias, consideraciones y juicios de ingeniería aunados a conocimientos en la materia serían de gran ayuda a los experimentadores en la tarea de separación de efectos principales de los efectos de interacciones confundidas. En el ejemplo anterior se introdujeron algunos conceptos de importancia en la comprensión y utilización de diseños factoriales fraccionados: confusión en un diseño y resolución de un diseño experimental. A manera de aclaración, ambos conceptos son presentados a continuación. 1.5. CONFUSIÓN EN UN DISEÑO EXPERIMENTAL. En cualquier experimento factorial fraccionado, algunos efectos están confundidos entre sí. El objetivo de los diseños factoriales fraccionados es asegurar que los efectos de interés primario están claramente separados (o sin confusión) o, si esto no es posible, confundidos con efectos que no posean apreciable magnitud. Una primera definición del término confusión podría ser referida a situaciones donde un efecto no puede ser atribuido sin ambigüedad a un efecto principal o interacción. La definición formal presentada a continuación refiere la confusión de efectos explícitamente a su cálculo. Acorde a esta definición, un efecto está confundido con respecto a otro si las representaciones de los dos efectos son idénticas, dejando de lado un posible cambio de signo. Los efectos que están confundidos en esta manera son llamados alias. 3 La resolución de un diseño experimental será tratado con mayor detalle en la siguiente sección. 15 Efectos confundidos. Dos o más efectos experimentales están confundidossi los efectos calculados pueden ser atribuidos solamente a su influencia combinada en la respuesta, no a sus influencias individuales. Dos o más efectos están confundidos si el cálculo de un efecto usa la misma (aparte del signo) diferencia o contraste de los promedios de respuesta respecto al cálculo de los otros efectos. En algunos diseños experimentales, efectos de factores están confundidos con efectos de otros factores. En otros diseños, efectos de factores están confundidos con efectos de bloques. Es imperativo que un experimentador conozca cuáles efectos están confundidos, y con qué otros efectos lo están, cuando se diseña un experimento. Este conocimiento es necesario para asegurar que las conclusiones acerca de los efectos de interés no estarán comprometidas por las posibles influencias de otros efectos. La confusión de efectos no sólo ocurre cuando un experimento factorial completo es ejecutado en bloques; también ocurre cuando sólo una porción de todas las posibles combinaciones de factor-nivel están incluidas en el diseño. Como se mencionó anteriormente, una confusión ocurre debido a que dos o más representaciones de efectos son iguales (sin considerar el cambio en todos los signos). Un efecto calculado representa entonces la influencia combinada de los efectos. En algunos casos (por ejemplo, en experimentos OFAT, tratados en la primera sección de este trabajo), el patrón de confusión podría ser tan complejo que no puede establecerse con seguridad que cualquiera de los efectos calculados miden los efectos de los factores deseados. Es por esto que la confusión planeada, confusión en la cual los efectos importantes están sin confundir o están confundidos con efectos considerados insignificantes, es la base para la construcción estadística de los experimentos factoriales fraccionados [6]. 1.6. RESOLUCIÓN DE UN DISEÑO EXPERIMENTAL. Una importante guía en la selección de experimentos factoriales fraccionados es el concepto de Resolución del Diseño. La resolución de un diseño identifica para un diseño específico, el orden de confusión de efectos principales e interacciones. Resolución del Diseño. Un diseño experimental es de resolución R si todos los efectos contenidos en s o menos factores permanecen sin confusión con otros efectos conteniendo menos de (R – s) factores. La resolución de un diseño está definido en términos de cuáles efectos están sin confusión con cuáles otros efectos. Un investigador busca experimentos factoriales fraccionados que tengan efectos principales (s = 1) e interacciones de orden menor (dígase aquellos que incluyen s = 2 ó 3 factores) no confundidos con otros efectos principales e interacciones de orden menor; equivalentemente, diseños en los cuales dichos efectos estén confundidos solamente con interacciones de orden superior. 16 La resolución de un diseño es usualmente denotado por números romanos en capital; e.g., III, IV, V. Para diseños experimentales, diseños de resolución III, IV y V son de importancia particular [5]. • Diseños de Resolución III. Estos son diseños en los cuales ningún efecto principal está confundido con cualquier otro efecto principal, pero sí con interacciones de dos factores y éstos pueden estar confundidos entre sí. • Diseños de Resolución IV. Estos son diseños en los cuales ningún efecto principal está confundido con cualquier otro efecto principal o con cualquier efecto de interacción de dos factores, pero los efectos de la interacción entre dos factores están confundidos entre sí. • Diseños de Resolución V. Estos son diseños en los cuales los efectos principales no están confundidos con otros efectos principales, con interacciones de dos factores ni con interacciones de tres factores; pero los efectos de interacciones de dos factores están confundidos con los efectos de interacciones de tres factores. 1.7. LA EXPERIMENTACIÓN COMO HERRAMIENTA DE OPTIMIZACIÓN. Hasta ahora se ha presentado y discutido en términos generales, el papel que juega el Diseño de Experimentos (DOE) en la determinación de factores críticos dentro de un proceso que requiere de mejoramiento, ya sea en desempeño o incluido como parte del diseño de producto. Los diseños más difundidos para determinar las interacciones de importancia que deben ser considerados en dichas tareas son los Diseños Factoriales Fraccionados. Si bien existen varios diseños que han sido desarrollados para estudiar de manera clara y detallada la optimización de procesos, a la vez que permiten un entendimiento más sólido de los resultados obtenidos, los diseños factoriales fraccionados son una primera aproximación al estudio formal del concepto de optimización experimental. Estos diseños permiten correr sólo una fracción del número total de corridas del experimento considerado, lo que permite optimizar los recursos necesarios para realizarlo. Como se planteó anteriormente, una de las aplicaciones más comunes para el Diseño de Experimentos (DOE) y que se ha difundido en gran escala especialmente en procesos que involucran dos o más variables, es la optimización de factores. Por ejemplo, en un experimento de caracterización, el interés principal suele centrarse en determinar las variables del proceso que afectan la respuesta. Esto puede ser logrado a través de la identificación de la zona factible del experimento, seguido de una exploración más detallada de la región donde se encuentra el óptimo; el siguiente paso lógico es la optimización, es decir, determinar la región de los factores importantes que conduzca a la obtención de la mejor respuesta posible, esto puede conseguirse aplicando un diseño de superficie de respuesta que indique los factores de importancia que deben ser considerados dentro del modelo. 17 De un modo general, los diseños factoriales fraccionados proponen la optimización de los recursos necesarios para correr un experimento, con la garantía de que los resultados obtenidos serán válidos dentro del rango de estudio considerado. Esto permite establecer a priori que la utilización de estos diseños es recomendable cuando se desea minimizar el número de corridas experimentales, a la vez que se reducen sensiblemente los recursos necesarios para llevarlo a cabo. En un experimento que involucre 4 factores a 2 niveles cada uno se tendría 24 corridas (16 corridas en total); esto conduciría a realizar el experimento considerando interacciones de uno, dos y tres factores, lo que algunas veces no aporta el nivel de detalle deseado para conocer el desempeño del equipo durante el experimento. En este ejemplo sería recomendable despreciar las interacciones de orden superior que no producen afectaciones mayores en la variable de respuesta; en otras palabras, se está optimizando el número de corridas experimentales de manera que se obtengan los mismos resultados con el menor número de ensayos. El desarrollo de la ciencia y la tecnología conducen a complicaciones naturales en la interpretación teórica de los resultados obtenidos y en los métodos de cálculo para las investigaciones experimentales necesarias. Situaciones experimentales más complicadas conducen a incrementos considerables en los costos de investigación experimental. Por ejemplo, se podría citar investigaciones en la esfera de la física de partículas elementales donde la necesidad de construir poderosos aceleradores hacen que las mediciones sean muy costosas. Además, el problema de obtener una cantidad considerable de datos de procesos bajo estudio con recursos finitos es real. La confianza en la intuición del experimentador para encontrar la solución a un problema dado se ha convertido cada vez menos alentadora. En conexión con esto, es absolutamente necesario suministrar una amplia variedad de métodos que proporcionen no sólo los medios de reducción de datos experimentales, sino también que permitan la organización del experimento de una manera óptima. El aparato matemáticousado en la organización óptima de experimentos está basado en una composición de métodos de estadística matemática y de métodos de solución de problemas extremos. Cada vez más, la estadística matemática es necesaria para la prudente construcción y elucidación de las propiedades básicas del criterio de optimalidad de un experimento. Posteriormente, el problema de la organización óptima de un experimento conduce a la solución de algún problema extremo. Actualmente, es posible dividir la teoría matemática del diseño experimental en dos áreas básicas: el diseño de experimentos extremos y el diseño de experimentos para la elucidación del mecanismo de un fenómeno. Diseños del primer tipo son usados en aquellos casos en que el investigador está interesado en condiciones bajo las cuales el proceso estudiado satisface algún criterio de optimalidad. Por ejemplo, en el desarrollo de un nuevo proceso químico-tecnológico, el criterio de optimalidad consiste en la maximización de la salida de los productos de la reacción. En este caso, el diseño consiste en encontrar aquellos valores de temperatura, presión de los reactivos, porcentaje de concentración, etc. para los cuales los requerimientos establecidos son satisfechos. 18 Frecuentemente, el investigador encuentra necesario dilucidar el comportamiento global de un objeto analizado, o en otras palabras, elucidar el mecanismo de un fenómeno. Por ejemplo, en el estudio del proceso químico-tecnológico podría ser necesario elucidar la dependencia de los productos finales de la reacción a partir de los valores de temperatura, presión, reactivos, etc. considerados. En el lenguaje matemático, un tipo de problema similar está formulado de la siguiente manera: es necesario encontrar una función que defina la relación entre el producto final de la reacción y las cantidades introducidas al principio de la reacción (temperatura, porcentaje de concentración de reactivos, etc.) Dicho de otro modo: encontrar un modelo matemático del proceso dado. Una vez encontrada dicha relación, se procedería a determinar los parámetros de operación óptimos que proporcionen una maximización del producto de la reacción química considerada; esta tarea ha sido analizada con el empleo de criterios de optimalidad, aportando resultados valiosos para el campo de aplicación experimental. 1.8. CRITERIOS DE OPTIMALIDAD. Los diseños estándares de superficie de respuesta conocidos tales como el Diseños Central Compuesto (DCC) [7] y los Diseños Box-Behnken [8] con sus variantes, son de uso generalizado debido a que son diseños bastante generales y flexibles. Si la región experimental es un cubo o una esfera, de manera típica existe un diseño de superficie de respuesta que será aplicable al problema. Sin embargo, ocasionalmente el experimentador se encuentra con una situación en la que el diseño estándar de superficie de respuesta puede no ser una elección obvia. Los diseños generados por computadora son una alternativa a considerar en estos casos. Desde el punto de vista matemático, el diseño de experimentos óptimos se remite a la determinación de los valores que mejor ajusten el fenómeno visto como un problema extremo, es decir, con valores óptimos en la frontera. Debido a la complejidad de su construcción y manejo, estos diseños son generados por computadora, con la ventaja de que se puede hacer uso de los resultados tomados directamente de la interfaz de usuario a partir del algoritmo computacional. Gran parte del desarrollo de los diseños generados por computadora se deriva del trabajo de Kiefer y Wolfowitz [9] [10] en la teoría de los diseños óptimos. Contribuciones importantes se han generado a partir de textos de trascendencia como los escritos de Fedorov [11] y Pukelsheim [12] en donde se analiza la teoría de experimentos óptimos desde el punto de vista matemático. Por diseño óptimo se entiende un diseño que es “mejor” con respecto a algún criterio. El enfoque usual es especificar un modelo, determinar la región de interés, seleccionar el número de corridas que deberán hacerse, especificar el criterio de optimalidad y después elegir los puntos del diseño de un conjunto de puntos candidatos que el experimentador consideraría usar. De manera típica, los puntos candidatos son una matriz de puntos distribuidos en la región factible del diseño. 19 1.8.1. CRITERIO DE OPTIMALIDAD D. Existen varios criterios de optimalidad utilizados en la práctica común [13]. Uno de los más generalizados es el criterio de optimalidad D. Este criterio considera la Matriz de Diseño Aumentada X (o paralelamente, la Matriz de Información definida como X’X) que incluye los valores codificados asociados a cada factor dentro del modelo, así como de sus interacciones de interés, observando tantas columnas como parámetros a estimar se tengan. El criterio de D-Optimalidad está basado en la noción de que el diseño experimental debería ser escogido de manera que se alcancen ciertas propiedades en la matriz de momentos: N XXM '= Es de particular interés recordar la importancia de los elementos de la matriz de momentos en la determinación de rotabilidad. También, la inversa de M, a saber: 11 )'( −− = XXNM (llamada Matriz de Dispersión Escalada), contiene varianzas y covarianzas de los coeficientes de regresión , escalada por N/σ2 . Como resultado, el control de la matriz de momentos por diseño, implica el control de las varianzas y covarianzas. Esto produce que una norma importante de la matriz de momentos sea el determinante expresado como: pN XX M ' = donde p es el número de parámetros en el modelo, incluido β0. Bajo supuestos de normalidad e independencia de errores del modelo con varianza constante, el determinante de X’X es inversamente proporcional al cuadrado del volumen de la región de confianza de los coeficientes de regresión. El volumen de la región de confianza es relevante porque refleja que tan bien han sido estimados los parámetros. Un valor pequeño de |X’X| y por tanto un valor grande de |(X’X)-1| = 1/| X’X | implica una estimación pobre del vector β en el modelo. Así, un diseño D-óptimo es aquél en el cual |M| = | X’X |/Np se maximiza; esto es, )(ζ ζ MMax donde Max implica que el máximo es tomado sobre todos los diseños posibles ζ. Como resultado, es natural definir la Eficiencia D- ó D-Eficiencia de un diseño ζ* como: 20 ( ) ( ) %)100(* * 1 p eff MMax M D ⎟⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ = ζ ζ donde la potencia 1/p toma en cuenta los p parámetros estimados cuando se calcula el determinante de la matriz de varianzas-covarianzas. 1.8.2. CRITERIOS DE OPTIMALIDAD A Y G. El criterio de optimalidad A sólo se ocupa de las varianzas de los coeficientes de regresión. Un diseño es óptimo A si minimiza la suma de los elementos de la diagonal principal de (X’X)-1 (a ésta se le llama la traza de (X’X)-1, generalmente como un tr(X’X)-1). Por lo tanto, un diseño óptimo A minimiza la suma de las varianzas de los coeficientes de regresión. Puesto que muchos experimentos de superficie de respuesta se refieren a la predicción de la respuesta, los criterios de la varianza de predicción son de gran interés práctico. Quizá el más utilizado de estos criterios sea el criterio de optimalidad G. Se dice que un diseño es G-óptimo si minimiza la varianza de predicción v(x) máxima en la región del diseño. Es decir, si el valor máximo de: [ ] 2 )(ˆ)( σ xyNVxv = en la región del diseño es un mínimo, donde N es el número de puntos del diseño. Si el modelo tiene p parámetros, la eficiencia G de un diseño es precisamente: [ ] 2 )(ˆ σ xyNVmáx pGe = En conjunto, a los criterios de diseño que se han venido estudiando suele llamárseles criterios de optimalidad alfabética. Existen algunas situaciones en las que el diseño óptimo alfabético se conoce o bien puede construirse analíticamente. Un buen ejemplo es el diseño 2k, que es un óptimo D, A y Gpara ajustar el modelo de primer orden en k variables o para ajustar el modelo de primer orden con interacción. Sin embargo, otros diseños de mayor orden que el mencionado 2k el diseño óptimo no se conoce y debe emplearse un algoritmo implementado en computadora para encontrar un diseño. Muchos paquetes de software de estadística que soportan experimentos diseñados cuentan con esta capacidad; este punto será analizado con mayor detalle en secciones posteriores. La mayoría de los procedimientos para construir diseños se basan en el algoritmo de intercambio. En esencia, el experimentador selecciona una matriz de puntos candidatos y un 21 diseño inicial (quizá al azar) a partir de este conjunto de puntos. Entonces el algoritmo intercambia los puntos que están en la matriz, pero no en el diseño, con los puntos que están actualmente en el diseño, en un esfuerzo por mejorar el criterio de optimalidad seleccionado. Debido a que no se evalúa explícitamente todos los diseños posibles, no hay garantía de que se ha encontrado un diseño óptimo, pero el procedimiento de intercambio suele asegurar que se obtiene un diseño que está “cerca” del óptimo. Algunas implementaciones repiten varias veces el proceso de construcción del diseño, empezando con diseños iniciales diferentes, para incrementar la posibilidad de que se obtendrá un diseño final que esté muy cerca del óptimo. 1.9. DISEÑOS ESTÁNDARES PARA OPTIMIZACIÓN GENERAL. Como se ha mencionado a lo largo de este trabajo, existen varios tipos de diseños experimentales que han sido desarrollados para optimizar los recursos que suponen la ejecución de un experimento. Cuando se abordó el tema de optimización, se consideraron algunos diseños que tienen por objetivo primordial el encontrar los parámetros de diseño ideales que optimicen la respuesta esperada, ejemplo de ellos son los diseños de Superficie de Respuesta de primer y segundo orden. Asimismo, se introdujo el concepto de diseños óptimos y se mencionaron los criterios de optimalidad mayormente difundidos en la práctica actual. De un modo estricto, un diseño experimental que implique la minimización del número de puntos de diseño necesarios para la obtención de resultados, es un diseño de optimización de corridas. Ejemplo de estos diseños son los Diseños Factoriales Fraccionados analizados anteriormente. En esta categoría de diseños se pueden citar algunos diseños de interés como los Diseños Plackett-Burman [14] para estudiar k = N – 1 variables en N corridas, donde N es múltiplo de 4; casos de particular interés son N = 12, 20, 24, 28 y 36. En ellos encontramos el primer acercamiento al concepto de optimización de recursos para la ejecución de un experimento. Si bien es cierto que este tipo de diseño no proporciona resultados inmediatos para un estudio detallado del comportamiento de los factores y sus interacciones en la variable de respuesta, al menos su utilización de modo secuencial proporciona las primeras directrices para la optimización de recursos con una gran economía y eficiencia de la experimentación. En esta sección se analizarán diseños experimentales con un enfoque más específico a la optimización de recursos a partir de parámetros de diseño iniciales. Estos diseños se conocen en la práctica común como Diseños de Superficie de Respuesta (DSR), los cuales debido a sus propiedades de ajuste matemático se clasifican en Diseños de Primer y Segundo Orden. 22 1.10. METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR). El estudio de un proceso o sistema está frecuentemente enfocado a determinar la relación entre la respuesta y los factores de entrada. Su propósito puede ser optimizar la respuesta o entender el mecanismo de funcionamiento. Si los factores iniciales de entrada son cuantitativos y existen sólo algunos de ellos, la Metodología de Superficie de Respuesta (MSR) [3] es una herramienta efectiva para estudiar esta relación. La estrategia de experimentación secuencial es considerada, ya que permite de manera eficiente investigar el espacio de los factores iniciales a través de la utilización de experimentos de primer orden, seguido de uno de segundo orden. El análisis de un experimento de segundo orden puede ser realizado por aproximación de la relación de superficie de respuesta con un ajuste del modelo de regresión de segundo orden. Los diseños de segundo orden que permiten estimar eficientemente modelos de regresión de segundo orden son de gran importancia dentro de esta metodología. Estos incluyen los Diseños Central Compuesto (DCC) [7] y los Diseños Box-Behnken [8] y algunos otros de menor utilización pero factibles de uso. De modo más general, la mayoría de investigaciones científicas exploratorias están relacionadas con los siguientes objetivos: 1. Determinar y cuantificar la relación entre los valores de una o más variables medibles de respuesta y el conjunto de factores experimentales que se presume están afectando la(s) respuesta(s). 2. Encontrar los valores de los factores experimentales que producen el mejor valor o valores de la respuesta(s). Un ejemplo de la utilización de los principios de investigación científica en la determinación de los valores óptimos podría ser en el proceso de manufactura de un medicamento. En este caso se estudia la combinación de dos sustancias, cada una para reducir la presión arterial en los humanos. Una serie de pruebas clínicas considera 100 pacientes con presión arterial alta, y a cada paciente le es suministrado alguna combinación predeterminada de las dos sustancias. Aquí, el propósito de administrar las distintas combinaciones de las sustancias a los individuos es para encontrar la combinación específica que resulta en la mayor reducción en la presión arterial del paciente en un determinado intervalo de tiempo. La Metodología de Superficie de Respuesta (MSR) es un conjunto de técnicas que comprende [15]: 1. Desarrollar una serie de experimentos (diseñar un conjunto de experimentos) que producirán una adecuada y confiable medición de la respuesta de interés. 2. Determinar un modelo matemático que ajuste de mejor manera los datos recolectados del diseño seleccionado en el paso anterior (1), a través de la conducción apropiada de pruebas de hipótesis concernientes a los parámetros del modelo; y 23 3. Determinar los valores óptimos de los factores experimentales que producen el valor máximo (o mínimo) de la respuesta. Si el descubrimiento del mejor valor(es) de la respuesta sobrepasa los recursos disponibles del experimento, entonces los métodos de superficie de respuesta están dirigidos a la obtención de, al menos, un mejor entendimiento del sistema en conjunto. Cuando el comportamiento de la respuesta de interés medida está gobernado por ciertas leyes que conducen a una relación determinística entre la respuesta y el conjunto de factores experimentales seleccionados, debería ser posible entonces determinar las mejores condiciones (niveles) de los factores para optimizar una salida deseada. Es frecuente utilizar, sin embargo, una aproximación empírica cuando la relación es muy compleja o desconocida. La estrategia descrita anteriormente es la base de la MSR. Fig. 5. Ejemplo del Contorno de una Superficie de Respuesta. Gráficamente, una superficie de respuesta puede representarse como una curva tridimensional formada a partir de los niveles de cada factor considerado en el modelo, así como de la respuesta observada y. Una derivación de dicha gráfica, comúnmente utilizada para la representación bidimensional del modelo, es la gráfica de contorno o curvas de contorno. En la figura 5 se puede observar las curvas de contorno asociadas a una superficie de respuesta para determinar la distancia máxima alcanzada por un proyectil utilizando una catapulta manual, en ella se aprecian las regiones que optimizan la respuesta dentro del rango de operación considerado en el experimento.1.10.1. FUNCIÓN DEL ANÁLISIS DE REGRESIÓN DENTRO DE LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR). En cualquier sistema en el cual las variables cuantitativas cambian, el interés podría enfocarse en evaluar los efectos de los factores en el comportamiento de algunas cantidades medibles (la respuesta). Tal evaluación es posible a través del análisis de regresión. Utilizando datos recolectados de un conjunto de pruebas experimentales, la regresión ayuda a establecer empíricamente (por ajuste de algún modelo matemático) el tipo de relación que está presente 24 entre la variable respuesta y sus factores de influencia. La variable de respuesta es la variable dependiente y es llamada la respuesta, y los niveles de los factores de influencia son llamados explicadores, regresores o simplemente variables de entrada. El análisis de regresión es una de las herramientas más ampliamente utilizada para investigar relaciones causa-efecto teniendo aplicaciones en la física, biología, y ciencias sociales, así como también en ingeniería y otros campos. Como se mencionó anteriormente, los métodos de superficie de respuesta son técnicas adicionales empleadas antes, durante y después de la aplicación del análisis de regresión a datos recolectados. Así, el objetivo de la MSR incluye la aplicación de regresión así como de otras técnicas en un intento de obtener un mejor entendimiento de las características del sistema de respuesta bajo estudio. 1.10.2. NATURALEZA SECUENCIAL DE LA METODOLOGÍA DE SUPERFICIE DE RESPUESTA (MSR). Suponga que una investigación científica o ingenieril está inmersa con un proceso o sistema que involucra una respuesta y que depende de los factores de entrada (también llamados variables de entrada o variables de proceso) X1, X2,…, Xk. Su relación puede ser modelada por: y = f (X1, X2,…, Xk) + ε donde la forma de la función de respuesta real f es desconocida y ε es un error que representa las fuentes de variabilidad no capturadas por f. Se asume que ε en las distintas corridas son independientes y tienen media cero y varianza σ2. Las Xi’s están expresadas en la escala original como minutos, grados (ºC), miligramos (mg). En el análisis de regresión es conveniente y computacionalmente eficiente convertir X en variables codificadas x1, x2,…, xk, las cuales son adimensionales y tienen media cero y desviación estándar 1. De modo general, se asumirá que los factores de entrada están en forma codificada y expresados como sigue: y = f (x1, x2,…, xk) + ε Debido a que la relación entre la respuesta y y las xi’s pueden ser gráficamente bosquejadas como una superficie recostada sobre la región de las xi’s, el estudio de esta relación es, de ahora en adelante, llamado estudio de superficie de respuesta. Frecuentemente, el propósito de la investigación es maximizar o minimizar la respuesta, o alcanzar un valor deseado de la respuesta. Debido a que f es desconocida e y posee error aleatorio, se necesita correr experimentos para obtener datos acerca del comportamiento de y. El éxito de la investigación depende, dada una buena conducción experimental, en que tan bien f puede ser aproximada. La Metodología de Superficie de Respuesta (MSR) es una estrategia para alcanzar este objetivo e involucra experimentación, modelación, análisis de datos y optimización. 25 1.10.3. DISEÑOS DE PRIMER ORDEN. Como se mencionó en secciones anteriores, si existen muchos factores cuya importancia no puede ser despreciada al principio del estudio de superficie de respuesta, un experimento de tamizado deberá ser conducido para eliminar los factores no relevantes. Tales experimentos están basados en diseños altamente fraccionados como los diseños 2k-p, 3k-p, los diseños Plackett- Burman [14] y los arreglos ortogonales irregulares. Una vez que un número de factores importantes es identificado, experimentos subsecuentes pueden ser conducidos con mayor eficiencia y con menor número de corridas. La investigación restante es dividida en dos fases. En la primera fase, el principal objetivo es determinar si las condiciones actuales o niveles de los factores de entrada están cerca del óptimo (i.e. máximo o mínimo) de la superficie de respuesta o si están alejados de él. Cuando la región experimental está lejos de la región óptima de la superficie, una aproximación de primer orden debería ser adecuada y el siguiente modelo de primer orden utilizado: ∑ = ++= k i ii xy 1 0 εββ donde βi representa la pendiente o efecto lineal de la variable codificada xi. Un diseño o experimento que permita estimar los coeficientes incluidos en la expresión anterior es llamado diseño de primer orden o experimento de primer orden, respectivamente. Ejemplos de ellos son los diseños de resolución III 2k-p y los diseños Plackett-Burman [14]. Corridas en el punto central de la región del experimento son agregadas a un experimento de primer orden de tal manera que un elemento de curvatura sea agregado en la superficie subyacente. Una investigación posterior debe ser conducida sobre la región de las xi’s para determinar si un experimento de primer orden debe continuar o, en la presencia de curvatura, ser remplazada por un experimento de segundo orden más elaborado. Dos métodos de investigación son importantes para realizar esta tarea: Método del Ascenso más Pronunciado y el Método de la Rejilla Rectangular [16]. 1.10.4. DISEÑOS DE SEGUNDO ORDEN. Cuando la región experimental está cerca o dentro de la región del óptimo, la segunda fase del estudio de superficie de respuesta inicia. Su principal objetivo es obtener una aproximación acertada de la superficie de respuesta en una región pequeña alrededor del óptimo e identificar condiciones de proceso óptimas. Cerca del óptimo de la superficie de respuesta, los efectos de curvatura son los términos dominantes y la superficie de respuesta puede ser aproximada por un modelo de segundo orden, ∑ ∑ ∑ = < = ++++= k i k ji k i iiijiijii xxxxy 1 1 2 0 εββββ 26 donde βi representa el efecto lineal de xi, βij representa la interacción lineal entre xi y xj, y βii representa el efecto cuadrático de xi. Un diseño o experimento que permite estimar los coeficientes de la expresión anterior es llamado diseño de segundo orden o experimento de segundo orden, respectivamente. Fig. 6. Exploración Secuencial de la Superficie de Respuesta4. En la figura 6 se muestra gráficamente la naturaleza secuencial de los diseños de Superficie de Respuesta; dada la región de operación del experimento, se aplica un diseño SR cerca de donde se encuentra el óptimo. 1.10.5. DISEÑOS EXPERIMENTALES PARA AJUSTAR SUPERFICIES DE RESPUESTA. El ajuste y análisis de superficies de respuesta se facilita en gran medida con la elección apropiada del diseño experimental. Cuando se selecciona un diseño de superficie de respuesta, algunas de las características deseables en el diseño son las siguientes [5]: 1. Proporciona una distribución razonable de los puntos de los datos (y en consecuencia información) en toda la región de interés. 2. Permite que se investigue la adecuación del modelo, incluyendo la falta de ajuste. 3. Permite que los experimentos se realicen en bloques. 4. Permite que los diseños de orden superior se construyan secuencialmente. 5. Proporciona una estimación interna del error. 6. Proporciona estimaciones precisas de los coeficientes del modelo. 7. Proporciona un buen perfil de la varianza de predicción en toda la región experimental. 8. Proporciona una robustez razonable contra los puntos atípicos o los valores faltantes. 9. No requiere un gran número de corridas. 4 Adaptado de: Hamada, Wu. Experiments. Parameter Design Optimization. Ed. John Wiley & Sons, 2000. 27 10. No requiere demasiados niveles de las variables independientes. 11. Asegura la simplicidad del cálculo de los parámetros del
Compartir