Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
“AÑO DE LA UNIVERSALIZACIÓN DE LA SALUD” Tema: Computación de Alto Rendimiento. Curso: Lenguaje de Programación III Facultad: Ing. De Sistemas e informáticas. Profesor: Ing. Roque Pizango Tapullima. Institución: Universidad Nacional de la Amazonia Peruana Alumno: ➢ Obregón Ríos Jhunior Isaías Iquitos-Perú 2020 COMPUTACIÓN DE ALTO PRESTACIONES. En la computación de altas prestaciones se trata de sacar el máximo partido a los sistemas computacionales que existen actualmente, con el objetivo de resolver problemas cuyas necesidades computacionales sobrepasan las de un sólo ordenador. El campo de computación de alto rendimiento (High performance Computing o HPC en inglés) es una herramienta muy importante en el desarrollo de simulaciones computacionales a problemas complejos. Para lograr este objetivo, la computación de alto rendimiento se apoya en tecnologías computacionales como los clusters, supercomputadores o mediante el uso de la computación paralela. La mayoría de las ideas actuales de la computación distribuida se han basado en la computación de alto rendimiento. La computación distribuida o informática en malla es un nuevo modelo para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. La computación distribuida o informática en malla es un nuevo modelo para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida. INFRAESTRUCTURA DEL SERVICIO DE COMPUTACIÓN DE ALTAS PRESTACIONES. El servicio dispone de distintas máquinas con configuraciones adaptadas a distintos escenarios y necesidades computacionales. Se ofrece una infraestructura de última generación al servicio de supercomputación. Consiste en una máquina de memoria distribuida compuesta por nodos de gran capacidad computacional, equipada con unidades adicionales de procesamiento gráfico. Este nuevo clúster de cómputo pone a disposición de los usuarios grandes capacidades de almacenamiento y de cómputo. APLICACIONES DE HPC. La computación de alto rendimiento (HPC) es un término amplio que en su núcleo representa aplicaciones intensivas de cómputo que necesitan aceleración. Los usuarios de los sistemas de aceleración de aplicaciones van desde imágenes médicas, operaciones financieras, el petróleo y el gas de caducidad, a la biociencia, almacenamiento de datos, seguridad de datos, y muchos más. En la era de la información, la necesidad de que la aceleración del proceso de datos está creciendo de manera exponencial y los mercados que despliegan HPC por sus aplicaciones están creciendo cada día. La expansión HPC está siendo impulsado por el coprocesador, que es fundamental para el futuro de HPC TÉCNICAS SERVICIO DE COMPUTACIÓN DE ALTAS PRESTACIONES. En el ámbito de la supercomputación se utilizan distintas técnicas computacionales de alto rendimiento que incluyen multiprocesadores (memoria compartida), multicomputadoras (memoria distribuida), procesadores gráficos (GPUs), cloud computing y computación grid. El servicio de supercomputación pone a su disposición personal altamente cualificado en cualquiera de estas técnicas que proporcionará el asesoramiento y apoyo técnico necesario para la elección de la mejor alternativa y su implementación más eficiente. APLICACIONES SERVICIO DE COMPUTACIÓN DE ALTAS PRESTACIONES. Nuestro equipo está especializado en la computación de altas prestaciones aplicada en distintas áreas científicas y tecnológicas destacando: ➢ Computación de altas prestaciones Multicore, GPGPU, Clusters de multicore, computación distribuida, Grid y Cloud ➢ Algoritmos de procesamiento de imagen o Tomografía Electrónica 3D o Reconstrucción Holográfica Digital y Tomografía Óptica o Codificación compresión y transmisión de imágenes y vídeo o Sistemas de Inspección Visual Automatizados ➢ Optimización Global y Multi-objetivo o Computación evolutiva o Algoritmos de búsqueda exhaustiva ➢ Modelado y resolución de sistemas o Computación matricial de sistemas dispersos o Computación de grandes matrices densas ➢ Seguridad de las comunicaciones o Protocolos de comunicación cifrada en Internet GLOBUS La herramienta Globus ha emergido como el estándar de facto para la capa intermedia (middleware) de la malla. Globus tiene recursos para manejar: La gestión de recursos(Protocolo de Gestión de Recursos en Malla o Grid Resource Management Protocol) Servicios de Información (Servicio de Descubrimiento y Monitorización o Monitoring and Discovery Service) Gestión y Movimiento de Datos (Acceso Global al Almacenamiento Secundario, Global Access to secondary Storage y FTP en malla, GridFTP) La mayoría de mallas que se expanden sobre las comunidades académicas y de investigación de Globus Toolkit como núcleo de la capa intermedia. XML Los servicios web basados en XML ofrecen una forma de acceder a diversos servicios/aplicaciones en un entorno distribuido. Recientemente, el mundo de la informática en malla y los servicios web caminan juntos para ofrecer la malla como un servicio web. La arquitectura está definida por la Open Grid Services Architecture (OGSA). La versión 3.0 de Globus Toolkit, que actualmente se encuentra en fase alfa, será una implementación de referencia acorde con el estándar OGSA. Las mallas ofrecen una forma de resolver grandes retos, como el plegamiento de las proteínas y descubrimiento de medicamentos, modelización financiera, simulación de terremotos, inundaciones y otras catástrofes naturales, modelización del clima/tiempo, etc. Ofrecen un camino para utilizar los recursos de las tecnologías de la información de forma óptima en una organización. COMPUTACIÓN DE CICLOS REDUNDANTES. El modelo de computación de ciclos redundantes, también conocido como computación zombi, es el empleado por aplicaciones como Seti@Home, consistente en que un servidor o grupo de servidores distribuyen trabajo de procesamiento a un grupo de computadoras voluntarias a ceder capacidad de procesamiento no utilizada. Básicamente, cuando dejamos nuestro ordenador encendido, pero sin utilizarlo, la capacidad de procesamiento se desperdicia por lo general en algún protector de pantalla, este tipo de procesamiento distribuido utiliza nuestra computadora cuando nosotros no la necesitamos, aprovechando al máximo la capacidad de procesamiento. CLUSTERING Otro método para crear sistemas de supercomputadoras es el clustering. Un cluster o racimo de computadoras consiste en un grupo de computadoras de relativo bajo costo conectadas entre sí mediante un sistema de red de alta velocidad (gigabit de fibra óptica por lo general) y un software que realiza la distribución de la carga de trabajo entre los equipos. Por lo general, este tipo de sistemas cuentan con un centro de almacenamiento de datos único. Los clusters tienen la ventaja de ser sistemas redundantes, al estar fuera de servicio el procesador principal el segundo se dispara y actúa como un Fail Over. GRID La computación en grid o en malla es un nuevo paradigma de computación distribuida en el cual todos los recursos de un número indeterminado de computadoras son englobados para ser tratados como un único superordenador de manera transparente. Estas computadoras englobadas no están conectadas o enlazadas firmemente, es decir no tienen por qué estar en el mismo lugar geográfico. Se puede tomar como ejemplo el proyecto SETI@Home, en el cual trabajan computadoras alrededor de todo el planeta para buscar vida extraterrestre. SEGURIDAD El punto de la seguridad es delicado en este tipo de computación distribuida pues las conexiones se hacen de forma remota y no local, entonces suelen surgirproblemas para controlar el acceso a los otros nodos. Esto puede aprovecharse para un ataque de DoS, aunque la red no va a dejar de funcionar porque uno falle. Esa es una ventaja de este sistema grid. TOLERANCIA A FALLOS Los clusters presentan una redundancia física intrínseca debido a la existencia de numerosos nodos de cómputo, que puede ser utilizada para el empleo de tolerancia a fallos. La ocurrencia de fallo en algún nodo procesador no tiene que significar necesariamente la interrupción del suministro del servicio. Una solución posible para esto es que el sistema sea reconfigurado, utilizando solamente los nodos disponibles. Con el objetivo de aumentar la garantía de funcionamiento de los clusters, son esenciales, técnicas de prevención de fallos, detección de errores, diagnóstico, recuperación y reconfiguración. Es necesario definir una arquitectura que permita ejecutar aplicaciones paralelas que requieren HP, HA y HT. Esta arquitectura debe garantizar que se realice la ejecución eficiente de una aplicación paralela cuando se utiliza un entorno con un elevado número de nodos, durante un largo período de tiempo. Por otro lado, es necesario considerar que la probabilidad de fallo aumenta, y puede llegar a ocurrir que el fallo ocasione la pérdida total del trabajo realizado. Un Clúster de alta disponibilidad intenta mantener en todo momento la prestación de servicio encubriendo los fallos que se pueden producir. Por lo tanto para proveer HA es necesario utilizar técnicas de tolerancia a fallos que permitan garantizar (confiabilidad o garantía de servicio) Fiabilidad (Reliability), Disponibilidad (Availability) y Facilidad de mantenimiento (Serviceability) del sistema. La disponibilidad de un sistema se puede ver afectada por diferentes averías de sus componentes, a pesar de utilizar componentes cotidianos sin características especiales de fiabilidad nos interesa disponer de un sistema fiable.
Compartir