Skip to content

Latest commit

 

History

History
139 lines (80 loc) · 12.4 KB

Borrador_TrabajoFinal.md

File metadata and controls

139 lines (80 loc) · 12.4 KB

Introducción

Este trabajo busca demostrar de manera evidente, mediante una implementación básica cómo es que se pueden explotar las más recientes características de los equipos de cómputo para lograr un procesamiento más veloz, para esto hemos decidido implementar una multiplicación de matrices de manera paralela y secuencial para poder medir los rendimientos y compararlos.

La idea es utilizar distintas herramientas como lo son: docker-machine, maquinas en AWS y programación en paralelo para ejemplificar de manera práctica las mejoras en los tiempos de ejecución que se pueden tener hoy en día.

Motivación

En los últimos años la velocidad de procesamiento ha crecido debido al uso de procesadores multi-core. Derivado de lo anterior se ha ido teniendo la creciente necesidad de modificar el código de los algoritmos que se usaban comúnmente para adaptarlos de la mejor manera a un paradigma distinto el cual representa una mayor eficiencia, dicho paradigma se le conoce como “procesamiento en paralelo”.

Existen distintas maneras de atacar el problema de paralelizar códigos secuenciales, sin embargo dada la formación de los autores de este trabajo, la manera más natural nos resultó aquella en la cual un grupo de ejecuciones que forman parte de uno o más ciclos “for” se ejecutan cada una en un procesador a manera de que posteriormente podamos reagrupar y obtener el resultado final esperado.

Pseudo-algoritmo

El resultado final esperado es reducir el tiempo necesario que toma ejecutar un algoritmo mediante una asignación de tareas a los procesadores más eficiente.

Supongamos por ejemplo que deseamos realizar una suma de dos vectores ; con :

Imagen1

En este caso podemos ver como las sumas se podrían realizar de manera simultánea, si asignamos cada pedazo de la suma global a distintos procesadores.

Un punto sumamente relevante en este caso, es que no existe una dependencia entre los procesos que se realizan en cada procesador, por ejemplo esto NO funcionaría si estuviéramos utilizando en cada operación el resultado de la operación anterior, ya que sería necesario forzosamente esperar a tener dicho resultado para poder continuar con las operaciones hasta llegar al resultado final.

Por otro lado una operación no tan directa es el producto punto de dos vectores ; con y un escalar:

Imagen2

En este caso es menos evidente la manera en que tendríamos que repartir las operaciones a realizarse en los procesadores, sin embargo a continuación presentamos la metodología que nos parece más "natural" para atacar este problema:

Imagen3

De esta manera se logra el objetivo que se tenía de eficientar la operación y funciona como una buena explicación base para mencionar que de esta misma manera decidimos atacar el problema de paralelizar la multiplicación de matrices ya que, en ese caso realizamos esta operación de producto punto entre vectores una y otra vez, pero al no depender una de otra podemos de igual manera "romper" las ejecuciones y paralelizar los procesos.

Medidas control

Ahora presentaremos algunas métricas de control que utilizaremos para evaluar si nuestra implementación está teniendo mejores resultados que una ejecución secuencial tradicional o no; dichas métricas son las siguientes:

  • Tiempo real de procesamiento
  • Tiempo ideal de procesamiento
  • Speed-up
  • Eficiencia

Tiempo real de procesamiento

El tiempo real de procesamiento es el tiempo que le lleva al equipo de cómputo ejecutar todas las instrucciones necesarias para completar un programa utilizando un solo thread.

Tiempo ideal de procesamiento

Si es el tiempo real bajo la definición anterior y es el número de procesadores utilizados, entonces el tiempo ideal de procesamiento lo podemos definir como:

Imagen4

Speed-up

La ganancia en tiempo que se tiene con la ejecución en paralelo de un algoritmo en comparación con su ejecución secuencial se conoce como speed-up, y lo podemos visualizar de la siguiente manera:

Imagen5

donde es el tiempo de procesamiento en paralelo para threads.

El speed-up ideal es aquel que crece a una razón 1:1, es decir, por cada thread que agregamos, el speed-up crece 1 unidad.

Eficiencia

La eficiencia se define como el speed-up por procesador, entonces tomando como el número de procesadores, tenemos la siguiente expresión:

Imagen6

Análisis y Resultados

Para generar las siguientes gráficas utilizamos una maquina de AWS con las siguientes características:

  • Tipo de maquina: m4.2xlarge
  • Número de cpu's virtuales: 8
  • Memoria RAM: 32gb
  • Vpc_id: El creado para la clase de MNO
  • Subnet_id: El creado para la clase de MNO

Pensamos en dos propósitos al utilizar esta maquina levantada con docker-machine, el primero es que deseamos tener un trabajo lo más reproducible posible para que otras personas puedan jugar con el código del proyecto. El segundo propósito es que nos parece que al correr todo en una maquina "nueva" los resultados que obtenemos se vuelven más justos y comparables.

Cabe mencionar que el código está listo para recibir y hacer pruebas con matrices rectangulares, sin embargo, dado que la idea global del trabajo es comparar las ventajas en performance que tiene una implementación en paralelo contra una secuencial, sólo utilizamos matrices cuadradas ya que son más sencillas de manejar.

Resultados gráficos

Tiempos reales por thread

En la siguiente gráfica observamos los tiempos de ejecución cuando variamos tanto las dimensiones de las matrices a multiplicar, como cuando paralelizamos con distinto número de threads:

Podemos notar varias cosas de la gráfica anterior:

  1. Los tiempos no varían por cantidad de threads para dimensiones "pequeñas".
  2. Notamos un cambio en los tiempos a partir de dimesiones aproximadamente de 360x360.
  3. No es claro qué cantidad de threads es la que tiene mejor performance, pero profundizaremos mas adelante.
  4. Notamos algunos saltos atípicos sin embargo lo atribuimos a la matriz que utilizó en esa iteración ya que se generaron de manera aleatoria y los saltos se dan para TODAS las cantidades de threads.

Es importante mencionar que el punto 1 muestra un punto fundamental, ya que paralelizar un algoritmo NO siempre es la respuesta para todo, debemos evaluar si el problema que queremos resolver lo requiere. Lo anterior es relevante ya que muchas veces complicamos las cosas aún cuando no es necesario.

Speed-up

Para poder medir las otras métricas de control que planteamos en la sección pasada, tomaremos las ejecuciones que se tienen para el caso de 1000x1000.

En la siguiente gráfica observamos el speed-up y el speed-up ideal:

Notamos que el speed-up es cercano al speed-up ideal hasta 4 threads, sin embargo posterior a esto baja y se estabiliza sin mostrar una mejora extra al aumentar la cantidad de threads.

Tiempo ideal de procesamiento

Observamos ahora una gráfica donde se compara el tiempo real de procesamiento contra el tiempo ideal de procesamiento bajo su definición de la sección anterior:

En este caso, notamos que a partir de 8 threads el tiempo real se estabiliza y por lo tanto la diferencia contra el tiempo ideal aumenta de manera más evidente, esto nos hace sentido ya que la maquina de donde se obtuvieron los resultados es una maquina con 8 procesadores.

Eficiencia

Finalmente presentamos una gráfica donde observamos el cambio en la eficiencia conforme modificamos el número de threads:

Notamos de la gráfica anterior que aunque con las demás métricas hemos demostrado un mejor performance en cuestión de tiempo, en este caso tenemos un área de oportunidad para mejorar la manera en que estamos paralelizando ya que la eficiencia cae rápidamente conforme aumentamos el número de threads.

Conclusiones

Como sabemos los equipos de cómputo han aumentado su poder en los últimos años, pero debido a la forma en que dicho poder ha evolucionado y a la creciente necesidad de adaptar algoritmos para explotarlo, decidimos realizar este proyecto como un ejemplo de las bondades que tiene dicha adaptación.

Una de las cosas que más nos sorpendió es la facilidad con la que openMP permite paralelizar una implementación secuencial, ya que es muy intuitiva la manera en que lo hace. Además, el poder observar que NO es regla que una implementación en paralelo siempre sea más veloz que una secuencial es lo que más queremos rescatar ya que hoy en día hay una infinidad de referencias que hablan de ejecuciones en paralelo y nos parece que de repente caemos en intentar ese tipo de metodologías, sin evaluar primero, si nuestro problema eso es lo que requiere.

Finalmente, nuestra implementación en paralelo a pesar de ser mejor que la secuencial a partir de cierto punto, derivado del análisis de las métricas de control notamos que aún tiene mucho espacio para mejorarlo, lo cual implica que aún con una implementación en paralelo debemos medir, evaluar y mejorar.