Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.unipampa.edu.br/jspui/handle/riu/1609
Tipo: Trabalho de Conclusão de Curso
Título : Análise de desempenho de aplicações paralelas em arquiteturas multi-core e many-core
Autor(es): Serpa, Matheus da Silva
Primeiro Orientador: Schepke, Claudio
Resumo: Simulações numéricas auxiliam no avanço da Ciência e exigem cada vez mais recursos computacionais para sua previsão. Quanto maior a resolução de um modelo, mais preciso, exato e custoso serão suas previsões. Os supercomputadores atuais são sistemas heterogêneos compostos por arquiteturas multi-core e many-core. Com isso, pesquisadores podem utilizar ambos processadores e aceleradores para simulação de problemas com resoluções maiores. Todavia, desenvolver aplicações para esses sistemas é um desafio devido a complexidade da programação. Nesse contexto, esse trabalho analisou o desempenho de aplicações paralelas em sistemas heterogêneos, executando-as em processadores com Open Multi-Processing (OpenMP) e em aceleradores com Computed Unifed Device Architecture (CUDA). Para isso, desenvolvemos sete aplicações científicas em ambas bibliotecas. Nossos experimentos mostram que para aplicações com pouca demanda de comunicação, Graphics Processing Units (GPUs) tem desempenho até 8 vezes maior que Central Processing Units (CPUs) executando com 32 threads.
Resumen : Numerical simulations assists science advances and require ever more computing resources to their prediction. Higher resolution models will be more accurate and computationally expensive. Current supercomputers are formed by heterogeneous architectures that are divided in multi-core and many-core. Thus, developers can use both processors and accelerators for higher resolution simulations. However, developing applications for these systems is a challenge due hard programming. In this context, this study analyzed the performance of parallel applications on heterogeneous systems, by running them in processors with OpenMP and GPUs with CUDA. Therefore, seven scientific applications are developed in both libraries. Our experiments show that applications with low communication demand has better performance in GPUs, 8 times in comparasion with CPUs running 32 threads.
Palabras clave : Computer science
Parallel architectures
High performance computing
Editorial : Universidade Federal do Pampa
Tipo de acesso: Attribution-NonCommercial-NoDerivs 3.0 Brazil
Licença: http://creativecommons.org/licenses/by-nc-nd/3.0/br/
URI : http://dspace.unipampa.edu.br/jspui/handle/riu/1609
Fecha de publicación : 30-nov-2015
Aparece en las colecciones: Ciência da Computação

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
Análise de desempenho de aplicações paralelas em arquiteturas multi-core e many-core.pdf1.06 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons