1.0 并行计算与计算机架构
2018-02-14 | CUDA , Freshman | 0 |
Abstract: 本文从总体上给出了CUDA编程的Big picture,后续所有的文章都在本文的基础上详细展开。 Keywords: 并行计算,串行编程,并行编程,计算机架构,并行性,异构架构,CUDA
并行计算与计算机架构
听过电影里的一句台词,不是名人说的,但我觉得非常值得思考:"慢就是稳,稳就是快"。我们的发展太快了,以至于出现了各种《21天精通C++》《10天学会机器学习》这类东西。 稳住吧,打好基础,才有机会去更好的环境。
Big Picture
我们学习CUDA主要参考《CUDA C编程权威指南》,我们的博客也基本按照书中的章节进行。

结构:

CUDA想要运行起来并不困难,但是想要写得好,真的需要研究一下。知乎上各路大牛给出的建议是看CUDA的官方文档,我之前也看过一遍文档,但是文档教会你更多的是如何写代码,而没有讲解详细的硬件结构(可能在别的文档中,我只看了编程指导)。我们学习编程应该同时理解语言、编程模型、硬件执行模型以及优化方法,单纯地学会写代码、能运行,这是培训班的模式。
还记得峰哥的话,知道编译原理和操作系统(软硬件),什么语言都一样。
读这个系列的文章需要以下知识:
- C/C++ 编程经验,这个不用说,如果C都没学会就要来CUDA,我觉得不理智,根基不稳,也是我一贯所反对的
- 本系列是Freshman,后面会有Junior,主要内容肯定有所不同。目前准备的是Freshman主要介绍基础知识,包括硬件基础、编程模型、基本性能方面的考察和简单的优化(包括内存等),以及项目实际中的一些技巧;Junior部分主要介绍更高级的性能优化技巧,比如PTX、更高级的内存处理等;优化空间最大的是并行算法的设计,当然不在本系列所讨论的范围内,那是另一个专题了。
并行计算
我们的计算机从最早的ENIAC到现在的各种超算,都是为了应用而产生的,软件和硬件相互刺激而相互进步,并行计算也是这样产生的。我们最早的计算机肯定不是并行的,但是可以做成多线程的,因为当时一个CPU只有一个核,所以不可能一个核同时执行两个计算。后来我们的应用逐步要求计算量越来越高,所以单核的计算速度也在逐步上升,再后来大规模并行应用出现了,我们迫切需要能够同时处理很多数据的机器,比如图像处理,以及处理大规模的同时访问的服务器后台。
并行计算其实涉及到两个不同的技术领域:
- 计算机架构(硬件)
- 并行程序设计(软件)
这两个很好理解,一个生产工具,一个用工具产生各种不同应用。
硬件主要的目标就是为软件提供更快的计算速度、更低的性能功耗比,硬件结构上支持更快的并行。