CUDA C++ PROGRAMMING GUIDE CH1 Introduction

在这里插入图片描述
在这里插入图片描述
GPU 使用了高度并行的计算,更多的 transistor 被用来数据处理(data processing)而不是数据缓存(data caching)以及流控制(flow control)

在这里插入图片描述
这在概念上对高度并行的计算是有好处的,因为 GPU 可以通过计算来隐藏访问内存时的延迟,而不是通过大量数据缓冲以及流控制来避免内存访问延迟。

CUDA 在 2006 年被 NVIDIA 提出,是一个通用的并行编程平台。

在这里插入图片描述
CUDA parallel programming model:

Three key abstractions:

  • a hierarchy of thread groups
  • shared memories
  • barrier synchronization

在这里插入图片描述

原文链接: https://www.cnblogs.com/wineandchord/p/13579212.html

欢迎关注

微信关注下方公众号,第一时间获取干货硬货;公众号内回复【pdf】免费获取数百本计算机经典书籍;

也有高质量的技术群,里面有嵌入式、搜广推等BAT大佬

    CUDA C++ PROGRAMMING GUIDE CH1 Introduction

原创文章受到原创版权保护。转载请注明出处:https://www.ccppcoding.com/archives/348423

非原创文章文中已经注明原地址,如有侵权,联系删除

关注公众号【高性能架构探索】,第一时间获取最新文章

转载文章受原作者版权保护。转载请注明原作者出处!

(0)
上一篇 2023年3月2日 上午5:03
下一篇 2023年3月2日 上午5:03

相关推荐