GPU 使用了高度并行的计算,更多的 transistor 被用来数据处理(data processing)而不是数据缓存(data caching)以及流控制(flow control)
这在概念上对高度并行的计算是有好处的,因为 GPU 可以通过计算来隐藏访问内存时的延迟,而不是通过大量数据缓冲以及流控制来避免内存访问延迟。
CUDA 在 2006 年被 NVIDIA 提出,是一个通用的并行编程平台。
CUDA parallel programming model:
Three key abstractions:
- a hierarchy of thread groups
- shared memories
- barrier synchronization
原文链接: https://www.cnblogs.com/wineandchord/p/13579212.html
欢迎关注
微信关注下方公众号,第一时间获取干货硬货;公众号内回复【pdf】免费获取数百本计算机经典书籍;
也有高质量的技术群,里面有嵌入式、搜广推等BAT大佬
原创文章受到原创版权保护。转载请注明出处:https://www.ccppcoding.com/archives/348423
非原创文章文中已经注明原地址,如有侵权,联系删除
关注公众号【高性能架构探索】,第一时间获取最新文章
转载文章受原作者版权保护。转载请注明原作者出处!