未来GPU、FPGA和SoC的重要性.docxVIP

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
未来GPU、FPGA和SoC的重要性 :CathalMurphy/YaoFu 为了满足不断攀升的数据处理需求,未来的系统需在运算能力上进行改善。传统解决方案(如x86处理器)再也无法以高效率、低成本的方式提供所需运算带宽,因此系统设计人员须寻找新的运算平台。 越来越多系统设计人员将现场可编程门阵列(FPGA)和绘图处理器(GPU)视为能够满足未来需求的运算平台。本文将分析未来GPU、FPGA和系统单芯片(SoC)组件,能为新时代提供哪些必要的运算效率和弹性。 云端数据中心和(自动驾驶)汽车等未来系统,需在运算能力上进行改善,以支持不断增加的工作负载,以及不断演进的底层算法[1]。例如,大数据分析、(机器学习)、视觉处理、基因体学以及先进驾驶辅助系统(ADAS)的(传感器)融合工作负载都超出现有系统(如x86系统)所能提供的效率与成本效益。 系统架构师正在寻找能满足需求的新运算平台,且该平台需要有足够的弹性,以便整合至现有架构中,并支持各种工作负载及不断演进的算法。此外,许多这类系统还须提供确定性低延迟效能,以支持如自动驾驶汽车在实时系统上所需的快速反应时间。 因GPU在机器学习训练的高效能运算(HPC)领域获得的成果,因此GPU厂商非常积极地将GPU定位为新时代运算平台的最佳选择。在此过程中,GPU厂商已修改其架构来满足机器学习推论的工作负载。 然而,GPU厂商一直忽视GPU基本架构的局限性。而这些局限会严重影响GPU以高效率、低成本方式提供必要的系统级运算效能之能力,例如,在云端数据中心系统中,工作负载需求在一天内会发生很大的变化,且这些工作负载的底层算法也正快速地演进。GPU架构的局限性会阻碍很多现今与未来的工作负载映像到GPU,导致硬件闲置或低效率。本文稍后提及的章节,将针对这些局限进行更详细的介绍。 相反地,FPGA与SoC具有众多重要特质,将成为解决未来系统需求的最佳选择。这些独特特质包括: ?针对所有数据类型提供极高的运算能力和效率 ?针对多种工作负载提供极高弹性,并将运算和效率之优势最大化 ?具备I/O弹性,能方便地整合到系统中并达到更高效率 ?具备大容量芯片内建高速缓存,以提供高效率及最低延迟率 看清背景/应用/优劣势 绘图处理器大拆解 GPU的起源要追溯到PC时代,辉达(NVIDIA)声称在1999年推出世界首款GPU,但其实许多显卡推出时间更早[2]。GPU是一款全新设计的产品,用于分担及加速图像处理任务,例如从CPU进行像素数组的遮蔽和转换处理,使其架构适用于高并行传输率处理[3]。本质上,GPU的主要作用为替视觉显示器(VDU)提供高质量影像。 图1GPU模块图 多年来,如大规模矩阵运算的医疗影像应用,此类少量非影像但需大规模平行及受内存限制的相关工作负载,已从GPU而非CPU上实现。GPU厂商意识到有机会将GPU市场拓展到非影像应用,因此如OpenCL这类的GPU非影像编程语言应运而生,而这些编程语言将GPU转化成通用GPU(GPGPU)。 ?机器学习 最近,能够良好映像到GPU运行方案的工作负载之一,便是机器学习训练。透过充分运用GPU,能明显缩短深度(神经网络)的训练时间。 GPU厂商试图利用机器学习训练的成功,来牵动其在机器学习推论上的发展(部署经过训练的神经网络)。随着机器学习算法与所需数据精度的演进,GPU厂商一直在调整其架构以保持自身地位优势。其中一个例子就是,NVIDIA在其TeslaP4产品中支持INT8,然而现今许多用户探索着更低的精度,如二进制和三进位[4]。若要利用机器学习与其它领域的发展,GPU用户必须等待新硬件推出之后再购买。 GPU厂商想运用机器学习作为基础,使自身成为此新运算时代的首选运算平台。但若要清楚了解GPU是否适合未来系统,仍需做更全面的系统级分析、考虑GPU架构的局限性,以及系统要如何随时间发展演进。 ?GPU架构局限性 本章节将深入研究典型的GPU架构,来揭露其局限性及如何将其应用于各种算法和工作负载。 ?SIMTALU数组 图1展示典型的GPU模块图。通用GPU运算功能的核心是大型算术逻辑单元(ALU)或运算核心。这些ALU通常被认为是单指令多线程(SIMT),类似于单指令多数据(SIMD)。 基本原理是将工作负载分成数千个平行的线程(Thread),ALU需要大量的GPU线程来预防闲置。在对线程进行调度后,不同的ALU组便能平行执行相同的(单一)指令。GPU厂商透过使用SIMT,能提供相较于CPU占位面积更小和功效更高的方案,因为许多核心资源能与同组的其他核心共享。 然而,显然特定工作负载(或部分工作负载)能被有效地映射到这大规模平行的架构中[5]。倘若构成工作负载的线程不具足够的共通性或平行性,例如连续或适度平行的工作负载,ALU则会呈现闲置状态,导致

文档评论(0)

133****2345 + 关注
实名认证
文档贡献者

教师资格证持证人

该用户很懒,什么也没介绍

领域认证该用户于2023年07月24日上传了教师资格证

1亿VIP精品文档

相关文档