投稿|设计困境,GPU未来何解?( 二 )


因此 , 尽管GPU适用于多领域运用 , 但遗憾的是目前GPU无法同时出色实现某两个领域的极致 。
【投稿|设计困境,GPU未来何解?】1.高性能计算
高性能计算(HPC)常用于大数据分析、超级计算、高级建模和模拟 , 超级计算机代表着高性能计算系统最尖端的水平 。
其工作原理是异构计算 , 通过多个计算节点利用GPU主力的并行处理能力 , HPC能够高效、可靠、快速地运行先进的大型应用程序项目 , 速度提升后可大幅提升吞吐量并降低成本 。
英伟达最新发布的Tesla V100s高性能计算GPU , 其有640个Tensor内核 , 集成5120个CUDA Core , 640个Tensor Core , 采用32 GB HBM2显存 , 显存带宽达1134GB/S , 单精度浮点计算能力达16.4 TFLOPS 。
2.AI领域
由于GPU良好的矩阵计算能力和并行计算的特性 , 是最早被用于AI计算的 , 这也是为什么英伟达CEO多次表达过:“英伟达不是一家游戏公司 , 而是一家AI公司 。”AI运算指以“深度学习”为代表的神经网络算法 , 需要系统高效处理大量结构化数据 , 例如文本、视频、图像、语言等 。
自2012年以来 , 人工智能训练任务所需求的算力每3.43个月就会翻倍 , 大大超越了芯片产业长期存在的摩尔定律(每 18个月芯片的性能翻一倍) 。
深度学习需要处理海量数据 , 并进行大量简单运算 , 对于并行计算有较高的要求 。而GPU的优势就在于 , 第一核数较多 , 可以执行海量数据的并行计算;第二 , 有更高的访存速度;第三 , 有更高的浮点运算能力 。
人工智能运行过程中有两部分:训练与推理 。
投稿|设计困境,GPU未来何解?
文章图片

深度学习模型的训练与推理
训练(Training)可以看作是“教育”的过程 , 通过大数据训练出一个复杂的神经网络模型 。推理(inference)可以看作是算法应用的过程 , 利用训练好的模型 , 使用新数据推理出各种结论 。
GPU是AI“训练”阶段比较合适的芯片 , 在云端训练芯片中占据较大份额 , 达到64% , 2019年-2021年年复合增长率达到40% 。
3.光线追踪
IDC认为 , 2019年第二季度全球游戏PC和游戏显示器出货量同比增长16.5% , 其原因在于“支持光线追踪游戏机型的大量推出” 。
光线追踪与光栅化的实现原理不同 , 最早由IBM于1969年在“SomeTechniques for Shading Machine Renderings of Solids”中提出 , 光追技术能够完美地计算光线反射、折射、散射等路线 , 渲染的画面较为逼真 , 几乎与真实世界真假莫辨 。
但该技术的计算量非常大 , 在过去实时光线追踪技术只在影视作品中出现 , 并且仅限于高成本的电影制作中 。
2018年NVIDIA发布的RTX 2080 GPU , 采用Turing架构 , 在GPU中集成了 68个独立的 RT(ray tracing) Core  , 用于光线追踪 , 光线处理能力达到了10 Giga/S , 1080P@60Hz需要处理的光线约为6Giga/S , 实测基于光线追踪的应用其帧率大致在50FPS左右 , 基于RTX 2080的光线追踪达到了可用的程度 。

推荐阅读