人工智能技术的蓬勃发展和智能应用的不断落地,正在深刻地影响和改变着我们的生活。GPU、NPU、FPGA等各类AI芯片为人工智能的发展提供了算力支撑,其中又以GPU应用最为广泛。接下来让我们一起了解一下沐曦的首款GPU产品:曦思N100。
曦思N100是沐曦面向人工智能推理场景推出的高效能GPU产品,针对产品性能,沐曦的架构师们进行了两大方向的优化:
01要让“计算算的快”
大家都知道GPU通用性好,适应性强,但反向来说面向特定场景它可能并不是最优解。针对AI应用场景的特点,曦思N100采用了GPGPU+DLA的异构架构,GPGPU可保持GPU的通用可编程性,而DLA(Deep Learning Accelerator)则可加速深度学习任务从而达到更高的计算性能,通过量身打造的推理软件栈MacaRT可实现内部计算资源的自动调度和优化。
02要让“数据跑的快”
曦思N100采用高带宽低延迟的设计理念,高速片上网络(High Speed Fabric)的应用使各计算单元间的数据传输更加通畅,HBM2E高带宽显存则为存算交互提供了高速的数据通道,同时曦思N100还加持了目前最先进的PCIe5.0接口,不管是对内还是对外的数据通路都是无比畅通的大道!
除了对计算性能的需求之外,很多人工智能的场景还涉及到大量的视频图像处理任务,如果都用CPU来做,整体效率低下而且需要消耗很多CPU资源。针对这种情况,曦思N100在片内集成了强大的视频处理内核,可支持视频编解码、图像编解码、图像处理等功能。高达96路的视频解码功能,可在视频智能分析等场景大幅降低单路分析成本。高达128路的视频编码功能则使其能够在短视频、视频云等需要做高并发编码、转码和AI处理的场景大幅提高处理密度并降低单路成本。所以,可以说曦思N100是一款AI全流程处理GPU,不止功能全面还能有效地降低系统整体成本(TCO)。
除了硬件性能强大、功能完备之外,一款好的产品必须要让用户觉得好用、易用!对此沐曦团队打造了MXMACA1.0软件栈,其中包括简单易用的MacaRT推理引擎、开箱即用的Model Zoo和应用实例,同时也对主流软件生态如FFMPEG、OpenCV等进行了兼容支持,最大限度的遵循用户使用习惯,帮助开发者降低学习和开发成本。
曦思N100人工智能推理GPU非常适合应用于基于视觉的AI处理场景。沐曦已联合合作伙伴打造了多种基于曦思N100的解决方案,如高密度视频结构化分析解决方案、高并发智能转码解决方案、光电混合异构计算解决方案等,这些方案可广泛应用于城市安防、智慧交通、工业视觉、短视频、云计算和智算中心等多个领域。
目前曦思N100已经正式推向市场,并进入批量量产阶段。沐曦将携曦思以及未来更多的GPU产品持续为中国的社会发展和科技进步提供强大算力!
审核编辑:汤梓红
-
cpu
+关注
关注
68文章
10832浏览量
211301 -
gpu
+关注
关注
28文章
4709浏览量
128781 -
AI
+关注
关注
87文章
30348浏览量
268602 -
人工智能
+关注
关注
1791文章
46952浏览量
237810 -
沐曦
+关注
关注
0文章
26浏览量
1143
原文标题:智算小课堂(第七课)——曦思N100:功能强大的AI全流程处理GPU
文章出处:【微信号:沐曦MetaX,微信公众号:沐曦MetaX】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论