AI(人工智能)是当今科技圈的热门话题,深度学习则是AI训练的重要手段之一。如何学习要靠硬件和算法支撑,这方面,Intel力挺CPU,NVIDIA则力挺GPU。
日前,Intel实验室联合美国莱斯大学宣布了一种突破性的深度学习新算法SLIDE。
SLIDE基于散列开发,而非当前最富盛名的BP算法(反向传播算法)所基于的矩乘。
借助SLIDE,CPU用于传统AI模型深度学习训练的效率大大提升。研究论文举例称,一套拥有44个Xeon核心的平台和一套价值10万美元、由8张NVIDIA Vlta V100加速卡支撑的平台(TensorFlow框架)执行相同的训练任务,前者用时1小时,后者则花了3.5小时。
有趣的是,Intel还表示,它们这套平台尚未充分优化,还是“残血”状态,比如处理器的DLBoost并未启用。
不过,这套44核至强平台到底是什么型号CPU并未公布,一说就是22核心44线程的至强铂金6238,一说是双路至强铂金6238,还有可能是未发布的产品。
责任编辑:wv
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
相关推荐
设计的硬件加速器,它在深度学习中的应用日益广泛。 1. NPU的基本概念 NPU是一种专门针对深度学习算法优化的处理器,它与传统的
发表于 11-14 15:17
•286次阅读
近日,天津大学精密仪器与光电子工程学院的光子芯片实验室提出了一种基于深度学习的二维拉曼光谱算法,成果以“Rapid and accurate
发表于 11-07 09:08
•127次阅读
在当今快节奏的科研和工业环境中,实验室的工作效率对于保持竞争力至关重要。实验室信息管理系统(LIMS)作为一种先进的技术工具,已经成为提升实验室
发表于 10-28 17:15
•160次阅读
掌握这 17 种方法,用最省力的方式,加速你的 Pytorch 深度学习训练。
发表于 10-28 14:05
•142次阅读
GPU在深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是深度学习
发表于 10-27 11:13
•327次阅读
人类的学习过程,实现对复杂数据的学习和识别。AI大模型则是指模型的参数数量巨大,需要庞大的计算资源来进行训练和推理。深度学习
发表于 10-23 15:25
•367次阅读
。例如,在数据中心中,可以将 FPGA 与 CPU 或 GPU 结合使用,根据不同的任务需求进行灵活的资源分配和协同计算,提高整个系统的性能和效率。
• 算法优化和创新:随着深度
发表于 09-27 20:53
在Matlab中实现深度学习算法是一个复杂但强大的过程,可以应用于各种领域,如图像识别、自然语言处理、时间序列预测等。这里,我将概述一个基本的流程,包括环境设置、数据准备、模型设计、训练
发表于 07-14 14:21
•1897次阅读
深度学习模型训练是一个复杂且关键的过程,它涉及大量的数据、计算资源和精心设计的算法。训练一个深度
发表于 07-01 16:13
•1089次阅读
近日,比利时微电子研究中心(IMEC)与全球光刻技术领军企业阿斯麦(ASML)共同宣布,在荷兰费尔德霍芬正式启用联合High-NA EUV光刻实验室。
发表于 06-06 10:09
•623次阅读
西井科技和香港理工大学签署了人工智能和自动驾驶方面的深度产学研合作协议,将共建联合创新实验室,双方共同探索该领域的前沿技术和应用实践。
发表于 04-29 09:42
•494次阅读
提供商外,英伟达还成立了专业的人工智能研究实验室。
不过,机器学习软件公司 Mipsology 的首席执行官兼联合创始人卢多维奇•拉祖尔 (Ludovic Larzul) 表示,GPU 还存在着一些缺陷
发表于 03-21 15:19
近日,TCL华星与联想在武汉光谷宣布共建创新显示联合实验室,标志着两家行业巨头在显示技术领域的深度合作。这一实验室将专注于OLED柔性显示和
发表于 02-04 09:13
•1025次阅读
深度学习在科学计算中获得了广泛的普及,其算法被广泛用于解决复杂问题的行业。所有深度学习算法都使用
发表于 01-03 10:28
•1762次阅读
算法工程、数据派THU深度学习在近年来得到了广泛的应用,从图像识别、语音识别到自然语言处理等领域都有了卓越的表现。但是,要训练出一个高效准确的深度
发表于 12-07 12:38
•1057次阅读
评论