0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

BitEnergy AI公司开发出一种新AI处理方法

要长高 2024-10-22 15:15 次阅读

BitEnergy AI公司,一家专注于人工智能(AI)推理技术的企业,其工程师团队创新性地开发了一种名为线性复杂度乘法(L-Mul)的AI处理方法。该方法的核心在于,它用整数加法替代了传统的浮点乘法(FPM),实现了算法上的简化。

尽管L-Mul采用了更简洁的算法,但其运算结果却能与浮点乘法相媲美,同时保持了高精确度和准确性。更为引人注目的是,这一新方法能够显著降低AI系统的功耗,最高降幅可达95%,这对于AI技术的未来发展具有重大意义。

然而,由于L-Mul是一种全新的工艺,目前市场上流行的现成硬件,如英伟达即将推出的Blackwell GPU,并未针对这种算法进行优化设计。因此,即便BitEnergy AI的算法已经证实能够达到与浮点乘法相同的性能水平,我们仍然需要能够处理该算法的系统。这可能会让一些已经在AI硬件上投入巨资的公司感到犹豫。但另一方面,功耗的大幅降低(最高95%)无疑会吸引大型科技公司的关注,尤其是如果AI芯片制造商能够研发出能够充分利用该算法的专用集成电路ASIC)。

当前,电力已成为制约AI发展的关键因素。仅去年一年,全球售出的数据中心GPU所消耗的电力就超过了100万个家庭一年的用电量。就连谷歌也因AI对电力的巨大需求而调整了气候目标,其温室气体排放量自2019年以来增长了48%,与预期的逐年下降趋势背道而驰。谷歌前CEO甚至提出,通过放弃部分气候目标,转而利用更先进的AI技术来解决全球变暖问题,从而为电力生产开辟新的道路。

但如果AI处理能够变得更加节能,那么人类似乎可以在不牺牲地球环境的前提下,继续享受先进的AI技术带来的便利。此外,能源消耗下降95%还将减轻大型数据中心对国家电网的负担,减少对新能源工厂的建设需求,为未来快速供电提供有力支持。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30728

    浏览量

    268886
  • 人工智能
    +关注

    关注

    1791

    文章

    47183

    浏览量

    238255
收藏 人收藏

    评论

    相关推荐

    如何在STM32f4系列开发板上部署STM32Cube.AI

    已下载STM32Cube.AI扩展包,但是无法使用,感觉像是没有部署AI模型,我是想要通过摄像头拍照,上传图像后,经过开发处理器进行AI
    发表于 11-18 09:39

    使用全新NVIDIA AI Blueprint开发视觉AI智能体

    为提高生产力、优化流程和创造更加安全的空间,埃森哲、戴尔科技和联想等公司正在使用全新 NVIDIA AI Blueprint 开发视觉 AI 智能体。
    的头像 发表于 11-06 13:58 379次阅读

    云端ai开发环境怎么样

    随着云计算技术的成熟与普及,云端AI开发环境应运而生,为AI开发者提供了个高效、灵活、可扩展的开发
    的头像 发表于 10-24 09:37 183次阅读

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    了传统学科界限,使得科学家们能够从更加全面和深入的角度理解生命的奥秘。同时,AI技术的引入也催生了一种全新的科学研究范式,即数据驱动的研究范式,这种范式强调从大量数据中提取有价值的信息,从而推动科学研究
    发表于 10-14 09:21

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    和数量直接影响到模型的准确性和可靠性。因此,数据获取、处理、分析和质量控制在AI for Science中至关重要。此外,数据驱动的研究范式也促使科学家从传统的假设驱动转向更加灵活和开放的研究方法
    发表于 10-14 09:16

    AI for Science:人工智能驱动科学创新》第章人工智能驱动的科学创新学习心得

    如何激发科学家的创新思维。AI不仅仅是工具,更是一种思维方式,它鼓励我们跳出传统框架,以数据为驱动,探索未知。这种思维方式的转变,不仅促进了科学方法的革新,也为解决全球性挑战提供了新的视角和途径
    发表于 10-14 09:12

    HOMEE AI利用NVIDIA Omniverse开发出AI即服务”空间规划解决方案

    HOMEE AI 是 NVIDIA 初创加速计划成员。该公司开发一种AI 即服务”空间规划解决方案,旨在为价值 6500 亿美元的全球家
    的头像 发表于 09-09 10:00 460次阅读
    HOMEE <b class='flag-5'>AI</b>利用NVIDIA Omniverse<b class='flag-5'>开发出</b>“<b class='flag-5'>AI</b>即服务”空间规划解决方案

    开发AI助手

    AI
    草帽王路飞
    发布于 :2024年07月22日 14:41:54

    平衡创新与伦理:AI时代的隐私保护和算法公平

    权的保护必须被置于核心位置。随着越来越多的个人信息被用于训练和运行AI系统,如何保护这些信息不被滥用成为了项艰巨的任务。加强数据加密技术、实施严格的数据访问控制和匿名化处理,都是有效的手段。此外
    发表于 07-16 15:07

    rup是一种什么模型

    RUP(Rational Unified Process,统建模语言)是一种软件开发过程模型,它是一种迭代和增量的软件开发
    的头像 发表于 07-09 10:13 1241次阅读

    risc-v多核芯片在AI方面的应用

    得RISC-V多核芯片能够更好地适应AI算法的不同需求,包括深度学习、神经网络等,从而提高芯片的性能和效率,降低成本,使AI边缘计算晶片更具竞争力。 再者,RISC-V的多核设计可以进步提高
    发表于 04-28 09:20

    开发者手机 AI - 目标识别 demo

    功能简介 该应用是在Openharmony 4.0系统上开发个目标识别的AI应用,旨在从上到下打通Openharmony AI子系统,展示Openharmony系统的
    发表于 04-11 16:14

    防止AI大模型被黑客病毒入侵控制(原创)聆思大模型AI开发套件评测4

    在训练只聪明的AI小动物解决实际问题,通过构建神经网络模型并进行推理,让电脑也能像人样根据输入信息做出决策。 在上述示例中,我创建了个简单的深度学习模型,该模型具有两个全连接层。
    发表于 03-19 11:18

    NanoEdge AI的技术原理、应用场景及优势

    NanoEdge AI一种基于边缘计算的人工智能技术,旨在将人工智能算法应用于物联网(IoT)设备和传感器。这种技术的核心思想是将数据处理和分析从云端转移到设备本身,从而减少数据传输延迟、降低
    发表于 03-12 08:09

    【国产FPGA+OMAPL138开发板体验】(原创)5.FPGA的AI加速源代码

    OMAP-L138(定点/浮点DSP C674x+ARM9)+ FPGA处理器的开发板。 编写个用于AI加速的FPGA程序是个相当复杂
    发表于 02-12 16:18