0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英特尔助力安恒信息加速恒脑大模型推理

英特尔物联网 来源:英特尔物联网 2024-08-30 17:04 次阅读

如今,安全大模型正在为网络安全行业带来深度变革,在网络安全分析、威胁检测智能策略制定等方面扮演着重要角色。推动大模型在安全场景落地,不仅需要基于安全领域知识,训练和微调出高质量的安全大模型,还需要面临在用户侧部署所需的性能、成本和灵活性挑战。然而,安全大模型有着巨大的参数规模以及复杂的事务处理逻辑,这对算力也提出了新的需求。

01恒脑 • 安全垂域大模型系统

杭州安恒信息技术股份有限公司(简称:安恒信息)推出了基于英特尔 至强 可扩展处理器的恒脑 • 安全垂域大模型系统(简称:恒脑),依托底层多源异构模型、算法调度引擎及海量安全知识,能够根据业务场景需求切换多种安全角色。

架构设计:

- 引入模型适配器,使恒脑可平滑接入多种基础模型; - 专项优化的算法调度引擎,使推理任务可跨硬件、跨平台执行;

- 融入海量安全知识,使恒脑具备多业务场景资深安全专家技能。

功能开发

- 研发智能问答、增强检索、研判驾驶舱、智能体等功能,实现安全运营智能化和客户本地知识融合,提升网络安全运营效率,更易于部署在客户私网环境。

赋能应用:

- 开放接口、插件、原子能力等方式与现有安全产品或系统深度融合,赋能安全运营人员探索更多场景可能性。

恒脑充分秉承“让安全更智能,让智能更安全”的使命,为用户提供了高效、高性价比、灵活的安全大模型部署选项。

02英特尔 至强 可扩展处理器,

加速恒脑大模型推理

为了兼顾性能、成本等方面的考量,恒脑使用第四代英特尔 至强 可扩展处理器,应对中小规模场景的模型推理需求。

wKgaombRi0KAQqNxAAH7lHc0Uvc251.jpg

第四代英特尔 至强 可扩展处理器内置了创新的英特尔 AMX加速引擎,在AI性能上更进一步,为恒脑-7b、恒脑-14b模型的推理提供卓越支持。英特尔 AMX针对广泛的硬件和软件优化,通过提供矩阵类型的运算,显着增加了人工智能应用程序的每时钟指令数 (IPC),可为AI工作负载中的训练和推理上提供显著的性能提升。

wKgaombRi0KAMjJLAAD0IGy446Y987.jpg

恒脑推理生成速度测试

恒脑利用英特尔 至强 可扩展处理器进行推理加速,让用户能够获得以下价值:

高效处理百亿级别的安全知识条目,满足智能问答、事件总结报告生成等应用对于性能的需求;

高效利用现有的CPU服务器资源进行推理,降低AI加速器部署与运维带来的成本压力,实现更高的投资收益;

获得由AI扮演的安全运营专家等安全角色,提升安全运营能力,护航网络安全。

目前,采用第四代英特尔 至强 可扩展处理器的恒脑在智能问答、事件总结报告生成、报文研判等实际场景中得到了广泛应用。

通过与英特尔 至强 可扩展处理器进行深度适配和性能优化,可有效加速恒脑推理,助力用户构建起高效能、高性价比的安全垂域大模型系统,有力驱动了网络安全效能的整体跃升与效率改善。

一王欣

安恒信息研究院院长、高级副总裁

未来,安恒信息将与英特尔在安全大模型方面进行进一步合作,进一步释放安全大模型的巨大价值。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    60

    文章

    9859

    浏览量

    171249
  • 网络安全
    +关注

    关注

    10

    文章

    3102

    浏览量

    59518
  • 大模型
    +关注

    关注

    2

    文章

    2268

    浏览量

    2345

原文标题:英特尔助力安恒信息加速恒脑大模型推理,实现智能安全运营

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用PyTorch在英特尔独立显卡上训练模型

    《PyTorch 2.5重磅更新:性能优化+新特性》中的一个新特性就是:正式支持在英特尔独立显卡上训练模型
    的头像 发表于 11-01 14:21 139次阅读
    使用PyTorch在<b class='flag-5'>英特尔</b>独立显卡上训练<b class='flag-5'>模型</b>

    开箱即用,AISBench测试展示英特尔至强处理器的卓越推理性能

    近期,第五代英特尔®至强®可扩展处理器通过了中国电子技术标准化研究院组织的人工智能服务器系统性能测试(AISBench)。英特尔成为首批通过AISBench大语言模型(LLM)推理性能
    的头像 发表于 09-06 15:33 256次阅读
    开箱即用,AISBench测试展示<b class='flag-5'>英特尔</b>至强处理器的卓越<b class='flag-5'>推理</b>性能

    英特尔IT的发展现状和创新动向

    AI大模型的爆发,客观上给IT的发展带来了巨大的机会。作为把IT发展上升为战略高度的英特尔,自然在推动IT发展中注入了强劲动力。英特尔IT不仅专注于创新、AI和优化,以及英特尔员工、最
    的头像 发表于 08-16 15:22 475次阅读

    浪潮信息®服务器率先支持英特尔®至强®6处理器

    北京2024年6月7日 /美通社/ -- 6月6日,英特尔在全球范围内发布了英特尔®至强®6处理器,浪潮信息服务器产品线总经理赵帅受邀参会并发表演讲。会上,浪潮信息多款元
    的头像 发表于 06-07 15:36 337次阅读
    浪潮<b class='flag-5'>信息</b>元<b class='flag-5'>脑</b>®服务器率先支持<b class='flag-5'>英特尔</b>®至强®6处理器

    英特尔助力京东云用CPU加速AI推理,以大模型构建数智化供应链

    英特尔助力京东云用CPU加速AI推理,以大模型构建数智化供应链
    的头像 发表于 05-27 11:50 473次阅读
    <b class='flag-5'>英特尔</b><b class='flag-5'>助力</b>京东云用CPU<b class='flag-5'>加速</b>AI<b class='flag-5'>推理</b>,以大<b class='flag-5'>模型</b>构建数智化供应链

    BittWare提供基于英特尔Agilex™ 7 FPGA最新加速

    BittWare 当前的加速板产品组合包括最新的英特尔 Agilex 7 FPGA F、I 和 M 系列,包括 Compute Express Link (CXL) 和 PCIe* 5.0
    的头像 发表于 04-30 15:22 763次阅读
    BittWare提供基于<b class='flag-5'>英特尔</b>Agilex™ 7 FPGA最新<b class='flag-5'>加速</b>板

    英特尔AI产品助力其运行Meta新一代大语言模型Meta Llama 3

    英特尔丰富的AI产品——面向数据中心的至强处理器,边缘处理器及AI PC等产品为开发者提供最新的优化,助力其运行Meta新一代大语言模型Meta Llama 3
    的头像 发表于 04-28 11:16 555次阅读

    浪潮信息&quot;源2.0&quot;大模型YuanChat支持英特尔最新商用AI PC

    北京2024年3月27日 /美通社/ -- 3月26日, 浪潮信息英特尔正式宣布,浪潮信息"源2.0系列基础大模型"已和最新的英特尔® 酷
    的头像 发表于 03-27 22:52 434次阅读
    浪潮<b class='flag-5'>信息</b>&quot;源2.0&quot;大<b class='flag-5'>模型</b>YuanChat支持<b class='flag-5'>英特尔</b>最新商用AI PC

    浪潮信息英特尔合作推出一种大模型效率工具“YuanChat”

    3月26日,浪潮信息英特尔正式宣布,浪潮信息“源2.0系列基础大模型”已和最新的英特尔® 酷睿™ Ultra处理器平台完成适配,本地
    的头像 发表于 03-27 13:50 554次阅读
    浪潮<b class='flag-5'>信息</b>与<b class='flag-5'>英特尔</b>合作推出一种大<b class='flag-5'>模型</b>效率工具“YuanChat”

    新思科技与英特尔深化合作加速先进芯片设计

    近日,新思科技与英特尔宣布深化合作,共同加速先进芯片设计的步伐。据悉,新思科技的人工智能驱动的数字和模拟设计流程已经成功通过英特尔代工的Intel 18A工艺认证,这一突破性的进展标志着双方在芯片设计领域的合作迈上了新台阶。
    的头像 发表于 03-06 10:33 583次阅读

    英特尔CPU部署Qwen 1.8B模型的过程

    本文介绍了在英特尔 13 代酷睿 CPU i5 - 13490F 设备上部署 Qwen 1.8B 模型的过程,你需要至少 16GB 内存的机器来完成这项任务,我们将使用英特尔的大模型
    的头像 发表于 01-12 10:28 2485次阅读

    英特尔专家为您揭秘第五代英特尔® 至强® 可扩展处理器如何为AI加速

    % 1 ,AI 推理性能提升42% 2 。 这一系列性能提升的背后,存在着怎样的创新与突破?第五代英特尔 至强 可扩展处理器为什么要强调为AI加速?它又是如何做到为AI加速的呢? 从异
    的头像 发表于 12-23 12:20 692次阅读

    英特尔推出新一代强大产品, 加速实现 “AI 无处不在 ”

    英特尔® 酷睿™ Ultra 和第五代英特尔® 至强® 可扩展处理器丰富了英特尔出色的AI产品组合,加速 AI 惠及千行百业,开启全民 AI 时代。
    发表于 12-16 16:27 419次阅读
    <b class='flag-5'>英特尔</b>推出新一代强大产品, <b class='flag-5'>加速</b>实现 “AI 无处不在 ”

    英特尔模型全适配,大语言模型已成功部署于CPU

    他进一步指出,英特尔作为芯片制造商,始终致力于对“合适尺寸”模型的全面适配。面对大模型领域激烈的市场竞争,每个季度大约有4-5款新模型上市,一旦发现任何新的
    的头像 发表于 12-11 15:41 1051次阅读

    用上这个工具包,大模型推理性能加速达40倍

    作者: 英特尔公司 沈海豪、罗屿、孟宇、董波、林俊 编者按: 只需不到9行代码, 就能在CPU上实现出色的LLM推理性能。 英特尔  Extension for Transforme
    的头像 发表于 12-01 20:40 1078次阅读
    用上这个工具包,大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>性能<b class='flag-5'>加速</b>达40倍