在人工智能发展浪潮中,大模型的开源与闭源之争一直是业内的热点话题。随着技术的不断进步和应用场景的日益丰富,如何降低大模型的使用门槛,让更多人能够便捷地应用于实际业务场景,成为了推动行业发展的关键所在。而开源大模型,无疑是这一进程中具有里程碑意义的重要一步。
近日,2024开放原子开发者大会暨首届开源技术学术大会——开源大模型落地实践分论坛上,武汉人工智能研究院院长、中国科学院自动化研究所副总工程师王金桥,武汉大学教授叶茫,腾讯机器学习平台专家、混元大模型预训练负责人孙兴武,北京智源人工智能研究院数据研究组负责人刘广,小米AI技术专家张俊博,阿里云智能集团技术专家马腾,中国科学院自动化研究所副研究员、武汉人工智能研究院算法架构师易东,Monkey大模型一作、华中科技大学硕士生杨彪等多位深耕开源大模型的技术专家,深入探讨了开源大模型的前沿技术进展、应用创新及行业落地实践。本论坛由开放原子开源基金会、中国通信学会主办,CSDN、武汉人工智能研究院协办。
王金桥在致辞中强调了开源对大模型生态发展的推动作用,以及它在降低技术门槛、促进技术创新方面的价值。他提到,尽管开源大型模型已取得显著成就,但还需面对数据质量、隐私保护、模型解释性以及安全可靠性等挑战。他期望通过不懈努力,进一步促进开源社区的繁荣发展,推动技术共享的进程。
在主题内容分享环节,叶茫分享了团队在多模态大模型微调、持续学习和轻量化等方面的研究,特别是跨模态目标检索系统的开发,以及无人机场景下的工业检索和夜间场景下可见光与红外图像的跨模态匹配等工作。
孙兴武介绍了腾讯混元大模型在技术和应用上的最新成果,包括自研星脉高性能计算网络及其Angel训练框架,以及广告推荐、代码生成、AI客服等多个业务场景的应用案例。
刘广聚焦于高质量数据集的构建及其对模型性能的重要性,介绍了BGE向量模型及Aquila语言模型,并强调了中文互联网最大规模的数据集CCL3.0的价值。他指出,通过定义高质量数据的标准并结合小模型验证效果的方法,可以有效提高模型的表现力。
张俊博介绍了XIAOMI DASHENG声音预训练模型。该模型具有优秀的场景区分能力和环境音识别能力,只需简单几行代码就能达到SOTA级别的性能,不仅适用于音频表征任务,还可以作为多模态大模型的一部分,提供稳定的音频编码服务。
马腾分享的Mooncake项目,是一个用于优化大模型推理服务的开源项目。采用P/D分离架构和KVCache缓存池提升吞吐量,减少算力开销,支持多种通讯协议和存储方式,适配多种推理框架,增强了分布式部署能力。
易东讲解了“紫东太初”多模态大模型的研发历程和发展方向,展示了在医疗、教育、政务等多个领域的应用实例,并公布了FAST SAM、FLAP等多个开源项目,这些项目进一步丰富了多模态大模型的应用生态。
最后,杨彪介绍了Monkey多模态大模型及其在文档智能中的应用,通过切块处理提高图片分辨率和更详细的标注数据进行微调,提出了TEXTMonkey,针对文档领域进行优化,实现了更高的精度和更好的可解释性。
如今,各行各业都已进入智能化升级关键阶段,开源大模型的创新已无处不在。通过服装模特AI生成技术,企业可以降低拍摄海报的人力成本;通过跨领域合作,实现了文本指令区域编辑和动图生成,为智能电视提供了更丰富的用户体验;通过多模态情感语义理解基础模型,不仅有助于提升情感意图识别的准确性,还为精神疾病诊断提供了新的思路,类似的案例不胜枚举。
总体而言,在开源生态中,大模型在众多应用场景中均展现出良好的性能表现。众多企业不仅在大模型的微调、持续学习和轻量化等领域进行了深入研究,而且正积极推动这些技术在具体业务场景中的广泛应用和落地实施。
-
人工智能
+关注
关注
1791文章
47334浏览量
238678 -
开源
+关注
关注
3文章
3360浏览量
42524 -
大模型
+关注
关注
2文章
2473浏览量
2770
原文标题:从理论到实践,开源大模型在多领域的应用探索
文章出处:【微信号:开放原子,微信公众号:开放原子】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论