0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

开源大模型Falcon(猎鹰) 180B发布 1800亿参数

OSC开源社区 来源:OSC开源社区 2023-09-18 09:29 次阅读

世界最强开源大模型 Falcon 180B 忽然火爆全网,1800亿参数,Falcon 在 3.5 万亿 token 完成训练,性能碾压 Llama 2,登顶 Hugging Face 排行榜。

今年5月,TII(阿联酋阿布扎比技术创新研究所)推出了号称是 “史上最强的开源大语言模型”——Falcon(猎鹰)。虽然 Falcon 的参数比 LLaMA 小,但性能却更加强大。

此前,Falcon 已经推出了三种模型大小,分别是1.3B、7.5B、40B。据介绍,Falcon 180B 是 40B 的升级版本,Falcon 180B 的规模是 Llama 2 的 2.5 倍,且可免费商用。 Falcon 180B在 Hugging Face 开源大模型榜单上被认为是当前评分最高的开放式大模型,其评分68.74,Meta 的 LlaMA 2以 1.39 的分数差距排名第二。

360532b2-4fcd-11ee-a25d-92fbcf53809c.png

3624d5c2-4fcd-11ee-a25d-92fbcf53809c.png

据官方介绍,Falcon 180B 是当前最好的开源大模型。 其在 MMLU 上 的表现超过了 Llama 2 70B 和 OpenAI 的 GPT-3.5。在 HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及 ReCoRD 上与谷歌的 PaLM 2-Large 不相上下。

364a2cf0-4fcd-11ee-a25d-92fbcf53809c.png

目前大家可以通过以下地址进行Demo 体验:https://hf.co/spaces/HuggingFaceH4/falcon-chat


硬件要求

类型 种类 最低要求 配置示例
Falcon 180B Training Full fine-tuning 5120GB 8x 8x A100 80GB
Falcon 180B Training LoRA with ZeRO-3 1280GB 2x 8x A100 80GB
Falcon 180B Training QLoRA 160GB 2x A100 80GB
Falcon 180B Inference BF16/FP16 640GB 8x A100 80GB
Falcon 180B Inference GPTQ/int4 320GB 8x A100 40GB

Prompt 格式

其基础模型没有 Prompt 格式,因为它并不是一个对话型大模型也不是通过指令进行的训练,所以它并不会以对话形式回应。预训练模型是微调的绝佳平台,但或许你不该直接使用。其对话模型则设有一个简单的对话模式。

System: Add an optional system prompt here
User: This is the user input
Falcon: This is what the model generates
User: This might be a second turn input
Falcon: and so on

Transformers

从 Transfomers 4.33 开始,可以在 Hugging Face 上使用 Falcon 180B 并且使用 HF 生态里的所有工具。但是前提是请确保你已经登录了自己的 Hugging Face 账号,并安装了最新版本的 transformers:

pip install --upgrade transformers
huggingface-cli login
bfloat16 以下是如何在bfloat16中使用基础模型的方法。Falcon 180B 是一个大型模型,所以请注意它的硬件要求(硬件要求如上所示)。
from transformers import AutoTokenizer, AutoModelForCausalLM
import transformers
import torch

model_id = "tiiuae/falcon-180B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

prompt = "My name is Pedro, I live in"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

output = model.generate(
    input_ids=inputs["input_ids"],
    attention_mask=inputs["attention_mask"],
    do_sample=True,
    temperature=0.6,
    top_p=0.9,
    max_new_tokens=50,
)
output = output[0].to("cpu")
print(tokenizer.decode(output)

这可能会产生如下输出结果:

My name is Pedro, I live in Portugal and I am 25 years old. I am a graphic designer, but I am also passionate about photography and video.
I love to travel and I am always looking for new adventures. I love to meet new people and explore new places.
使用 8 位和 4 位的 bitsandbytes Falcon 180B 的 8 位和 4 位量化版本在评估方面与bfloat16几乎没有差别!这对推理来说是个好消息,因为你可以放心地使用量化版本来降低硬件要求。请记住,在 8 位版本进行推理要比 4 位版本快得多。要使用量化,你需要安装 “bitsandbytes” 库,并在加载模型时启用相应的标志:
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    **load_in_8bit=True,**
    device_map="auto",
)
对话模型 如上所述,为跟踪对话而微调的模型版本使用了非常直接的训练模板。我们必须遵循同样的模式才能运行聊天式推理。作为参考,你可以看看聊天演示中的format_prompt函数:
def format_prompt(message, history, system_prompt):
    prompt = ""
    if system_prompt:
        prompt += f"System: {system_prompt}
"
    for user_prompt, bot_response in history:
        prompt += f"User: {user_prompt}
"
        prompt += f"Falcon: {bot_response}
"
        prompt += f"User: {message}
Falcon:"
    return prompt
如你所见,用户的交互和模型的回应前面都有User:和Falcon:分隔符。我们将它们连接在一起,形成一个包含整个对话历史的提示。这样就可以提供一个系统提示来调整生成风格。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源
    +关注

    关注

    3

    文章

    3040

    浏览量

    41829
  • 大模型
    +关注

    关注

    2

    文章

    1871

    浏览量

    1497

原文标题:1800亿参数,性能碾压Llama 2,世界最强开源大模型Falcon 180B发布

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    浪潮信息重磅发布“源2.0-M32”开源模型

    浪潮信息近日发布了一款全新的开源模型——“源2.0-M32”。这款大模型在“源2.0”系列大模型的基础上,进行了深度的技术创新与升级。
    的头像 发表于 06-05 14:50 457次阅读

    浪潮信息发布源2.0-M32开源模型,模算效率大幅提升

    5月28日,浪潮信息发布“源2.0-M32”开源模型。“源2.0-M32”在基于”源2.0”系列大模型已有工作基础上,创新性地提出和采用了“基于注意力机制的门控网络”技术
    的头像 发表于 05-29 09:34 202次阅读
    浪潮信息<b class='flag-5'>发布</b>源2.0-M32<b class='flag-5'>开源</b>大<b class='flag-5'>模型</b>,模算效率大幅提升

    通义千问开源千亿级参数模型

    通义千问近日开源了其首个千亿级参数模型Qwen1.5-110B,这是其全系列中首个达到千亿级别的开源模型。Qwen1.5-110B模型继承了
    的头像 发表于 05-08 11:01 404次阅读

    通义千问推出1100亿参数开源模型

    通义千问近日震撼发布1100亿参数开源模型Qwen1.5-110B,这一举措标志着通义千问在AI领域迈出了重大步伐。该模型成为通义千问全系
    的头像 发表于 05-06 10:49 348次阅读

    谷歌发布用于辅助编程的代码大模型CodeGemma

    谷歌发布了用于辅助编程的代码大模型 CodeGemma。CodeGemma 基于谷歌今年 2 月发布的轻量级开源模型 Gemma,针对 G
    的头像 发表于 04-17 16:07 333次阅读
    谷歌<b class='flag-5'>发布</b>用于辅助编程的代码大<b class='flag-5'>模型</b>CodeGemma

    谷歌发布轻量级开源人工智能模型Gemma

    谷歌近日宣布推出开源人工智能(AI)模型系列Gemma,旨在为开发人员和研究人员提供一个负责任的AI构建平台。这一举措标志着自2022年OpenAI的ChatGPT引领AI聊天机器人热潮后,谷歌首次发布重要的
    的头像 发表于 02-23 11:38 532次阅读

    模型开源开放评测体系司南正式发布

    近日,大模型开源开放评测体系司南(OpenCompass2.0)正式发布,旨在为大语言模型、多模态模型等各类
    的头像 发表于 02-05 11:28 703次阅读

    Meta发布CodeLlama70B开源模型

    Meta发布CodeLlama70B开源模型 Meta发布开源模型CodeLlama70B
    的头像 发表于 01-31 10:30 1095次阅读

    幻方量化发布了国内首个开源MoE大模型—DeepSeekMoE

    幻方量化旗下组织深度求索发布了国内首个开源 MoE 大模型 —— DeepSeekMoE,全新架构,免费商用。
    的头像 发表于 01-23 11:28 1058次阅读
    幻方量化<b class='flag-5'>发布</b>了国内首个<b class='flag-5'>开源</b>MoE大<b class='flag-5'>模型</b>—DeepSeekMoE

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    预训练语言模型。该模型最大的特点就是基于以较小的参数规模取得了优秀的性能,根据官网提供的信息,LLaMA的模型包含4个版本,最小的只有70亿
    发表于 12-22 10:18

    阿里云通义千问720亿参数模型宣布开源

    12月1日,阿里云通义千问720亿参数模型Qwen-72B宣布开源。与此同时,他们还开源了18亿参数模型Qwen-1.8B和音频大模型Qwe
    的头像 发表于 12-01 17:08 1023次阅读

    浪潮信息发布源2.0基础大模型,千亿参数全面开源

    11月27日,浪潮信息发布"源2.0"基础大模型,并宣布全面开源。源2.0基础大模型包括1026亿、518亿、21亿等三种参数规模的
    的头像 发表于 11-28 09:10 570次阅读
    浪潮信息<b class='flag-5'>发布</b>源2.0基础大<b class='flag-5'>模型</b>,千亿<b class='flag-5'>参数</b>全面<b class='flag-5'>开源</b>

    性能超越开源模型标杆Llama2-70B,书生·浦语大模型InternLM-20B开源发布

    开源首发。 同时,书生·浦语面向大模型研发与应用的全链条工具链全线升级,与InternLM-20B一同继续全面开放,向企业和开发者提供 免费商用授权 。 今年6月首次发布以来,书生·浦语历多轮升级,在
    的头像 发表于 09-20 16:45 775次阅读
    性能超越<b class='flag-5'>开源</b><b class='flag-5'>模型</b>标杆Llama2-70B,书生·浦语大<b class='flag-5'>模型</b>InternLM-20B<b class='flag-5'>开源</b><b class='flag-5'>发布</b>

    【AI简报20230908期】正式亮相!打开腾讯混元大模型,全部都是生产力

    /s/B3KycAYJ2bLWctvoWOAxHQ 一夜之间,世界最强开源模型Falcon 180B引爆全网! 1800亿
    的头像 发表于 09-08 19:15 603次阅读
    【AI简报20230908期】正式亮相!打开腾讯混元大<b class='flag-5'>模型</b>,全部都是生产力

    AI大模型开源算法介绍

    自定义。 AI大模型开源算法简单来说就是用于训练AI大模型的算法,并且是开源的。 现阶段随着计算能力的不断提升和数据量的不断攀升,越来越多的机器学习算法开始涌现出来。其中一个趋势就是
    的头像 发表于 08-08 17:25 1652次阅读