阿联酋开源大模型Falcon 180B超越Llama2性能直逼GPT4

简介

阿联酋技术创新研究所近期发布了开源大模型Falcon 180B。该模型具有1800亿参数,训练数据规模达到3.5万亿个标记单元,其参数总量达到Llama 2的2.5倍,训练所需计算资源更是后者的4倍。

性能表现

在HuggingFace开源模型评估榜单中,Falcon 180B已超越Llama 2登上首位。根据官方测试结果,该模型在闭源模型排行榜中仅次于GPT-4,其综合能力与谷歌PaLM 2 Large版本持平,值得注意的是后者模型规模是Falcon 180B的两倍。

使用许可

虽然该模型开放商业使用权限,但需要遵循特定许可条款。目前业界正在积极验证其实际应用效果,预计开源大模型领域将呈现领先者与多个竞争者并存的格局。

分享地址:

https://falconllm.tii.ae/
https://huggingface.co/blog/zh/falcon-180b
https://huggingface.co/spaces/HuggingFaceH4/falcon-chat

评论 抢沙发