Navigation menu

新闻中心

马斯克在桌子上,最强的开放资源模型诞生了!

Xin Zhiyuan报告编辑:Yhluck [Xin Zhiyuan介绍] Grok-2正式开放资源,并在拥抱面前将其推出。 9000亿参数 + 128K的背景有多强?首先暴露了几乎一万亿个参数的“动物”性能。马斯克以“超人”的速度重新出现,AI帝国上升。什么?马斯克终于打开了Grok-2的来源!凌晨,Xai正式宣布将打开Grok-2资源!马斯克还预测,Grok-3将在6个月内成为公开资源。 Grok-2在2024年完成了培训,并拥有超过500GB的培训。该混合专家(MOE)体系结构根据GROK-1进行了改进。那么Grok-2的哪些部分是开放的?该资源的开放版本的技术特征是什么?开放资源许可是什么?我们已经为您安排了信息,而主要内容:开放的内容? xai开源给所有用户的Grok-2的主要组件IS时间:模型重量模型体系结构GROK-2开放资源版本的技术功能开放资源“大脑”具有非常强大的技术规格:大型型号:参数总数高达9005亿(905b)。当推理时,每次都会损坏这些参数的1360亿(136b)。它使其成为当今最强的开放资源模型之一。超长上下文窗口:支持上下文长度高达131,072(128K)令牌。这意味着,可以读取和处理非常长的文档或通信历史(大约相当于一本超过200页的书),以进行更复杂的推理和摘要。 Hybridexpert体系结构(MOE):此体系结构可以大大扩展模型的大小并提高模型功能,而不会增加大型计算成本。新的培训数据:其预训练数据涵盖了2024年初的大量文本和代码。Grok-2和Grok-1的建筑差异是摘要:什么开放资源权限吗?商业用途商业:仅当会员的年收入少于100万美元时才能使用商业用途。超过此阈值的商业用途需要与XAI单独的许可证。限制:材料,衍生品或输出(包括生成的数据)不得用于训练,创建或改进任何基本的,大型语言或一般的AI模型,除非该州的条款可以更改或修复Grok 2。 HF地址:https://huggingface.co/xai-org/grok-2如何使用:通过slang部署文件的权重,您可以在任何文件夹名称中替换/local/grok-2。 hfdownload xai-org/grok-2-local-dir/local/grok-2您在下载过程中可能会发现一些错误。请再试一次,直到下载成功为止。如果下载成功,则文件夹应包含42个文件,总尺寸为约500GB。启动服务器并安装SGLANG推理引擎(版本≥v0.5.1)的最新版本,地址:https://github.com/sgl-project/sglang/使用以下命令来启动推荐服务器。该检查点是-tp = 8的配置,因此注意到8 GPU(每个视频存储器都大于40GB)。 python3 -m sglang .launch_server-model/local/grok- 2-sokenizer-path/local/grok-2/tokenizer .tok.tok.tok.json-tp8-quantizationfp8-teention-backendtriton发送一个请求,这是一个受过训练的模型,因此需要对话模板。 python3 -m sglang.test.send_one -prompt“人:您的名字是什么?这个大个子对Netizen Xfreeze发表了评论,他说Xai Development的速度非常了不起 - 尤其如此!他宣布,孟菲斯的Xai Colosus数据中心仅在122天内建造,并配备了100,000个NVIDIA H100 GPU。 “在短短两年内,xAI通过一支超级滑道的团队发行了Grok 4,“他叹了口气,”他叹了口气。HuangRenxun曾经说,这是“超人”的举动,只有马斯克才能做到这一点,而在人工智能的过程中,有些网络却在毫不犹豫地培训了犹豫不决的速度。一些网络在92天内使能力增加一倍,这不是提供资本的结果,而是避免使用新的操作方法的传统使用。多模式代理将于9月发布,Andvideo Generation Models将是Rel在十月放松。 XAI模型可以快速重复,主要依靠功能强大的超级计算机中心。预计XAI将在5年内创建5,000 H100巨型超级计算机。老挝马(Lao Ma)说:“ XAI很快将杀死除Google以外的所有对手,甚至Google也会尽快生存。”我真的很期待下一个AI帝国的诞生。参考:https://huggingface.co/xai-org/grok-2回到Sohu以查看更多信息