一360一提示您:看后求收藏(第79章 马斯克重拳出击,开源Grok-1大模型,2024年行情,一360一,寂寞书屋),接着再看更方便。

请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。

在AI领域,开源已成为推动技术进步和创新的重要力量。近日,科技巨头特斯拉的创始人埃隆·马斯克再次展现了他在AI领域的雄心壮志,宣布开源其旗下AI创企xAI开发的大语言模型Grok-1。这一举动不仅使得Grok-1成为当前参数量最大的开源大语言模型,更在业界引发了广泛关注。

马斯克一直对OpenAI的开放性持怀疑态度,此次开源Grok-1可谓是对OpenAI的一次有力回应。在社交平台上,马斯克含沙射影地表示:“我们想了解更多OpenAI的开放部分。”这番言论无疑加剧了业界对于AI开源与闭源之争的关注度。

Grok-1的开源不仅意味着其模型权重和架构将遵循Apache 2.0协议向公众开放,更重要的是,它允许用户自由地使用、修改和分发软件,无论是个人还是商业用途。这种开放性不仅有助于推动AI技术的普及和应用,更能激发更广泛的研究和创新活力。

值得注意的是,Grok-1作为一个拥有3140亿参数的混合专家(Mixture-of-Experts,MOE)大模型,其规模之大令人咋舌。相比之下,OpenAI的GPT-3.5模型仅有1750亿参数。如此庞大的参数量使得Grok-1在语言理解和生成能力上具备了强大的优势。这也意味着,要使用和测试Grok-1,用户需要拥有足够GPU内存的机器。据网友表示,这可能需要一台拥有628 GB GPU内存的机器,这无疑提高了使用该模型的门槛,但也从侧面反映了其技术含量的高度。

在Grok-1的开发过程中,xAI团队展现出了极高的技术实力和创新精神。他们首先训练了一个330亿参数的原型语言模型Grok-0,并在标准语言模型测试基准上取得了接近LLaMA2(70B)的能力。随后,他们对模型的推理和编码能力进行了重大改进,最终开发出了功能更为强大的Grok-1。在HumanEval编码任务和MMLU中,Grok-1均取得了优异的成绩,超过了包括ChatGPT-3.5在内的其他计算类模型。

与其他大模型相比,Grok-1的独特之处在于它是一款从头训练的大模型。xAI团队使用自定义训练堆栈在JAX和Rust上进行训练,没有针对特定任务进行微调。这使得Grok-1在通用性和灵活性方面具备了更高的优势。此外,Grok-1还能通过X平台实时了解世界,这使得它能够回答被大多

更多内容加载中...请稍候...

本站只支持手机浏览器访问,若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!

本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!

本章未完,点击下一页继续阅读。

上一章 目 录 下一章
其他小说相关阅读More+

相亲对象他社恐

糖三甲

笨蛋美人失忆后

三钱空青