Meta 和 Microsoft 推出下一代 Llama 2

要点

  • 今天,我们将介绍 Llama 2 的可用性,它是我们的下一代开源大型语言模型。
  • Llama 2 可免费用于研究和商业用途。
  • Microsoft 和 Meta 正在扩大他们的长期合作伙伴关系,其中 Microsoft 是 Llama 2 的首选合作伙伴。
  • 我们在科技界、学术界和政策领域的众多公司和人士的支持下开放了 Llama 2,他们也相信当今人工智能技术的开放创新方法。
  • 我们致力于负责任地构建,并提供资源来帮助那些使用 Llama 2 的人也这样做。

图片[1]-Meta 和 Microsoft 推出下一代 Llama 2 - 易微帮博客-易微帮博客

人工智能(尤其是生成式人工智能)最近的突破激发了公众的想象力,并展示了开发这些技术的人早已知道的东西——它们有潜力帮助人们做出令人难以置信的事情,创造经济和社会机会的新时代,并为个人、创造者和企业提供表达自我和与人联系的新方式。

我们相信,开放的方法是当今人工智能模型开发的正确方法,特别是在技术快速发展的生成领域。通过公开提供人工智能模型,它们可以使每个人受益。为企业、初创企业、企业家和研究人员提供其开发的工具,这些工具的开发规模对他们自己来说是一项挑战,并以他们本来无法获得的计算能力为后盾,将为他们打开一个充满机会的世界,让他们以令人兴奋的方式进行实验和创新,并最终从经济和社会上受益。

我们相信它更安全。开放对当今人工智能模型的访问意味着一代开发人员和研究人员可以作为一个社区对其进行压力测试,快速识别和解决问题。通过了解其他人如何使用这些工具,我们自己的团队可以向他们学习、改进这些工具并修复漏洞。

十多年来,Meta 一直将探索性研究、开源以及与学术和行业合作伙伴的合作作为我们人工智能工作的核心。我们亲眼目睹了开放式创新如何带来造福更多人的技术。数十个大型语言模型已经发布,并正在推动开发人员和研究人员的进步。它们被企业用作新的生成式人工智能体验的核心成分。研究人员对 Llama 1 的巨大需求(超过 100,000 个访问大型语言模型的请求)以及他们在其基础上构建所取得的惊人成就令我们震惊。

我们现在已准备好开源 Llama 2 的下一版本,并免费将其用于研究和商业用途。我们还包括预训练模型和对话微调版本的模型权重和起始代码。正如萨蒂亚·纳德拉 (Satya Nadella) 在 Microsoft Inspire 的舞台上宣布的那样,我们将与 Microsoft 的合作关系提升到新的水平,作为 Llama 2 的首选合作伙伴,并扩大我们在生成式 AI 领域的努力。从今天开始,Llama 2 可在 Azure AI 模型目录中使用,使使用 Microsoft Azure 的开发人员能够使用它进行构建,并利用其云原生工具进行内容过滤和安全功能。它还经过优化,可在 Windows 上本地运行,为开发人员提供无缝的工作流程,为跨不同平台的客户带来生成式 AI 体验。Llama 2 也可通过 Amazon Web Services (AWS)、Hugging Face 和其他提供商获取。

人们和企业都从 Microsoft 和 Meta 之间的长期合作伙伴关系中受益。我们共同推出了可互换人工智能框架的开放生态系统,并共同撰写了研究论文来推动人工智能的发展。我们合作扩大了PyTorch(由 Meta 和 AI 社区创建的当今领先的 AI 框架)在 Azure 上的采用,并且我们是 PyTorch 基金会的创始成员之一。微软和 Meta 最近加入了一批支持者,他们支持人工智能合作伙伴框架, 以在合成媒体的创建和共享方面采取集体行动。我们的合作伙伴关系不仅延伸到人工智能之外,还延伸到虚拟世界,以提供身临其境的体验为了未来的工作和娱乐。

现在,通过扩大合作伙伴关系,微软和 Meta 支持一种开放的方法,以增加对基础人工智能技术的访问,从而使全球企业受益。不仅仅是 Meta 和 Microsoft 相信当今人工智能模型的访问民主化。我们在世界各地拥有广泛而多元化的支持者,他们也相信这种方法,包括向我们提供早期反馈并很高兴使用 Llama 2 构建新产品的公司、将在其为客户提供的产品中包含 Llama 2 的云提供商、与我们合作安全、负责任地部署大型生成模型的研究机构,以及与我们一样看到好处的技术界、学术界和政策界人士 

注重责任

我们的开源方法促进透明度和访问。我们知道,人工智能在给社会带来巨大进步的同时,也伴随着风险。我们致力于负责任地构建,并提供大量资源来帮助那些使用 Llama 2 的人也这样做。

  • 红队练习:通过内部和外部的努力,我们微调的模型已经过红队——安全测试。该团队致力于生成对抗性提示以促进模型微调。此外,我们委托第三方对我们经过微调的模型进行外部对抗性测试,以类似地识别性能差距。这些安全微调过程是迭代的;我们将继续通过微调和基准测试来投资于安全性,并计划基于这些努力发布更新的微调模型。
  • 透明度示意图:我们解释了模型的微调和评估方法并指出了其缺点。我们的透明度示意图位于研究论文中,披露了我们经历过的已知挑战和问题,并提供了对所采取的缓解措施和我们打算探索的未来缓解措施的见解。
  • 负责任的使用指南:我们创建本指南作为资源,以支持开发人员提供负责任的开发和安全评估的最佳实践。它概述了最佳实践,反映了整个行业和人工智能研究社区讨论的负责任的生成人工智能的当前最先进的研究。
  • 可接受的使用政策:我们制定了禁止某些用例的政策,以帮助确保这些模型得到公平和负责任的使用。

Meta 还制定了新举措,以利用世界各地的个人、研究人员和开发人员的洞察力和创造力,以获得有关模型执行情况以及如何改进的反馈。

  • 开放创新人工智能研究社区:今天,我们还为学术研究人员启动了一项新的合作伙伴计划,旨在加深我们对大型语言模型的负责任开发和共享的理解。研究人员可以申请加入从业者社区,分享有关这一重要主题的经验教训,社区将制定一个研究议程来推动未来的发展。
  • Llama Impact Challenge:我们希望激活渴望使用 Llama 解决难题的创新者社区。我们正在发起一项挑战,鼓励各种公共、非营利和营利实体使用 Llama 2 来解决环境、教育和其他重要挑战。挑战规则将在比赛开始前公布。

结论

纵观我们公司的历史,我们在其他业务领域进行创新时体验到了开源方法的好处。我们的工程师开发并共享了现已成为行业标准的框架,例如 React(用于制作 Web 和移动应用程序的领先框架)和 PyTorch(目前是 AI 的领先框架)。这些成为整个科技行业常用的基础设施。我们相信,公开共享当今的大型语言模型也将支持有用且更安全的生成式人工智能的开发。

我们期待看到 Llama 2 所创造的世界。

© 版权声明
THE END
喜欢就支持一下吧
点赞6
分享
评论 抢沙发

请登录后发表评论