| 网站首页 | 娱乐新闻 | 娱乐资讯 | 明星八卦 | 影视动态 | 音乐资讯 | 文章中心 | 

您现在的位置: 娱乐新闻资讯网 >> 明星八卦 >> 正文

  没有公告

  开源模型超过最强闭源模型Llama 31能否颠覆AI生态?           ★★★ 【字体:  
开源模型超过最强闭源模型Llama 31能否颠覆AI生态?
作者:佚名    明星八卦来源:本站原创    点击数:    更新时间:2024/7/25    

  美国当地时间7月23日,Meta正式发布Llama 3.1。其包含8B、70B 和405B三个规模,最大上下文提升到了128k。Llama目前开源领域中用户最多、性能最强的大型模型系列之一。

  1.共有8B、70B及405B三种版本,其中405B版本是目前最大的开源模型之一;

  3.模型引入了更长的上下文窗口(最长可达128K tokens),能够处理更复杂的任务和对线.支持多语言输入和输出,增强了模型的通用性和适用范围;

  5.提高了推理能力,特别是在解决复杂数学问题和即时生成内容方面表现突出。

  开源软件更为透明性和灵活性,允许全球开发者共同审查、修改和改进代码,从而推动了技术的快速创新和进步。而闭源模型通常由单一公司或组织开发和维护,它们能提供专业的支持和服务,确保软件的安全性和稳定性。但这种模式也限制了用户的控制权和自定义能力。

  此前,一直是闭源模型略胜一筹。直到Llama 3.1的发布,在持续激烈的开源与闭源之争写下浓墨重彩的一笔:开源模型终于可与闭源模型巅峰一战了。

  根据Meta提供的基准测试数据,最受关注的405B版本,从性能上已经可与GPT-4和Claude 3相媲美。其中Human Evaluation主要用于评估模型在理解和生成代码、解决抽象逻辑问题方面的能力。在与其他大型模型的竞争中,Llama 3.1 405B显得略胜一筹。

  斯坦福大学计算机科学系和电子工程系副教授、人工智能实验室主任吴恩达(Andrew Ng)在社交媒体上称赞

  他表示:“Llama 3.1增加了上下文长度和改进了功能,是送给每个人的奇妙礼物。”并希望“像加州提议的SB1047这样愚蠢的法规不会阻止这样的创新”。

  图灵奖得主、Meta首席人工智能科学家杨立昆(Yann LeCun)引用了《The Verge》对Llama 3.1的性能描述——

  有趣的是,昨天405B版的Llama 3.1疑似在HugginFace、GitHub上被“偷跑”,爆料人发出的评测数据与今日正式发布的版本信息基本相符合。

  Meta的创始人兼CEO马克扎克伯格亲笔撰写了一篇题为《开源人工智能是未来之路(Open Source AI Is the Path Forward)》的长文章,详细阐述了开源对开发者、对Meta以及对全球来说为何具有重要意义。

  在模型架构方面,作为Meta迄今为止最大的模型,Llama 3.1 在超过 15 万亿个token的数据上进行训练,预训练数据日期截止到2023年12月。

  为了在合理的时间内在如此大规模上实现训练并取得期望的成果,Meta优化了整个训练堆栈,用了超过16000块H100,405B是第一个在此规模上训练的Llama模型。

  这一决策使得Llama 3.1在支持长达128K的上下文长度时,依然能够保证短文本的高质量输出,实现了对长短文本的灵活处理,而非仅专注于长文本。

  同时,研究团队在实施了一种迭代的后训练方法,通过每一轮的监督式微调和直接偏好优化,生成高质量的合成数据并提升模型的各项功能。与先前版本相比,Llama 3.1增加了预训练和后训练数据的数量和质量,引入了更细致的预处理和管理流程,以及更严格的质量保证和过滤技术。

  为了应对大规模的405B模型的运行需求,Meta把模型数据从16位(BF16)量化减少到8位(FP8),这大幅降低了计算资源的需求,令模型能够在单一服务器节点上运行。

  在Llama 3.1 405B模型的指令和聊天微调方面,开发团队致力于提升模型对用户指令的响应性、实用性和质量,同时确保高度的安全性。

  在后训练阶段,团队在预训练的基础上进行了几轮调整。每轮包括监督式微调(SFT)、拒绝采样(RS)和直接偏好优化(DPO)。

  同时,团队还使用多种数据处理方法来过滤这些数据,确保质量最高,并扩大微调数据的应用范围。

  Meta也在探索一种新策略,即使用405B模型作为70B和8B模型的“教师模型”,从而从大型模型中提炼出适合各行各业需求的小型定制模型。这种做法与GPT-4o mini的策略不谋而合,

  。前OpenAI创始成员之一Andrej Karpathy曾对GPT-4o Mini做出评价:“模型必须先变大,然后才能变小。因为我们需要它们(自动)帮助重构训练数据,使其成为理想的、合成的格式。”他指出,这种方法能有效地将大模型的深度和广度知识迁移到更实用、成本更低的小型模型中。

  作为开源模型路线的领头羊,Meta在Llama模型的配套设施上也给足了诚意。

  Meta的目标是提供一个更广阔的系统,让开发者能够灵活地设计并创建符合自己需求的定制产品。为了在模型层之外负责任地发展AI,研究团队发布了一个包含多个示例应用和新组件的完整参考系统,例如多语言安全模型Llama Guard 3和提示注入过滤器Prompt Guard。这些应用是开源的,可供社区进一步开发。

  为了更好地定义组件接口并促进其在行业中的标准化,研究人员与行业、初创公司和广泛社区合作,并在GitHub上发布了“Llama Stack”提议。

  根据Llama团队的官方报道,他们在150多个多语言基准数据集上对这些模型进行了深入的性能评测和大量的人工测试。结果显示,Llama的顶级模型在各种任务上能够与市场上的顶尖基础模型如GPT-4、GPT-4o和Claude 3.5 Sonnet等相媲美。同时,相较于具有类似参数规模的封闭和开源模型,Llama的小型版本同样表现出了强劲的竞争力。

  这个问题从去年开始就备受争议。两种模型的发展道路代表着不同技术哲学,它们在促进技术进步和满足商业需求方面各有千秋。

  比如Llama 3.1是一个开源的大模型,它允许研究人员和开发者访问其源代码,人们可以自由地研究、修改甚至改进模型。这种开放性鼓励了广泛的合作和创新,让来自不同背景的开发者能够共同解决问题。

  GPT-3的闭源特性使得其能够在商业化路径上更加稳健,同时控制性确保了产品的稳定性和安全性,在处理敏感信息时更受企业信赖。但这种封闭性也限制了外部研究者对模型的完全理解和创新能力。去年5月,外媒曾报道谷歌流出一份文件,主题是“我们没有护城河,OpenAI也没有。当我们还在争吵时,开源已经悄悄地抢了我们的饭碗”。同年Meta发布开源大模型Llama 2后,杨立昆表示,Llama 2将改变大语言模型的市场格局。

  大模型领域最权威的榜单是大模型竞技场(LLM Arena),采用了国际象棋一直采用了ELO积分体系。它的基本规则是,让用户向两个匿名模型(例如 ChatGPT、Claude、Llama)提出任何问题,并投票给回答更好的一个。回答更好的模型将获得积分,最终的排名由累计积分的高低来确定。Arean ELO收集了50万人的投票数据。

  在LLM Arena排行榜上,OpenAI的GPT-4o目前占据榜首。排名前十的模型全部为闭源。虽然闭源模型在排名上仍遥遥领先,但开源与闭源模型之间的差距并非李彦宏在2024年百度AI开发者大会上所言越来越大,实际上正在逐渐缩小。

  对于开源、闭源模型哪个更优,,「甲子光年」曾与多位AI行业从业者讨论过。业内普遍认为:

  开源和闭源问题并非纯粹技术上的区别,更多关乎于商业模式的选择。目前无论是开源还是闭源大模型,都尚未找到一个完全成功的商业模式。

  微博新技术研发负责人张俊林指出,模型能力的增长速度是一个关键因素。如果模型能力的增长速度很快,意味着短时间内需要大量计算资源,这种情况下闭源模型因为资源优势而更有优势。相反,如果模型能力增长较慢,则开源与闭源之间的差距会减小,追赶速度也会加快。

  他认为,未来几年内,开源和闭源模型的能力差异将取决于“合成数据”技术的发展。如果未来两年内“合成数据”技术取得显著进展,两者的差距可能会增大;如果没有突破,则两者的能力将趋于相近。

  开源还是闭源,本身并不决定模型性能的高低。闭源模型并非因为闭源而领先,开源模型也并非因为开源而落后。甚至恰恰相反,模型是因为领先才选择闭源,因为不够领先不得不选择开源。

  目前性能最好的闭源模型与性能最好的开源模型都是由大公司所主导,而大公司里又属Meta的开源决心最大。

  在上一季度的财报会上,扎克伯格对这件事的回应是,Meta开源其AI技术是出于推动技术创新、提升模型质量、建立行业标准、吸引人才、增加透明度和支持长期战略的考虑。

  而这次扎克伯格在《开源人工智能是未来之路(Open Source AI Is the Path Forward)》中详细地解释了“为什么开源AI对开发者有利”:

  每个组织都有其独特需求,不同规模的模型可针对这些需求进行优化,使用特定数据进行训练或微调。简单的设备上任务和分类任务可能需要较小的模型,而更复杂的任务则需使用更大的模型。

  现在,你可以使用最先进的Llama模型,并继续用你自己的数据来训练它们,之后将它们优化到理想的规模——而我们或其他任何人都不会接触到你的数据。

  许多组织不想依赖于他们无法自行运行和控制的模型。他们担心闭源模型的提供者可能会更改模型、使用条款,甚至完全停止服务。他们也不希望被限制在一个对某个模型拥有独占权的单一云平台中。开源为众多公司提供了一套兼容的工具链,使得在不同系统之间切换变得容易。

  许多组织处理敏感数据,需要保护这些数据不被通过云API发送到闭源模型中。其他组织则简单地不信任闭源模型提供者的数据处理方式。开源通过让你在任何想要的地方运行模型来解决这些问题,并且因为开发过程的透明性而被广泛认为更安全。

  开发人员可以在自己的基础设施上运行Llama 3.1 405B模型进行推理,其成本大约是使用GPT-4o等闭源模型的一半,适用于面向用户的和离线推理任务。

  很多人看到开源模型比闭源模型发展得更快,他们希望自己构建的系统架构能带来最大的长期优势。

明星八卦录入:admin    责任编辑:admin 
  • 上一个明星八卦:

  • 下一个明星八卦: 没有了
  • 发表评论】【加入收藏】【告诉好友】【打印此文】【关闭窗口
    最新热点 最新推荐 相关文章
    《全明星街球派对》中锋推荐…
    开箱Vol27丨只要不停产就会一…
    国产福特Bronco烈马或30万起…
    他带着五千年从仙侠世界归来…
    武侠大明星神功激活后怎么用…
    植物大战僵尸全明星最强橙色…
    马斯克的 xAI 想干啥?进来看…
    好影像不怕晚!华为P60展现超…
    男神恋爱系统:高冷女明星勾…
      网友评论:(只显示最新10条。评论内容只代表网友观点,与本站立场无关!)

    娱乐新闻网声明:登载内容出于传递信息之目的,绝不意味着赞同其观点或证实其描述,若侵权请来信告知,我们将及时处理!

    娱乐新闻 | 娱乐资讯 | 明星八卦 | 影视动态 | 音乐资讯 | 娱乐新闻资讯网