科技 technology-2
您现在的位置:首页 > 科技 > 科技公司史上第一次:Meta开源GPT3参数大小的AI模型

新闻

隔音风向标 致静新未来!皇派门窗416品牌日战略发布会启幕在即 隔音风向标 致静新未来!皇派门窗416品牌日战略发...

在城市高速转速的生活模式下,人们似乎被裹挟进了一场永不停歇的交响乐中。一方面,城市的繁华与喧嚣带...

  • 央视网《超级工厂》解析皇派门窗:高端隔音门窗助...

    2024年3月19日,央视网《超级工厂》走进皇派门窗,由央视网主持人常婷亲自带队,深入探访其智造之道。此次探访从高科技研发、数智化生产、高标准质检到高端品牌建设,全方位呈现皇派门窗锻造“高端隔音门窗”的硬核...

财经

金融支持文化产业复苏主攻六方面 金融支持文化产业复苏主攻六方面

21日,北京市文化改革和发展领导小组办公室印发《关于加强金融支持文化产业健康发展的若干措施》,这是...

创新

发挥技术优势 主动参与抗疫 发挥技术优势 主动参与抗疫

传递信息助力抗疫,支持企业线上运营,开放直播与行业融合……快手科技第一时间投身疫情防控阻击战,向武...

  • 智能无人开采:能源供应的硬核力量

    “知道它厉害,没想到这么厉害!”4月9日,谈及智能化无人采矿,国家能源集团宁夏煤业枣泉煤矿党委书记、矿长翟文,对着记者连说几个“没想到”。 大年初三,枣泉煤矿收假复工的日子,不料新冠疫情将一部分回老家过...

科技公司史上第一次:Meta开源GPT3参数大小的AI模型

发布时间:2022/05/08 科技 浏览:220

在生成文本段落、模拟人类对话及解决数学问题表现惊人的大型语言模型,显然是这几年AI发展最热门的领域之一。但这样的大型语言模型不仅能够自行生成有害内容,还可以将这样的内容通过在其上构建的下游应用程序传播开来。

理论上,更多人的参与对问题的解决应该会有所帮助。然而,由于语言模型的训练需要大量的数据和计算能力,迄今为止,它们仍然只是大型科技公司的特有项目。而在更广泛的群体如学界,以及担心人工智能滥用的伦理学家和社会科学家中,只有旁观的选项。

“我相信建立信任的唯一方法是极度透明。”MetaAI的常务董事乔尔·皮诺(JoellePineau)说。当地时间5月3日,MetaAI开放了拥有1750亿参数的大语言模型OPT-175B(OpenPretrainedTransformer,OPT)。对于大型科技公司来说,这是一个前所未有的举动。即使是在大语言模型历史上,这也是第一次毫无保留,把预训练模型、训练代码以及使用代码全部公开。

“我们中的很多人都是大学的研究人员,”皮诺说,“我们知道大学和行业在建立这些模式的能力方面存在明显的差距。让研究人员共同讨论这一技术的好处是显而易见的。”她希望其他人能仔细研究他们的工作,对其进行拆解分析,或者在此基础上构建。她认为,当更多的人参与进来时,突破就会更快实现。

OPT语言模型中约有1750亿个参数(这些参数是神经网络在训练过程中可以被调整的参数),与OpenAI开创性的神经网络GPT-3规模基本相同,同时具有付费服务GPT-3的非凡能力和不可避免的缺陷。

皮诺不讳言,“这是经过精心设计的”,该团队在建立OPT时就考虑在语言任务的准确性和有害性方面与GPT-3相匹配。OPT是为了给研究人员提供一个类似的语言模型来进行研究。

OpenAI拒绝了对Meta的声明发表评论。

OpenAI的母公司谷歌正在探索在其搜索产品中使用大型语言模型,但也因为缺乏透明度而受到批评。谷歌在这方面受到诸多争议,其曾在人工智能伦理研究员TimnitGebru想要发表一篇有关谷歌在当时的语言系统可能会从网站上学习包含偏见和仇恨言论的论文后辞退他,最近又解雇一位对已发表研究提出异议的员工。

那么,Meta为什么要这样做呢?毕竟Meta也是一家很少提及脸书和Instagram背后算法工作原理的科技公司,还曾以让其内部研究团队隐瞒对其不利的问题而闻名。

《麻省理工科技评论》认为,Meta采取不同方法的一个重要原因是皮诺本人,她多年来一直在推动人工智能研发过程中的透明度。

在核心学术会议发表研究的方式上,皮诺要求研究人员必须将包括代码和有关如何进行实验的详细信息与结果一起提交。她自2017年加入Meta(当时的Facebook)以来,一直在其人工智能实验室倡导这种文化。

“Meta对开放科学的承诺是我在这里的原因,”皮诺说,“我不会因为其他条件来到这里工作。”

除了代码外,Meta也公布了开发日志。日志包含团队成员对于数据训练的每日更新:如何将其添加到模型中,以及何时、哪些有效、哪些无效。在100多页的笔记中,研究人员记录了从2021年10月到2022年1月不间断运行的三个月训练过程中的每个错误、崩溃和重启。

斯坦福大学基础模型研究中心主任PercyLiang将大模型的开放程度总结成4个层次:

第一层论文开放,证明一些设想的可行性,并提供构建思路;第二层API开放,允许研究人员探索和评估现有模型的能力(如推理能力)和限制(如偏见);第三层模型权重开放和训练数据开放,允许研究人员逐步改进现有模型,开发更深入的可解释性技术和更有效的微调方法,让研究人员更好地理解训练数据在模型行为中的作用;第四层计算能力开放,允许研究人员尝试新的体系结构、训练目标和过程、进行数据融合,并在不同的领域开发全新的模型。

“更高层次的开放能让研究者专注于更深的问题,也同时会带来更多风险。”PercyLiang明确指出这一点。

Meta此次以这样的程度开源其大型语言模型是一个非常大胆的举措,可能会产生当下想象不到的风险。这也是OpenAI对于不发布GPT-3的前身GPT-2给出的原因。

“我不能告诉你,这种模型不会产生其他可怕的风险。”皮诺驳斥了“仅仅是因为它太危险”,所以不应该发布模型的想法。她说道,“我理解这些模型的弱点,但这不是一种研究心态。”

据《麻省理工科技评论》,曾在被谷歌因“违反了其行为准则”辞退的人工智能伦理研究员玛格丽特·米切尔(MargaretMitchell)认为,OPT的发布是一个积极的举措。但她认为透明度是有限度的。她提问道,“语言模型是否经过了足够严格的测试?可预见的好处是否超过了其可预见的危害?在这个过程中如何避免错误信息的产生,或种族主义和厌恶女性的语言?“

华盛顿大学的计算语言学家艾米丽·M·本德(EmilyM.Bender)曾在谷歌中心与米切尔共同合作过相关研究,她也担心着如何处理潜在的危害。“降低任何机器学习技术风险的真正关键是要在特定用例中进行评估和探索,例如这个系统是用来做什么的?谁将使用它?系统输出将如何呈现给他们?”

对于皮诺来说,这些担忧应该通过更多的公开讨论来解决,而不是减少沟通。“世界各地的人们对于什么样的对话是合适的有不同的看法,而人工智能是对话的一部分,”皮诺并不是希望语言模型能说出令每个人都同意的话,“但我们该如何应对呢?那就是在讨论过程中多去听却他人的声音”。

姓 名:
邮箱
留 言: