Sora负责人与谢赛宁「隔空对话」LLM先锋集结中国最硬核AI内行盛会!智源大模型全家桶亮相
发布者:套间 发布时间: 2024-06-16 05:54:51
才用了112台A800,就能训出性能达GPT-4 90%的万亿参数大模型?智源的全球首个低碳单体稠密万亿参数大模型Tele-FLM,有望解决全球算力紧缺难题!此外,全新思路的原生多模态「世界模型」Emu 3等都浅亮相了一把。2024的智源大会,依然是星光熠熠,学术巨佬含量超标。
今年的智源大会,依然是星光熠熠,干货满满,依然是北京乃至全国AI发展的学术名片。
这场国内最顶尖、最硬核的年度「AI春晚」,已经成功举办了5届,成为AI圈最不容错过的顶级盛会。
过去几年,共有11位图灵奖获得者,1000多位世界顶尖专家,跨越了30+国家和地区,前来参会。
2024年的智源大会,前沿学术浓度完全不输往届,大模型领域的先锋再次集结。
这次,不仅再次邀请到了图灵奖获得者姚期智,还有OpenAI、Meta、DeepMind、斯坦福、UC Berkeley等国际明星机构与技术团队代表。
以及,国内主流大模型公司,包括百度、零一万物、百川智能、智谱AI在内的CEO与CTO。
现在一致认为,人类大脑的参数在一百万亿到一千万亿之间,而如今大模型与人类大脑的参数的差距,已经从相差一百万倍变成了去年的一百倍。
图灵奖得主LeCun曾多次表示,如今的LLM根本没办法达到人类级别的AI,甚至连阿猫阿狗都不如。大模型仅具备语言能力且缺乏理解力,而一只家猫在通识和理解力上都要比LLM强太多。
具体而言,那些基于自回归预测下一个token的大模型,是AI发展路线图中的一个阶段,它们没有办法进行规划和推理。
不过,基于Transformer的自监督预训练模型,是实现这一最终目标的重要组成部分。
仅仅依靠Transformer预训练模型远远不足,还需要将其置于能够推理、规划,并学习底层「世界模型」体系之中,才能真正发挥作用。
的确,LLM的局限很明显——它依然是一种单模态的模型。然而除了文本数据之外,世界上还存在大量图像、视频、音频,数据量是文本的十倍、百倍乃至千倍。
对此,产业界也有针对多模态模型的研究,但这些研究的思路依然是针对不一样模态,理解和生成也是分开的。
如果它进入到微观世界,去理解和生成生命分子,这就是AI for science。
具体包括语言大模型、多模态大模型、具身大模型、生物计算大模型,和支撑这些大模型技术迭代的基座,即算力集群「操作系统」。
目前大语言模型训练中的一个核心关键痛点,就是算力消耗过高的问题。这也是目前所有公司共同面临的困境。
为此,智源研究院和中国电信人工智能研究院(TeleAI)基于模型生长和损失预测等关键技术,联合研发并推出全球首个低碳单体稠密万亿语言模型Tele-FLM-1T。
该模型与百亿级的52B版本,千亿级的102B版本共同构成Tele-FLM系列模型。
Tele-FLM系列模型实现了低碳生长,仅以业界普通训练方案9%的算力资源,基于112台A800服务器,用4个月完成3个模型总计2.3Ttokens的训练,成功训练出万亿稠密模型Tele-FLM-1T。
目前,TeleFLM系列模型已经全面开源了52B版本,核心技术(生长技术、最优超参预测)、训练细节(loss曲线、最优超参、数据配比和Grad Norm等)均开源。
智源希望,可以为社区训练万亿稠密模型提供一个优秀的初始参数,避免万亿模型训练收敛难等问题。
团队基于创新性的监督预训练,和多阶段的对比学习,以及构建多语言关联文本的数据集cmtp,研发出了BGE模型。
它一经发布,就保持国际领先位置。因为又好用又是轻量级模型,它在开源社区广受好评,下载量持续攀升,还得到了Hugging face、LangChain等全球主流大模型应用框架的集成。
去年12月发布的Emu 2,截至目前依然是开源社区最大、性能最领先的生成式多模态大模型。
今年2月发布的EVA-CLIP-18B模型,依然是开源社区最大、性能领先的180亿参数视觉表征的CLIP模型,被用于许多多模态大模型中视觉编码器的部分。
虽然多模态大模型目前的发展现状非常火热, 但在智源看来,此多模态非彼多模态。
在行业里,各种模态的转换已经有了GPT-4V、DALL-E、Sora、GPT-4o等优秀模型。
在技术路线上来看,到底是使用diffusion model还是auto regressive?到底是单一的跨模态还是统一的多模态?理解和生成应该分开还是结合?是要组装式的多模态,还是原生的多模态?
顾名思义,所谓「原生」,就是一开始就将多种模态融合,同时将生成和理解进行融合。
它统一了文字、图像、视频,使用自回归的技术路线,实现了图像、视频、文字的输入和输出,并且具备更多模态的可扩展性。
比如,模型会识别出左上角视频的主人公感到幸福和兴奋,而右上角的男人则显得很失望。
在左下角的图像中,如果提问最近的交通灯是什么颜色,它能够识别出红灯(即使图中红灯的信号非常微弱)。
虽然Emu3还在训练中,但智源已经开放了轻量级的图文多模态大模型Bunny。
它是一个基于灵活架构、能支持不同视觉编码器和不同语言基座的模型,模型本身以及训练代码,都全部开源。
多模态大模型的出现,让计算机进一步感知和理解这样一个世界,更能化身为一个强大的智能体。
上个月,微软Build大会上官宣的Copilot+ PC,展示了AI助手在PC上自主达成目标的能力。
团队研发的通用计算机控制的系统——Cradle,它可以操控一切软件,像人一样通过看屏幕,点击鼠标,完成计算机上的任务。
基于具身智能是LLM技术路线重要发展节点的重要判断,智源在过去一年,也非常坚定在这一方向上持续投入。
具体来说,他们在机器人末端操作、具身大小脑、导航、硬件这些领域,全方面开展研发。
对此,智源通过构建了一个大规模高质量的仿真系统,涵盖了千万量级场景,以及超过10亿的抓取数据,训出一个通用抓取模型。
过去一年,智源研发了2个专模专用,各司其职的分级大模型系统:SAGE和Open6DOR。
其中,SAGE是一个可以反思,随机应变的操作大模型,基于3D视觉小模型+图文大模型打造,能够让其从失败反思,进一步规划尝试。
Open6DOR是一个全球首个开放指令6 DOF的取放大模型,而谷歌发布的RT大模型仅能实现3个自由度。
因为机器人在抓取时,不仅需要仔细考虑物体的「位置」,还需要仔细考虑其「姿态」(比如横放,或树立等),才能变得实用。
当然了,机器人还应学会行走,因此,智源研发了一个面向技术终局形态的端到端具身导航大模型。
以往,机器人需要离线提前建好的地图,实现导航。但人类走路,完全是依靠视觉。
下面这个机器人就是在虚拟世界中完成训练后,直接被投入智源大厦办公楼的真实场景中,进行泛化导航。
以上是智源在具身大模型方面的研究成果,若想让其真正的完成落地,还需要机器人本体。
对此,智源与北京银河通用机器人公司开展合作,将具身大模型与其轮滑式机器人结合,推进在不同场景中落地。
这个机器人不仅仅可以基于用户指令去思考,还可以与用户交互,并能实现上述的泛化的抓取能力。
除了在无人药店、家庭场景外,智源的具身智能在医疗领域,也实现了重要的应用落地。
在与301医院3位资深心脏超声医生的扫描结果作对比,却发现,AI机器人在准确性、高效性上与人类医生基本持平。
更为重要的是,现在在全国,超声医生是非常缺乏的,患者看病排队经常排很久,智源AI机器人能够在提升医疗水平方面有着重要意义。
智源研究院联手各大高校、企业,以及业内更多的生态合作伙伴,一起去推动具身智能的发展。
生成式AI已经推动了AI领域发展,当进入微观世界,我们是不是可以用相似的技术,来解决生命分子的理解与生成的问题?
在药物研发领域,存在一个「双十定律」,从新药研发到上市,常常要耗费十年的时间,以及十亿美元的投入。
这便是AI能发挥作用的地方,除了化合物筛选和预测之外,对于大分子结构建模预测,这也是AI在医疗领域可能会取得的突破。
基于此,智源设计了一个OpenComplex 2全原子生物分子模型,是一个仅有「解码器」的模型。
具体研发规划是,通过构建统一的生物分子计算模型,打通像蛋白质、DNA、RNA小分子之间的壁垒,并能研究它们之间的关系。
OpenComplex 2在国际权威CAMEO榜单的评测中,连续26个月稳居第一。不论是精度,还是宏观结构方面,都优于同期模型,比如AlphaFold 2。
预测结果为,OpenComplex 2具备了通用预测能力,仅用少量GPU取得的精度竟达到超算的水平。
另外,智源还将这样的技术应用在实时孪生心脏计算建模中,实现了将心脏的生物秒和计算秒突破到了1:0.9,真正的完成了临床应用的可能。
它是一个面向异构芯片、支持多种框架的大模型全栈开源的技术底座,在一年时间里从1.0升级到了2.0。
FlagOpen中,有面向不同芯片的算子库,有面向异构AI计算的框架,有数据处理的工具,也有各种算法和EMU、BGE等模型。
同时,智源还构建了为大模型而生、支持异构芯片的算力集群「操作系统」FlogOS。
在过去20多个月内,它已经支持了超过50个团队训练大模型,能够支持8种AI芯片。
在FlagOpen中,一个核心部分就是面向大模型的开源Triton算子库。
其中大概有120多个主流通用的算子,目前实现了48%的全覆盖,能支持六大厂商的多种AI芯片。
而针对大模型专用的算子库,其中有6个FlagAttention算子,能够覆盖主流的attention。
同时依托智源在LLM方面的前沿研究,平台也能紧随算法前沿去打造创新的算子。
FlagScale是一个多元异构的并行训练框架,凭借这个框架,智源在业内首次实现了不同厂商跨节点RDMA直连以及多种并行策略的高效混合训练。
并且,智源实现了首个基于多元异构芯片、Scale-Up+Scale-Out两阶段高校训练的千亿语言模型,模型也已经在社区里开源。
首先,是首个千万级中英文高质量指令微调数据集InfinityInstruct。
要知道,SFT阶段在激发大模型能力最重要,而目前社区里依然非常缺乏高质量的SFT数据。
实验结果为,这个数据集能让非常多开源社区的基座模型达到或接近GPT-4的水平。
此外,智源还将开源全球最大的中英文多行业数据集IndustryCorpus。
它覆盖18类行业,总计3.4TB。结果显示,它能明显提升通用基座模型在领域里的效果。
上月发布的FlagEval大模型评测榜单,也为业内打造了一把丈量模型能力高峰的「尺子」。
正是基于智源研究院的开源承诺,以及在社区持续做出的创新突破,FlogOpen系列的开源模型框架工具,在过去一年的全球总下载量,已超越了4755万次,在国内的AI机构中属于绝对领先。
2023年智源大会上的「AI安全论坛」上就有多位AI大佬汇聚,Hinton、Altman、Tegmark、Russell针对安全与对齐问题各抒己见。
而今年3月由智源顾问委员会主任宏江博士发起,智源研究院主办的AI安全论坛上,不仅有Hinton,Bengio本人更是来到了现场,还有国内大佬姚期智、张亚勤、薛澜等人,共话AI安全。
这不,在2024北京智源大会上最先presentation的,便是一位重磅嘉宾——同时参与打造Sora和DALL·E的背后开发者。
大会邀请到了DALL·E作者之一Aditya Ramesh惊喜现身,他目前在OpenAI工作,是Sora模型团队的负责人。
更让人惊喜的是,在他演讲结束后,我们居然看到纽约大学谢赛宁教授上台,与Ramesh展开了一场深度对谈。
2021年1月,DALL-E 1发布,他们最初的想法只是看到了Transformer在文本建模上的优秀性能,于是尝试着扩展到视频领域。
结果发现,Transformer架构建模视频的表现也相当之好,于是接下来的几年也是DALL-E系列模型继续扩展的进程。参数量不断增大,模型的功能也在逐渐扩展。
尽管效果很好,Ramesh却在反思,DALL-E 1这样的模型是否能真正学习到世界的压缩表征,能否通向AI智能。
在这个过程中,OpenAI另外两项工作给了他很多启发,一个是Mark Chen等人发表的iGPT,一个是 Alec Radford等人的CLIP。
从ImageNet中提取的类别特征,到CLIP提取的更通用的的文本/图像信息,再到2023年DeepMind提出Cap骨干模型,从视觉世界中重建自然语言。
当任务定义慢慢的变简洁,视觉表征学习的能力逐渐强大,我们的计算资源也在增加,那么下一步需要用算力来做什么?
可以看到,语言的作用正不断被纳入视觉的范畴。Ramesh认为,接下来自然语言会慢慢的变成为类似「脚手架」的角色,帮助模型训练视觉能力。
到最后,类似Sora这种强大的视觉模型将不断吸取、压缩现实世界的信息,带来可行的「世界模拟器」。
成立于2018年,智源用了6年的时间,阐释了如何成为AI领域的兼具创新与活力的研发机构。
从模型发布开源,到构建部署模型全链技术栈,再到AI盛会,学术社区,无不体现着「智源模式」。
月之暗面创始人杨植麟表示,智源在2020年就开始开发悟道模型了,是在亚洲地区最早投入大模型的机构。这种想法非常难得,非常领先。
而如今,智源的视野更宽了。显然,智源大会已经变成了一个非常好的平台,让业内公司都得到了极大收益。
百川智能CEO王小川提到,无论是大模型的思潮还是很多技术,都是从智源发展起来的。
如今中国的大模型已蜂拥而出,而智源在这些市场化的企业面前,就凭借着自身具备的技术高度扮演了智库的角色。因此在生态领域,智源可以帮助中国AI企业更加快速健康地发展。
智谱AI的创始人张鹏则将智源称为「国内甚至国际AI领域的一面旗帜」。
在他看来,智源起了一个好名字,这也是发布Flag系列新产品的本意。在整个AI浪潮中,智源有很宏远的布局,智谱AI等企业也非常希望和智源长期在学术研究、落地应用、公共政策等方面合作。
面壁智能的CEO李大海则表示,如今大模型这样的领域时刻发生快速的变化,有一些事情,是商业公司没有动力、也没有资源做的。
因此,大家就非常期待着智源的撮合和带领下,搭建一个更好的平台,协作做好一些一定要做好的事。
相信在未来,坚持学术创新和AI前沿路线探索的智源研究院,将会给我们大家带来更多的惊喜。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
新加坡门将发文呼吁中国粉丝停止网络转账,请大家理性支持,门店二维码已遮挡处理
获奖者将分享400万奖金!17岁中专女生入围全球决赛,数学是她的planB
王小川张鹏李大海杨植麟回应大模型的一切:AGI、价格战、开源和Scaling Law
海关在旅客内衣内发现 350 张卡带 / 宫崎英高不反对《血源》移植 PC
与中坚力量共成长,2024建信信托艺术大奖评委会特别奖获奖艺术家凌海鹏