第342章 开源即是王炸,全世界都开始使用江神的AI框架?
当晚九点。
燕北大学官方围脖、官方公眾號、官方b站帐號,同时发了一条动態。
【重磅!由我校江辰院士独立开发的下一代ai深度学习框架stellaris,已在github正式开源!】
【这是目前全球最先进的ai框架,完全免费,欢迎所有开发者下载使用!】
配图是github仓库截图。
以及一张江辰在燕北大学图书馆老位置写代码的侧脸照。
这张照片是唐若曦夏天拍的。
画面里他穿著白衬衫,袖子挽到手肘,手指搭在键盘上,屏幕上密密麻麻全是代码。
她本来只是觉得好看才拍的,没想到被学校拿去当宣传照了。
动態一发,评论区瞬间就炸了。
“臥槽?江神自己写了个ai框架?还开源?”
“stellaris?这名字好帅!”
“我刚去github看了一眼,还真开源了!文档全是中文加英文双语的!api写得清清楚楚!江神牛逼!”
“等等,你们看介绍了吗?比tensorflow先进两代?真的假的?”
“江神说比tensorflow先进两代,那就是真先进两代,他什么时候吹过牛?”
“也是......人家连哥德巴赫猜想都能证明,区区一个ai框架算什么。”
“话不能这么说,搞框架跟搞数学是两码事。tensorflow背后是股歌几千个工程师,江神一个人写的框架,真能打?”
“能不能打,下载下来试试不就知道了。”
“对!有没有兄弟已经跑了的?来说说使用体验!”
“我跑了!公司显卡刚好空著,就拿mnist数据集试了一下。”
“说真的,我到现在手还在抖……同样一个简单的卷积神经网络,用tensorflow训练要跑二十分钟,用stellaris只跑了两分钟。”
“两分钟!而且训练过程中的內存占用不到tensorflow的四分之一!”
“臥槽?真的假的?两分钟?你確定不是显卡问题?”
“同样的硬体,同样的数据集,同样的网络结构,控制变量法懂不懂?就是框架的优化牛逼!而且我刚才又跑了个transformer,训练速度比pytorch快了將近八倍!八倍啊兄弟们!”
“我作证!我也刚跑完bert的预训练,用tensorflow加四张显卡跑了整整两天一夜。”
“刚才用stellaris试了一下,同样的数据量,只跑了不到五个小时就收敛了!中间还没崩过一次!全程稳如老狗!这效率简直离谱!”
“五个小时?你是认真的吗?我之前训bert训了整整三天才勉强收敛,你五个小时就搞定了?”
“骗你干嘛!github上已经有其他开发者在跑gpt架构的测试了,初步数据更夸张……同样的参数量,內存占用不到pytorch的三分之一,训练速度是pytorch的十倍以上。”
“十倍!你知道这是什么概念吗?也就是说,以前要花半个月才能训完的大模型,现在一天就能跑完!”
“臥槽......真的假的?这框架也太猛了吧?”
“还有更猛的,你们看文档里那个lora加速模式……在模型微调阶段开启之后,推理延迟能进一步降低到原来的几十分之一,功耗降低到几十分之一。”
“这意味著什么?意味著以前在手机上根本跑不动的千亿参数大模型,现在在手机上直接就能用!离线版chatgpt,没网也能跑!(这世界已经有了)”
“离线版chatgpt?我的天!这也太离谱了吧!”
“关键是代码质量,我刚花了一个小时读了核心调度的那部分代码,说实话,读完想哭……真的太优雅了。”
“江神的代码风格,就像一个围棋大师在棋盘上落子,每一处都恰到好处,没有一行是多余的。”
“他写的不只是代码,是艺术品。”
“艺术品+1,我一个阿巴p8的同事看完之后沉默了整整半个小时,然后去阳台抽了半包烟。回来之后说了一句:我这五年写的都是屎。”
与此同时。
东大科技部的官方帐號也转发了燕北大学的那条围脖。