带着手机重生,目标科技教父:第497章 算力榨干
大家开始热烈地讨论起来。会议室里的气氛瞬间被点燃。
有人讨论分成比例,有人讨论内容审核机制,有人讨论怎么防范洗稿和抄袭。
夏冬看着这一切,心里十分满意。
这就是他想要的团队,一群聪明人在一起碰撞,不需要他事事亲力亲为。
“快看号的提议,全票通过。”
夏冬压了压手,示意大家安静,“晚晴,散会后你负责拉一个项目组,和一鸣对接具体的运营和推广方案。”
苏晚晴认真地点头记录在笔记本上。
“接下来,还有谁有议题?”夏冬靠在椅子上,目光扫过众人。
陈默举起了手。
“夏冬,接下来这个议题,本来我打算私下找你说的。”
“但既然今天是务虚会,我觉得有必要摆到桌面上,让大家都听听。”陈默推开面前的茶杯。
大家都安静下来,能让技术大拿陈默如此严肃的事情,绝对不是小事。
“我们的服务器,快扛不住了。”陈默说出了第一句话。
吴泽明愣了一下:“扛不住?上个月不是刚批了五千万的预算采购新服务器吗?”
陈默苦笑了一声,伸手扒拉了一下本来就乱的头发:“五千万?五千万现在连打水漂都听不到响。”
“核心问题不在数据库读写的高并发,而在算法计算。”
他站起身,走到刚才一鸣用过的白板前,擦掉上面的字,画了一个简单的架构图。
“大家只看到了快看网在国内的八千万日活。”陈默用记号笔重重地点在白板上,“但你们别忘了,盛夏科技的底层推荐算法API,还同时提供给大洋彼岸的两家公司。”
“一家是我们自己的马甲“字节跳跳”,另一家,是FaCebOOk。”陈默转过头看着大家。
会议室里的空气似乎凝滞了一下。
会议室里的大家,都知道这个商业机密。
“字节跳跳在北美的日活已经突破1.9亿。而FaCebOOk,他们把我们的算法接入了他们的核心动态消息流,他们现在的全球月活已经逼近1.4亿。”
“这意味着什么?意味着每天有海量的数据,源源不断地汇入我们的服务器。”
“每一条用户点赞、每一个停留时长、每一次页面刷新,都需要输入到我们的神经网络模型里进行运算,然后再把推荐结果实时返回去。”
陈默看着夏冬,眼神里透着一丝无奈:“夏冬,我们的算法确实牛逼,参数量大,精准度高。但越牛逼的算法,需要的算力就越恐怖。”
吴泽明作为后台专家,立刻明白了陈默的意思:“你是说,我们的CPU算力见顶了?”
“不是见顶,是被榨干了。”陈默叹了口气,“现在的算力根本跟不上数据膨胀的速度。”
一鸣停下了吃零食的动作,皱眉问道:“如果加机器呢?”
“加机器?”陈默摇了摇头,“字节跳跳、FaCebOOk的体量还在狂飙。”
“如果要靠堆传统CPU服务器来满足他们未来的算力需求,我们就算把整个中关村大厦18层到1层全租下来改成机房都不够用。”
“更别提每个月的天价电费和空调散热费了。”
吴泽明补充道:“而且机房的物理空间和电力负载是有极限的。光靠横向扩展,不是长久之计。”
会议室陷入了死一般的沉寂。
这是一个纯粹的物理定律和硬件架构带来的瓶颈。
软件算法再精妙,也无法违背硬件的物理极限。
所有人都看向夏冬。
在这个公司里,每当遇到技术方面无解的死局,夏冬总是能拿出打破常规的方案。
其实夏冬早就预料到了这一天,服务器算力见顶是迟早的事。
他老早就找豆包,恶补了人工智能的发展史。
深度学习和神经网络之所以在2010年之后才开始大爆发,并不是因为算法突然取得了什么逆天的理论突破。
纯粹是因为算力终于跟上了。
在豆包提供的未来时间线里,拯救人工智能算力危机的,是英伟达的GPU。也就是大家俗称的显卡。
GPU这玩意儿,天生就是用来做大规模并行计算的。
再后来,谷歌为了搞定自家的算法和推荐系统,干脆自己下场研发了TPU,一种专门为AI定制的专用芯片。
夏冬的手指在桌面上轻轻敲击着,发出有节奏的哒哒声。
“陈默,泽明,你们有没有想过,”夏冬终于开口了,目光扫过两位技术大拿,“为什么我们堆了那么多顶配的CPU,算力依然捉襟见肘?我们的算法,到底在让这些CPU干什么活?”
陈默皱着眉头想了想:“主要就是神经网络的层级计算,里面全是大规模的矩阵乘法。”
“对,问题就出在这里。”
夏冬停止敲击桌面,“CPU的架构设计初衷是什么?是处理复杂的控制逻辑,它里面有大量的分支预测、指令调度单元。”
“打个比方,CPU就像是一个精通微积分的大学老教授。你让他解多复杂的数学题他都会。”
为了让非纯技术的苏晚晴也能听懂,夏冬顿了顿,摊开双手继续说道:“但是,我们推荐算法需要的,是极其海量、极其枯燥的简单矩阵乘法。”
“这等于你雇了一万个大学老教授,每天让他们坐在办公室里算一加一等于几。”
陈默和吴泽明愣了一下。
“他们能算,”夏冬一针见血地指出,“但是效率极低,而且成本高得离谱。大炮打蚊子,从根源上就错了。”
两位顶尖的技术大拿对视了一眼,脑子里仿佛劈过一道闪电。
陈默喃喃自语:“所以……通用的CPU,从硬件物理架构上就不适合跑我们的算法?”
“没错。”夏冬顺势抛出一个引导性的问题,“既然一个精通微积分的老教授算得慢,那我们找一万个只会算乘法的小学生来并行计算呢?”
“我们需要的是高并发、低逻辑复杂度、海量的浮点运算单元……”
吴泽明推了推眼镜,眉头微皱,大脑在疯狂检索现有的硬件架构:“夏冬,你说的这种硬件特征,听起来怎么那么像电脑里的显卡?”
“确切地说,是GPU。”夏冬打了个响指,“泽明抓住了盲点。”
夏冬表情淡定,内心其实正在快速梳理之前用豆包查阅的资料。
早在2007年,英伟达就推出了CUDA架构,让GPU不仅仅能打游戏渲染图像,还能进行通用计算。
现在这个时间节点,多伦多大学的HintOn团队、斯坦福大学的吴恩达,其实已经开始尝试用GPU加速神经网络训练了。
效率足足比CPU高出了几十倍。
到了2011年,吴恩达更是用12块GPU,生生跑出了相当于2000个CPU的深度学习算力。
这就是降维打击。