Lepton AI创始人兼CEO贾扬清
作者|郑松毅
编辑|杨锦
近日,由声网联合主办的RTE2024第十届实时互联网大会在北京开幕。
大会开始前,Lepton AI创始人兼CEO贾扬清早早就坐在了嘉宾席。蓝色衬衫、牛仔裤,熟悉的那般“码农”形象再现。
他还是习惯性地把微笑挂在嘴边,和聊了聊最近美国硅谷发生的变化,以及对AI发展现状和未来趋势的一些看法。
这是他今年第二次回国,在大会开始前一晚刚到北京,但整个人看不出来丝毫倦意。
AI如何落地应用?国内外都在忙着找答案
“这次回来能明显感受到大家对于AI应用积极探索的热闹氛围,硅谷也正如此。”贾扬清说。
“相较于AI热潮初期的硅谷,现在的硅谷‘冷静’了许多,关注点更偏向于应用。大多数企业会选择在现有模型基础上加速功能迭代和研发。几乎没人还在比谁的模型更大、参数更多。”
他补充道,“同等质量的模型,规模会变得越来越小,计算效率会越来越高,模型架构会变得更加开放和标准,这是我观察到的未来趋势。”
如果说前两年的AI是在“卷”技术,那今年无疑都转向了“卷”应用。
在贾扬清看来,今天是做应用最好的年代,AI呈现出来的智能能力让做应用变得更简单,同时能够带给用户更好的交互体验。
以前人们常认为,芯片短缺是阻碍AI发展最大的“绊脚石”。但在贾扬清看来,“芯片供应链问题已经有了非常好的解决方案,因GPU短缺造成的算力问题不再会是瓶颈。关键是看如何找到AI应用路径,与垂直领域深度结合,真正把AI用起来。”
“就像当年‘电’刚被发明出来时,很多人不知道它有什么用,直到冰箱、电视、手机的出现,才让电的价值得以体现。”
但想让AI真正用起来,成本是一个不得不考虑的问题。
有人提出,“如今AI技术难广泛落地应用,问题是出在了高额成本上。从客服行业来看,标杆是5元每小时,这是菲律宾和印度的人工价格。要是AI使用成本比人还贵,就没必要了。”
对此,贾扬清比之前更加乐观。他认为,“成本不是核心问题,Token的推理成本可能在接下去的一年还会再降低十倍,甚至更多。公司更应该关注的是用户体验。让AI使用成本降低到人工成本以下,可能就是一两年的时间。”
他表示,“核心的大语言模型其实都差不多,但企业如何管理数据、怎么打通权限、用户搜索时是想找到文档还是想要内容总结?这些长远深度的思考远比模型本身更重要。”
GPU价格是个“伪命题”
除了应用,当前AI竞技场的另一关注点在于AI基础设施。
搞云计算出身的贾扬清,认为现在迎来了“云”的第三次浪潮,而AI正是这场革命的催化剂。
他介绍,“云”的前两次浪潮分别是2000年代的“Web云”,以及2010年代的“数据云”,而这次兴起的是“AI云”。
与前两朵“云”不同的是,“AI云”是在”传统云“的基础上增加了AI算法,利用神经网络等技术,可以满足更大规模的数据处理和计算需求。
“今天所有的AI应用都对大模型有非常高的需求,无论是AI图像生成还是AI视频生成,都会调用软件框架,最后落到云基础架构和GPU上面。”贾扬清说。
谁都不想错过“风口”的机会,“AI云”也正是贾扬清在辞任阿里巴巴技术副总裁后,看准的创业方向。
贾扬清说,“挤大模型赛道不是最想干的事,更看重AI发展背后生出的机会点,即对高性能计算的需求,以及AI市场会越来越需要好的云服务,这是团队最擅长的。”
Lepton AI和很多硅谷创业公司一样,团队规模并不大,大多是程序员和产品经理。
公司名字的由来也很有意思,在物理学中,“Lepton”指的是轻子,是一种基本粒子。
这和贾扬清所期望的一样,用最简单的方式和低廉的成本帮助其他公司解决行业痛点问题。
“他们需要更快的GPU、更好的供应链、更高的性价比、更加专业的服务...这一切都是我们正在做的事。”
具体来说,Lepton AI提供的是大模型推理引擎,建立了云平台供用户找到性价比最高的GPU资源。
贾扬清认为,“GPU价格在一定程度上是个‘伪命题’,因为Buy is better than build(购买AI云服务会比自建算力设施更划算)。”
他提到,“很多有前瞻性的CEO已经放弃纠结一块GPU到底需要多少钱,而是选择了这样的方式,把更多的精力和资源放在应用开发上。”
对话最后,请贾扬清谈了谈如何才能在技术创新的道路上找到自己的方向。
他想了片刻说,“创新没有捷径一说,兴趣是最好的驱动力,因为谁也猜不到未知技术领域会带来怎样的惊喜,能做的就是追随兴趣坚持走下去。”