靴子落地,创建两年的Lepton AI被英伟达收入囊中!
据The Information报导,英伟达斥资数亿美元,完成了对AI大牛贾扬清创企Lepton AI的收买。
现在,Lepton AI的联创贾扬清(下图左)和白豪杰(下图右),均已入职英伟达。
Lepton AI:
黄金级AI云服务商
Lepton AI成立于2023年,专心于人工智能根底设施(AI Infra),总部坐落加州帕洛阿托,约有20名职工。
2023年5月,该公司完成了1100万美元的天使轮融资。
其客户包含具有数十万活泼用户的AI游戏公司Latitude.io以及科研途径SciSpace等。
Lepton AI经过立异的「云原生+多云整合」技能,从云供给商租借英伟达GPU,再转租给客户。
这一形式能以低本钱在全球范围内灵敏调度GPU资源,满意客户的AI算力需求。
Lepton AI还为客户供给东西,便利他们练习和运转AI模型,或许根据Python编程言语构建云使用程序。
旗下的Lepton AI Cloud途径专门针对AI作业负载进行了优化,供给多种显卡,装备可视化界面,让用户能办理每个项目分配到的硬件资源。
Lepton AI能以每秒超越600个token的处理速度运算,一同将推迟控制在10毫秒以内。
需求添加时,途径会主动为推理环境添加更多硬件资源,还会用vLLM等东西进一步进步推理速度。
LeptonAI Python库,能够轻松地使用Python代码构建AI服务,现在在Github上有2.7K星。
其主要功用包含:
Python风格的笼统Photon,只需几行代码即可将研讨和建模代码转换为服务。
简略的笼统,答应几行代码就能发动类似HuggingFace上的模型。
为常见模型(如Llama、SDXL、Whisper等)供给了预构建的示例。
供给专为AI定制的功用,如主动批处理、后台任务等。
一个客户端,能够像调用本地Python函数相同主动调用服务。
Python风格的装备标准,便于在云环境中布置。
联创参加英伟达
Lepton AI开创人贾扬清结业于清华大学,之后在加州大学伯克利分校获得博士学位。
2013年,在伯克利读博时,贾扬清用英伟达捐献的一块K20 GPU,开宣布深度学习结构Caffe。
这个起先仅仅业余时间做的项目,成了全球第一个通用深度学习结构。
在导师鼓舞下,他将Caffe开源,很快就被微软、yahoo、英伟达、Adobe等公司选用。
2019年,贾扬清参加阿里巴巴,担任技能副总裁。
他推进建设了大数据和AI途径,还主导了开源模型社区「魔搭」,完成了从AI结构专家到云核算事务领导者的改变。
2023年,贾扬清从阿里离任,创办了Lepton AI。
和贾扬清一同参加英伟达的,还有Lepton AI的另一位联合开创人白豪杰。
白豪杰与贾扬清有着类似的作业阅历,他们都曾在Meta和阿里云任职。
在Meta担任AI研讨员期间,两人一起参加了PyTorch结构的开发作业。
后来,白豪杰在阿里云担任AI途径总监,带领全栈AI工程团队霸占了许多技能难题。
英伟达的「AI帝国」
英伟达,出资了一系列AI相关的公司,构建了巨大的AI帝国。
其间包含以色列GPU创企Run:ai、以色列AI创企Deci、西雅图AI创企 OctoAI,这些企业聚集于下降开发或运转由英伟达支撑的AI模型的本钱。
英伟达这次收买Lepton AI,有着很重要的战略考虑。
经过收买Lepton AI,英伟达能让客户按需租借GPU资源,灵敏扩展AI作业负载。
Lepton AI在AI算法、模型优化等方面的独到之处,有望进一步进步核算功率。
Lepton AI在一些细分商场里,积累了必定的客户根底和途径资源,经过收买,英伟达能够进入这些范畴。
英伟达的云服务和软件事务尚处于起步阶段,面临着谷歌云、微软、AWS等科技巨子的剧烈竞赛。
三个月前,英伟达发布软件、服务和支撑事务的年化收入是15亿美元,和之前估计的20亿美元有距离。
一方面,收买Lepton AI,英伟达能进一步拓宽自己在云核算商场的事务布局,稳固领先地位。
另一方面,贾扬清和白豪杰等人才的参加,给英伟达带来了强壮的技能研制力气。
他们的丰厚经历和专业知识,有望助力英伟达在AI模型开发东西、云服务优化等方面,获得更多立异效果。
据记者Marina Temkin(CFA持证人)核算,中心出资,出资至少1亿美元:(数据到2024年7月)
OpenAI:2023年10月参加6.6亿美元融资轮(估值1570亿美元),出资1亿美元
xAI:数月后回身出资马斯克旗下60亿美元融资的竞品公司
Inflection:2023年6月领投13亿美元,后因开创团队被微软挖角估值缩水
其他亿美元沙龙:
Wayve(主动驾驶):2024年5月参加10.5亿美元融资
Scale AI(数据标示):2024年5月联合出资10亿美元(估值140亿)
Mistral AI(法国大模型):2024年6月6.4亿美元B轮(估值60亿)
CoreWeave(云核算):2023年4月注资后估值从20亿飙升至190亿(最近成功IPO,估值230亿美元)
此外,英伟达的战略布局既包含GPU生态,也包含了全球不同的工业使用。
芯片生态:出资GPU云服务商Lambda(4.8亿D轮)、CoreWeave
前沿技能:包括光学互联(Ayar Labs)、医疗AI(Hippocratic AI)、智能机器人(Bright Machines)
全球掩盖:从日本Sakana AI到加拿大Cohere
而近期,一再传来AI数据中心过剩的音讯。
或许,被英伟达收买是Lepton AI的最佳挑选。
人工智能(AI)正逐渐成为一国数字化转型与工业晋级的关键环节,很多AI大模型为各行业迭代供给微弱动能。我国大模型DeepSeek的呈现,不仅在全球科技范畴激起千层浪,也对越南构成必定认知冲击。现在越南...
老黄再度带领 AI 芯片等新品“炸场”。
北京时刻3月19日清晨,“AI超级碗”GTC大会上,英伟达创始人兼CEO黄仁勋向全球推出最强AI芯片GB300,个人AI超级核算机DGX Spark,并预告新一代芯片Vera Rubin等新品。
其间,GB300依据全新Blackwell Ultra架构,和上一年发布的GB200比较,GB300 NVL72 机架级处理方案AI核算FLOPS功用前进了1.5倍(150%),新的注意力机制(New Attention instructions)前进2倍,具有20TB HBM高带宽存储前进1.5倍,估量将在本年下半年出货。
英伟达表明,依据GB300的英伟达GB300 NVL72 机架级处理方案的 AI 功用比 GB200 NVL72 高出 1.5 倍,与运用英伟达Hopper构建的工厂比较使Blackwell的AI工厂收入时机添加50倍。
一起,与Hopper一代比较,NVIDIA HGX B300 NVL16 在大型言语模型上的推理速度前进11倍,核算才能前进7倍,内存添加4倍,然后为 AI 推理等最杂乱的作业负载供给打破功用。第一批傍边,估量思科、戴尔、联想、超微电脑、华硕、富士康等供给依据Blackwell Ultra服务器,AWS、谷歌云、微软云、甲骨文云等云厂商将第一批供给Blackwell Ultra支撑实例。
Vera Rubin方面,与Grace Blackwell(GB)相似,Vera是CPU,Rubin是GPU,而Vera Rubin全体功用是GB300的3.3倍,CPU内存容量是Grace的4.2倍,内存带宽是Grace的2.4倍,估量将于2026年下半年量产出货;此外,黄仁勋还预览了下一代AI超级芯片Rubin Ultra,内存带宽是前代的8倍,功用是GB300的14倍;Rubin下一代GPU架构则是Feynman。
黄仁勋表明:“AI现已获得了巨大的腾跃——推理和Agentic AI需求更高数量的核算功用。咱们为这一刻规划了 Blackwell Ultra——它是一个单一的多功用渠道,能够轻松高效地进行预练习、后练习和推理 AI 才能。”
据黄仁勋泄漏,本年,微软、谷歌、亚马逊和Meta四家大型云服务商现已购入360万颗Blackwell芯片,估量2028年数据中心本钱开销规划打破1万亿美元。
(图片来历:视频截图)老黄再度带领 AI 芯片等新品“炸场”。北京时刻3月19日清晨,“AI超级碗”GTC大会上,英伟达创始人兼CEO黄仁勋向全球推出最强AI芯片GB300,个人AI超级核算机DGX...