推理性能超H100十倍!21岁华裔小哥哈佛辍学开发AI加速芯片「Sohu」,2人公司估值3400万刀_每日快讯(日常热点指南)

推理性能超H100十倍!21岁华裔小哥哈佛辍学开发AI加速芯片「Sohu」,2人公司估值3400万刀


推理性能超H100十倍!21岁华裔小哥哈佛辍学开发AI加速芯片「Sohu」,2人公司估值3400万刀

  2023-12-21 01:45:28     简体|繁體
http://news.qghjm.com/1022020.html

原文来源:新智元

图片来源:由无界 AI生成

像Pika一样的神级创业故事又要再次上演了?

两位哈佛退学的年轻人,想要制造一款专用于大语言模型加速的AI加速器芯片,将于2024年第三季度交付,推理性能达H100的10倍。

在今年6月份,两位创始人Gavin Uberti和Chris Zhu创立了Etched.ai,获得了包括Ebay前CEO Devin Wenig在内一众风投机构的536万美元的种子轮投资。

公司估值更是高达3400万美元!

根据公司官网上放出的数据,这款芯片将在硬件层面上集成Transformer构架,将推理速度相比于英伟达H100提升了8-10倍!

他们将第一款LLM加速芯片命名为「Sohu」,号称可以在毫秒级别的时间里处理数千个单词。

芯片还支持通过树搜索更好地编码,能够并行比较数百个响应。

还支持多重推测解码(Multicast speculative decoding),可以实时生成新的内容。

根据官方公布的具体细节,这款芯片只有一个核心,但是配备了144GB的HBM3e显存:

- 完全开源的软件栈,可扩展至100T参数型号

- 支持波束搜索(Beam search)和MCTS解码

- 支持MoE和Transformer的各种变体


两个哈佛辍学本科生挑战芯片行业最顶尖业务


两人原本计划从哈佛休学一年,在一家芯片公司找到了一份负责ApacheTVM开源编译器和微内核的工作。

但在工作中,他们发现Arm的指令集中的一些低效设计使得他们的工作效率很差。

当他们思考如何系统性地解决这个问题时,发现可以利用这个思路来设计一款针对当下爆火的AI加速芯片。

在创始人之一的Uberti看来,通用设计无法获得他们正在研发的专有加速芯片所能带来的那种性能提升:

「必须在单一架构上下大力气,让芯片处理AI任务,目标太大了,必须要针对更具体的任务来设计芯片......我们认为英伟达最终会这么做。」

在他们两人看来,这个市场机会太大了,一定不能错过。

「如果你回顾四年前的GPT-2,与Meta最近的 Llama模型相比,只有两个区别——大小和激活函数。训练方式存在差异,但这对于推理来说并不重要。」

Transformer的基本组件是固定的,虽然存在细微差别,但他们并不担心短期之内就会出现新的构架代替Transformer。

所以他们决定做一个Transformer构架的专用集成电路(ASIC),在未来和英伟达等一系列芯片巨头在大模型推理市场中竞争。

他们认为,Etched.ai推出的第一款芯片,相比于H100,单位价格内将获得140倍的吞吐量性能!

二到底是什么样的背景,能让两个本科还没有毕业的学生,敢于挑战芯片业目前最炙手可热的赛道呢?

创始人兼公司CEO Gavin Uberti自从2020进入哈佛之后,就一直在校外兼职,在2022年底,成立了Etched.ai。

在进入大学之前,他参与了美国最著名的青少年科技创新大赛FIRST Tech Challenge,团队获得了Top 10奖项。团队开发的自动驾驶软件排在600个参赛团队第二名。

另一位创始人Chris Zhu,也是在哈佛就读时就在校外疯狂实习,甚至还没有从哈佛毕业,就已经成为兼职教员。


AMD MI300X决战NVIDIA H100


而英伟达和AMD这边,最近打得更是热火朝天,甚至连官方都直接下场写博客硬刚。

就在前段时间,AMD高调发布了自家最强的AI芯片MI300X。

PPT显示,由8块MI300X组成的服务器在大模型推理方面的表现,要比同样规模的H100速度最高提升1.6倍之多。

对于AMD来说,这种直接对标,实属罕见。

对此,英伟达很快就发表了一篇博客文章,驳斥AMD的评测不客观。

英伟达表示,如果H100 GPU使用了优化过的软件进行正确的基准测试,它的性能将大大超过MI300X。

作为回应,英伟达展示了采用TensorRT-LLM优化设置后,两款GPU在Llama 2 70B上的比较结果。

文章地址:https://developer.nvidia.com/blog/achieving-top-inference-performance-with-the-nvidia-h100-tensor-core-gpu-and-nvidia-tensorrt-llm/

可以看到,当批处理大小设置为1时,H100的性能达到了MI300X的2倍。

甚至,当采用与AMD相同的2.5秒延迟时,H100的性能可以达到MI300X的14倍之多。

英伟达表示,AMD采用的替代软件不支持Hopper的Transformer Engine,并且忽略了TensorRT-LLM中的关键优化功能。而这些都可以在GitHub上免费获取。


AMD毫不示弱


见状,AMD也发文表示,既然要用优化,那就大家都用。

而即便是在这种情况下,MI300X的性能依然比H100强了30%。

文章地址:https://community.amd.com/t5/instinct-accelerators/competitive-performance-claims-and-industry-leading-inference/ba-p/652304

具体来说:

1. 在同样采用vLLM FP16的设置时,相比于发布会上展示的1.4倍性能,AMD最新的优化已经让这一优势扩大到了2.1倍。

2. 与使用TensorRT-LLM优化的H100相比,使用vLLM的MI300X实现了1.3倍的延迟改善。

3. 相比于采用低精度FP8和TensorRT-LLM的H100,使用vLLM和高精度FP16的MI300X在绝对延迟方面,表现更好。

AMD指出,英伟达在H100上进行基准测试时使用的是自家专有的技术TensorRT-LLM,而非更广泛使用的vLLM。

此外,在延迟方面,英伟达只关注吞吐量的性能,却忽视了实际工作中的延迟问题。

最后,AMD表示,之所以选择使用FP16,是因为它非常流行,而且目前vLLM还不支持FP8。

GPU大战进入白热化

在人工智能加速器领域,一些公司拥有针对特定工作负载的专门架构。

数据中心的专用架构主要集中在DLRM(深度学习推荐模型),因为GPU很难加速这类任务。

Meta最近宣布已经构建了自己的DLRM推理芯片,并且已经得到广泛部署。

而对于Transformer构架的加速,英伟达是通过在H100 GPU中部署Transformer Engine的软件功能来实现的。

Transformer Engine使得LLM推理无需进一步量化即可进行,大大加速了GPU推理LLM的效果。

而Etched.ai要做的就是更近一步,在硬件层面完成这个设计,从而使得LLM的推理速度和能效都更上一层楼。

而投资人之所以愿意给两位本科辍学生投入如此之大的一笔钱,更重要的是迄今为止,所有人都认为现在LLM推理的成本过高,其中一定有创新的空间。

除了这样的明星初创公司以外,传统巨头对于大模型推理市场同样抱有很高的期待。

苏妈在各种场合不断表示,未来大模型推理市场的规模将远远大于模型训练市场。所以AMD也一直在强调自己的产品已经对这个市场做好了充分地准备。

从英伟达和AMD首次公开对比自家产品的性能这件事来看,GPU领域的竞争显然正在加剧。

目前,英伟达除了要面对AMD的挑战之外,还需要考虑英特尔和Cerebras取得的快速进展。

就在12月14日,首席执行官Pat Gelsinger展示了英特尔最新的AI芯片——采用5nm工艺制程,性能提升了1.5倍的Gaudi 3。

相比于上一代Gaudi 2,Gaudi 3的BFloat16性能提升了4倍,计算能力提升2倍,显存容量提升50%达到144GB,并且采用的是HBM3或HBM3e。

同样,英伟达也计划在明年初推出GH200超级芯片。

鉴于竞争如此激烈,AMD可能会被诸如微软、Meta和甲骨文这些已经宣布将其技术集成到数据中心的公司,视为备选方案。

Gelsinger预测,到2027年,GPU市场规模将达到惊人的4000亿美元,这无疑为激烈的竞争提供了广阔的舞台。

Cerebras Systems的CEO Andrew Feldman更是毫不遮掩自己的野心:「我们正在努力超越英伟达,到明年,我们将构建高达36 exaflops的AI算力。」

参考资料:

https://www.etched.ai/

https://analyticsindiamag.com/gpu-battle-nvidia-vs-amd/

https://www.eetimes.com/harvard-dropouts-raise-5-million-for-llm-accelerator/



编辑:web3528btc 来源:加密钱包代币

免责声明:以上文章内容信息均搜集自互联网或用户发布,并不代表本站观点或立场,本站不对其真实合法性负责。如有信息侵犯了您的权益,请联系本站将立即删除。
分享到:

  • 上一篇
    下一篇

  • 今日要闻|实事关注

    每日快讯(日常热点指南)
    手机查看(二维码扫一扫)

    每日快讯网为您提供最新的行业简讯、新闻报道,以及今日热点内容,重大事件等实时资讯,24小时不间断播报,让您获得最新行业信息。
    « 2025年 » « 12月 »
    1234567
    891011121314
    15161718192021
    22232425262728
    293031

    最新资讯

    不良人:李星云低调点太装,李嗣源:你直接点我名就行
  • 2026-01-15 17:01:08

     

    人贩子余华英的眼神有多恐怖?被抓前一天穿粉外套,戴金项链逛街
  • 2026-01-15 16:53:02

     

    湖南男子觉得儿子像妻子前男友,非拉着儿子做鉴定,结局让人唏嘘
  • 2026-01-15 16:44:56

     

    宇晶股份等成立机器人公司
  • 2026-01-15 16:36:49

     

    视频号有效粉黄V认证
  • 2026-01-15 16:28:43

     

    我是广州祥亿的运营推广胡坝成,[开户代运营] 跨境电商粉 股票粉 直播粉 视频号ai 百度(baidu)腾讯企业贷,我们是推广代运营服务商,欢迎点击对接合作与我联系。
  • 2026-01-15 16:20:37

     

    我是上海火车头的总经理张国强,[开户代运营]直播团队,有稳定收量项目的老板可以来聊,我们是乙方综合性服务商,欢迎点击对接合作与我联系。
  • 2026-01-15 16:12:31

     

    我是新唐科技的销售总监刘波,[开户代运营]百度(baidu)机械设备,房产,食品,检测认证,教育培训,招商加盟,名酒回收均有资质,可以套户,量大可放端口,政策35+/55+ 端口稳定!,我们是推广代运
  • 2026-01-15 16:04:25

     

    我是河北古戈尔的广告运营李鑫,[开户代运营] 男科-耳鼻口-通风-甲状腺-胃肠,我们是推广代运营服务商,欢迎点击对接合作与我联系。
  • 2026-01-15 15:56:19

     

    大家金禧一生年金保险测评,投保规则和保障内容详解
  • 2026-01-15 15:40:06

     

    快手、抖音、视频号、代发视频、0费用、多劳多得、日收益100到500
  • 2026-01-15 15:32:00

     

    提供全国三甲**的大健康流量,提供男性私域流量,提供男粉
  • 2026-01-15 15:23:54

     

    我是山东双月的渠道经理岳铮,[开户代运营]百度(baidu) 抖音 快手出AI剪辑 信息流粉 数字人直播粉需要的老板来​,我们是乙方综合性服务商,欢迎点击对接合作与我联系。
  • 2026-01-15 15:15:48

     

    我是湖北佰牛的渠道经理张明敏,[开户代运营]抖音|腾讯社群量 养生壶/ 暖菜板/ 驼绒被 / 护膝 / 驼绒马甲/ 艾灸毯/ 买菜车/ 激光治疗仪 / 小护士/ 血糖仪 一手源头,我们是推广代运营
  • 2026-01-15 15:07:42

     

    我是巨量广告的渠道总监谢兴华,[开户代运营]腾讯视频号养生粉,我们是乙方综合性服务商,欢迎点击对接合作与我联系。
  • 2026-01-15 14:59:36