
IT之家 10 月 22 日消息,今年第三季度,科大訊飛實現凈利潤 2579 萬元,同比下降 81.86%;前三季度凈利潤 9936 萬元,同比下降 76.36%。
科大訊飛副總裁江濤在 Q3 業績說明會上透露,訊飛已于 2023 年初與華為昇騰啟動專項攻關,與華為聯合研發高性能算子庫,合力打造我國通用人工智能新底座,讓國產大模型架構在自主創新的軟硬件基礎之上。
他指出,目前華為昇騰 910B 能力已經基本做到可對標英偉達 A100。在即將舉行的科大訊飛 1024 全球開發者節上,訊飛和華為在人工智能算力底座上將有進一步聯合發布。

他還提到,該公司一直致力于實現算法提升和工程技術方面的加速。自 2019 年被列入美國實體清單后,公司于 2022 年 10 月 7 日再次被美國對包括科大訊飛在內的 28 家中國人工智能、高性能芯片、超級計算機領域的頭部企業和機構加碼制裁。
IT之家查詢公開資料發現,海思昇騰 910 發布于 2019 年,同時還推出了與之配套的新一代 AI 開源計算框架 MindSpore,而 MindSpore 也已經于 2020 年完成開源。
目前,華為昇騰社區已公開 Atlas 300T 產品有三個型號,分別對應昇騰 910A、910B、910 Pro B,最大 300W 功耗,前兩者 AI 算力均為 256 TFLOPS,而 910 Pro B 可達 280 TFLOPS(FP16)。






作為對比,NVIDIA A100 發布于 2020 年,采用雙精度 Tensor Core,基于 Ampere 架構,功耗達到了 400W,FP32 浮點性能 19.5TFLOPS,FP16 Tensor Core 性能可達 312TFLOPS。
按照華為官方給出的規格,昇騰 910 Pro B 要比 A100 慢 18% 左右。

說到這里也順便提一下 A800 芯片。這顆芯片是為了解決去年的美國商務部的半導體出口規定特意推出的一款型號,算力等參數完全不變,只是傳輸速率為從每秒 600GB 降至 400GB,所以美國本周發布的半導體出口新規封堵了這一漏洞。
根據知乎上 AI 從業者的反饋,哪怕昇騰 910B 目前還有不少小問題、單卡性能落后于 A800、Arm 生態有所欠缺(應該是指 CANN 對比 CUDA),但隨著英偉達先進產品被禁,后續國內廠商只能被迫選擇昇騰,相信昇騰產品會更加完善,并且國產廠商還可以通過堆量、增加算力集群規模的方式完成替換,至少在大模型訓練領域整體差距不大。

值得一提的是,PyTorch 基金會本周三正式宣布華為作為 Premier 會員加入基金會,這也是中國首個、全球第十個 PyTorch 基金會最高級別會員。
除此之外,PyTorch 最新的 2.1 版本已同步支持昇騰 NPU,并在華為的推動下更新了更加完善的第三方設備接入機制。基于該特性,三方 AI 算力設備無需對原有框架代碼進行修改就能對接 PyTorch 框架,昇騰也提供了官方認證的 Torch NPU 參考實現,可以指導三方設備便捷接入。
基于新版本,用戶可以在昇騰 NPU 上直接享受原生 PyTorch 的開發體驗,獲得高效運行在昇騰算力設備上的模型和應用。