當嚴格的反新冠規定使丁立人無法參加國際比賽時,中國國際象棋協會也無能為力。但當他們的頭號人物需要在4月底之前至少下26局比賽,才能獲得因為謝爾蓋·卡爾亞金對烏克蘭戰爭的公開評論而被奪走的位置時,他們可以幫助他。揚·蒂曼回顧了丁立人在杭州三場背靠背資格賽的戰績。

在我對四年前在柏林舉行的候選人比賽的預測中,我寫道,丁立人還不是一個競爭者,但他下一次會成為競爭者。這是一個足夠合理的分析,但事情的結果是不同的,因為在2020年3月在葉卡捷琳堡舉行的候選人比賽的前半段,爆發了新冠病毒。結果,丁立人不得不在比賽前在俄羅斯接受兩周的隔離。在一項重要的比賽開始前休息可能是有益的,但只有在熟悉的環境中,丁立人對隔離的反應很糟糕。他在早期輸掉了兩局比賽,這基本上使他輸掉了整個比賽,當候選人比賽在202年恢復時,丁立人贏得比賽獲得參加世界冠軍賽資格的機會基本上是零。

鑽石舞台 發表在 痞客邦 留言(0) 人氣()

嘉賓:某國際頭部AI芯片廠商 系統架構工程師
一、VPU概述
VPU主要有兩層含義:第一,Video Processing Unit,主要是視頻編解碼;第二,Vision Processing Unit,視覺處理AI芯片。人工智能芯片是與計算機視覺的結合,解決傳統的計算機視覺算法或者是 機器識別等算法所不能解決的問題。
1.1Video Processing Unit
1.1.1為什麼需要視頻編解碼器
視頻編解碼器(Video Codec)是指一個能夠對數字視頻進行壓縮或者解壓縮的程序或者設備。通 常這種壓縮屬於有損數據壓縮。一個複雜的平衡關係存在干以下因素之間;視頻的質量、用來表示視頻 所需要的數據量(通常稱之為碼率)、編碼算法和解碼算法的複雜度、針對數據丟失和錯誤的魯棒性( Robustness)、編輯的方便性、隨機訪問、編碼算法設計的完美性、端到端的延時以及其它一些因素。
數據壓縮分為:無損壓縮、有損壓縮。無損壓縮不犧牲原始數據內容或者精準度;有損壓縮變相 地犧牲了數據的質量,單壓縮效果往往更好,壓縮後的數據和原始的數據相比,在存儲容量上會極大地 降低。目前很多芯片都具有集成性,Video Processing Unit的視頻編解碼器,像GPU、CPU等不同的 處理器,不只有運算單元。以左邊圖的GPU為例,其中的CUDA Cores是做加速計算的。英偉達 GPU裡邊的cores可以當作Vision Processing Unit,是用AI加速的單元;GPU硬件內還有NVENC 和 NVDEC 兩個硬件設備。NVENC 是 encoder 編碼器,對常見 H.264、 H.265 等進行壓縮,甚至可以 支持 lossless 的無損壓縮。NVDEC 是 decoder 解碼器,對常見的視頻進行解碼。右邊是另外廠商的芯 片,中間VPU這一塊主要是做視頻編解碼器和圖像的處理,其中有H.264, JPEG Decoder,分別把圖 像編碼成H.264或者JPEG或者對H.264進行解碼,還原出原始圖像。
原始相機攝像頭拍出來的圖像或者視頻數據量非常大。以超高清4K畫質視頻,3840x2160像素為 例,假設一秒產生了 60幀(60fps)。如果不對這60張圖片進行壓縮,一張照片上有8,000,000像素點 ,每個像素以 24bit 編碼, 1s 60 張圖片, 1 張圖片 20~30 兆字,一共 60 張圖片,就產生了 1.2GB 的數 據。如果不進行編碼,計算可得一部 90 分鐘的電影需要 5,400GB 來存儲。目前沒有這樣大容量的存儲 介質。通過視頻編碼完成對原始數據的壓縮,使得視頻大小縮小為原始數據量的幾十分之一, 甚至幾 百分之一。
1.1.2視頻編碼標準發展史
目前廣泛應用的是H.264、H.265這兩種標準。
H.261、H.262 是早期的行業規範;
H.262/MPEG-2標準推動了模擬電視到數字電視的變革;
H.264/AVC使得高清視頻和互聯網視頻得以廣泛推廣,真正讓視頻編碼技術得到大規模普及。目前 1080p、2k 等編碼技術,均參考着 H.264 的編碼標準。
H.265/HEVC是新型編碼技術,成功推動了 4K 超高清視頻的普及;
H.266/VVC有部分企業在準備研發,對 8K 超高清、屏幕、高動態和 360 度全景視頻等新的視頻 類型,尤其是巨型的家電、彩電等對畫質要求更高的場景,以及自適應帶寬和分辨率的流媒體和實時通 信等應用有了更好的支持。H.266催生了對8k超高清視頻的編碼解碼技術的一種要求。
1.1.3 H.265 VS H.264:HEVC 和 AVC 的 比 較
從字面意義上,H.265是H.264的下T代的視頻編解碼技術。H.265也稱HEVC,H.264也稱AVC, 嚴格意義上均屬於高清或超高清的視頻編解碼的協議。H.265 所占用的帶寬(橫軸是帶寬,一秒鐘需 要多少兆 bit 的數據流)在相同畫質甚至是更優畫質的前提下,壓縮之後的視頻文件在存儲容量上可 能更小。以 1080p 視頻的編碼為例, H.265 壓縮後視頻大小縮小為原來的一半,在 4k 清晰度下也大約 是一半。H.265 在典型的場景下的視頻編解碼效率是 H.264 的兩倍。也就是說如果使用 H.264 編碼的 視頻文件,或者把圖像編碼成視頻文件是2GB的存儲容量,通過H.265可以壓縮到1GB,而且視頻 質量並沒有得到極大的惡化,甚至能保留更好的視頻內容。到H.266,編碼效率會更高。
1.2 Vision Processing Unit (視覺處理 AI 芯片)
video decoder和encoder應用於視覺處理時是作為Vison Processing Unit的子系統存在的。目前的 視覺處理AI芯片本質上是一種處理器,類似於GPU,Graphics Processing Unit,本質是減輕中央處理 器 CPU 的負載。CPU 本質上能處理各類任務,包括 Vision Processing Unit、GPU 做的事情,但是中央 處理器只做特定應用或特定算法時執行效率比較低下。
為了獲得更高能效比、性價比的解決方案,行業推出了各類處理器。比如 Video Processing Unit 是 做視頻編解碼器的一種硬件協處理器;GPU針對於圖形實時渲染;Vision Processing Unit針對於AI視 覺的處理;Neural Language Processing 針對語音識別,自然語言處理。
1.2.1 Vision Processing Unit 概述
VPU (Vision Processing Unit)旨在加速機器學習,尤其是深度學習神經網絡模型的訓練或者是 推理。
視覺處理單元VPU可作為一種協處理器,類似於GPU,以減輕中央處理器CPU的負載,並將 其分配給更高效、特定於應用的集成電路。旨在加速機器學習和人工智能技術。
目標市場:雲端視覺分析。目前國內雲巨頭字節跳動、快手、BAT,在大量採購第三方的雲端的
AI 芯片來去加速視覺處理算法。平常用戶在使用抖音等應用時,字節跳動在雲端可以對用戶的視頻內容 設計神經網絡模型,做人臉識別等均依靠雲端的視覺處理 AI 芯片去支撐。邊緣端,應用場景更多, 因為 細分行業很多。自動駕駛汽車,在車上裝傳感器,目前高級別的自動駕駛汽車上均有十幾個高清攝像 頭,幫助車輛更好地理解周圍的車道線、行人、車輛等路標信息或障礙物信息。機器人,簡單如掃地機 器人,複雜如美團的物流送貨機器人,主要靠視覺相機與激光雷達等傳感器來讓機器人理解周圍的場景 。針對汽車或機器人等領域,行業需要開發視覺處理 AI 芯片以支撐基於深度學習算法的場景理解能 力。物聯網,針對物聯網 IOT 等場景比較簡單的情況,用低複雜度的視覺處理 AI 芯片去完成。比如 車間某個固定流水線對某個零部件的質檢原本需要人工進行,目前有企業在開發視覺處理 AI 芯片應用於 工廠流水線的產品質檢。智能手機。在邊緣端機器視覺也在加速智能手機,目前智能手機裡邊的芯片 繼承了視覺處理的 AI 引擎。很多公司叫 NPU, Neural Processing Unit 本質上也是加速人工智能算法 。目前的視覺處理AI芯片大部分會繼承video processing視頻編解碼器來完成從相機、傳遞到這些圖 像,然後通過視覺處理 AI 芯片內部的視頻編解碼器編碼成 H.264 或 H.265 文件來進行壓縮保存。當 用視頻進行做 AI 分析時,可能需要調用視頻解碼器把 H.264 和 H.265 視頻解碼成圖像以做 AI 分析。
1.2.2 不同類型的 VPU AI 芯片
不同類型的VPU AI芯片的用途不一樣,在設計時的要求也不一樣。
目前的VPU AI芯片格局包含了雲端、邊緣端、嵌入式。左側的表格由Cloud,雲端中間的Edge 和Mobile組成,在本質上是Cloud與邊緣端兩種應用場景。不同的廠商在開發雲端VPU AI芯片時, 主要是應用於訓練的AI訓練芯片和用於推理的AI推理芯片。雲端的VPU AI芯片的要求一般是高性能 ,單顆芯片的performance能夠提供的NSN要足夠高,尤其是訓練的芯片要支撐高精度的數據精度。t匕如 單精度浮點、半精度浮點的支持要比較好。因為訓練深度神經網絡模型的過程中,如果採用低精度的 8 位 定點數進行訓練,結果精度較低。推理芯片在高精度支持上的要求沒有那麼嚴格。雲端訓練和雲端推理 芯片具有可伸縮、可擴展性,是指在數據中心端,不只使用一顆訓練(training)芯片或一顆推理( inference)芯片。彳主往會通過幾百個甚至是幾幹個training芯片和inference芯片在雲端糹且成大規模的分 布式計算節點,構成 AI 的數據集群。在數據集群中同時調度幾百顆或者是上千顆的 AI 芯片做大規模的 人工智能的應用。而邊緣端一般需要一顆或者10顆以內的AI芯片配合,相比於雲端的業務數據量和場 景更為簡單。所以邊緣端的 AI 芯片的功耗和成本要求較低。
目前邊緣端的幾個細分場景:汽車領域的自動駕駛機器人,自動駕駛或智能座艙,包括機器人, 包括手機,也包括暗房智能攝像頭,均會用到這些邊緣的VPU的AI芯片。
1.2.3 不同 VPU AI 芯片
英特爾CPU本質上可以理解為VPU AI芯片,因為CPU中央處理器是萬能的,目前任何一種人 工智能算法在CPU上均可以運行,單同等功耗下提供的人工智能算力和能效比,CPU均為最差的。
目前很多廠商基於ASIC架構設計 VPU AI 芯片, ASIC 本質上是專用架構,通用性較差。從 CPU 到 ASIC 是通用性越來越低的表現,但對於 AI 的加速效果,能效比越來越高。目前業界沒有十全十美的 芯片,既有很好的可編程性、通用性、可擴展性,同時還具有很高的能效比。
CPU 對 AI 框架的支持和可編程性是非常好的,但是在能效比和同等功耗下的 AI 算力 ASIC 更 好,所以企業要根據細分場景去設計不同的架構實現VPU。BAT這些大型的互聯網公司在提供公有 雲服務時,面向的客戶具有不同需求,所以並不絕對。但一般來說,雲端高算力的訓練和推理芯片通用 性要求更高,所以雲端的 AI 芯片基本上是以 GPU 、FPGA 架構作為主導,但是也有企業在開發雲端基 於ASIC架構的芯片。在邊緣端細分行業,ASIC支撐邊緣端的AI芯片占比更高。VPU在邊緣端AI芯 片這一塊的視頻分析的工作流程。
1.2.4 VPU AI芯片,視頻分析的工作流程,以華為的Atlas 300的AI加速卡為例
輸入原始的圖像或者視頻,華為叫DVVP (數字視覺預處理)。Video Processing Unit視頻編解碼 器是 DVVP 的一部分,提供對視頻和圖像的解碼、縮放等預處理能力。解碼後通過 AIPP(AI 預處理) 做 圖像格式的轉換,將YUV個數轉為RGB的圖像格式。國內很多VPU AI芯片廠商在做NN推理(Neural Network Inference),華為叫AI CORE,做深度學習的推理應用,推理出來的是網絡模型輸出的結果。比如說目標識別的這些結果,再做後處理,最終結果輸出到中央處理器上,再做後面的分析 。雲端的AI芯片在做推理的過程中,也是類似的工作流程。
二、 主流的雲端 VPU AI 芯片玩家
2.1 GPU 架構代表——英偉達
英偉達最新一代 GPU 架構叫安培。在英偉達的 GPU 架構中,運算的重要的單元叫 SM(Stream Multi Process,多處理器)。GPU的硬件架構裡邊包含了 INT32、FP32,是對傳統的一維的矢量進行 加速的GPU的Core。為了針對於深度學習這些神經網絡模型獲得更好的加速,SM從安培的上兩代 提出了 TENSOR CORES 以獲得深度學習裡邊高維的矩陣張量的加速計算,與跟達芬奇架構中的 3D Cube 架構類似。支撐英偉達目前成為雲端 AI 的龍頭的最重要的原因是,英偉達打造了基於自家 GPU 硬件架構和以自家的 CUDA 為支撐的加速計算的軟硬件生態。
英偉達數據中心的平台,涵蓋了從雲端到桌面端到邊緣端的GPU,硬件架構都是由安培這些GPU 架構統一支撐的,維護了架構的統一性。在軟件上,英偉達在 GPU 上進行加速,變成軟件框架和軟件 包。在 CUDA 之上,目前主流的 AI 神經網絡框架,都是最優先支持英偉達的 GPU 的。在這些框架之 上,業界開發垂直細分行業的應用。

同時,英偉達在2020年收購了以色列全球主智能網卡的公司Mellanox。Mellanox目前被英偉 達整合成video networking事業部,相當於英偉達目前掌握了在數據中心端高算力的GPU及這些GPU 和 CPU 這些計算節點之間高速通信的智能網卡。同時英偉達也在擴展,做 ARM 架構的這些數據中 心的CPU,所以英偉達目前是three chips strategy,同時推CPU、GPU和智能網卡DPU,對數據中 心全站級別加速的整套的軟硬件解決方案。
2.2國外主流的ASIC架構典型代 一Google TPU
在ASIC實現的AI芯片中,主要的用作加速計算的是MAC陣列,乘累加器單元。第一代的TPU中 Google 放了 60,000 個累加器單元,理論上能支撐 64,500 的乘法和加法操作。相對於典型的 8 核 16 線程的 CPU 在一個時鐘周期內只能處理幾十路的乘累加操作,第一代的 TPU 有了上千倍的並行計算的 提升。但是芯片上有大量的面積被內存的 buffer 等文件占用。第二代的 TPU相當於在芯片內分成了兩 個大的Core,每個Core是128*128,所以第二代TPU乘累加器陣列的數量減少了一半。但是由於工 藝的提升、主頻的提升以及外部高顯存帶寬的提升,第二代 TPU AI 的性能匕 TPU 第一代更好。第三 代的TPU AI,思路與前兩代類似,也有兩個大的Core,但每個Core里又分了兩個MXU的MAC乘累 加陣列,然後每個MXU都是128*128。這樣的做法對於小的矩陣,通過設置較小的MAC陣列,來獲 得更精細的調度和更加高能效的矩陣的乘加計算。
2.3國內基於ASIC架構的典型代 一華為Ascend 910 AI芯片
華為Ascend 910 AI芯片的核心技術基於自家的達芬奇架構。芯片中有3D Cube矩陣的乘累加計 算傳統的標量scalar unit,在一個時鐘周期內標量單元只能做一路的乘法操作。二維的vector unit的 矢量單元,一個時間周期內可能處理 n 路的乘累加操作。3D Matrix,矩陣乘矩陣,有了 3D cube 或 者是英偉達的tensor core,在時鐘周期內能處理n3路並行計算。
華為的達芬奇架構的 3D Cube支撐 16*16 的 A 矩陣和 16*16 的 B 矩陣進行計算。A 矩陣和 B 矩 陣都有 256 個元素,這兩個矩陣進行卷積或者是乘法操作,需要的乘累加操作是 163=4096 次。如果用 3D Cube,在時鐘周期內能完成4096個乘累加操作。但如果用傳統的矢量運算單元,要麼使用16個 矢量單元,要麼需要 16 個時鐘周期才能完成。
寒武紀也在做類似的事情。寒武紀思元系列AI芯片MLU架構演進目前已經是第四代。
2.4 FPGA 陣營玩家典型代表——賽靈思
FPGA 陣營玩家,主要以賽靈思和英特爾為代表。賽靈思目前是全球最大的 FPGA 廠商,我們看 最新的產品Versal T弋是在原來的FPGA的通用加速計算的基礎之上,添加了 AI Engines,可以理解 為類似於ASIC的架構。在此架構下,原來的FPGA的這些邏輯陣列可以更好做AI類算法,對於神經 網絡模型的這些AI算法,需要使用AI Engines來獲得更好的加速效果。
2.5部分國產AI訓練芯片與世界級AI訓練芯片的對比
世界級的 AI 芯片以英偉達最新的安培為例;國產以華為、寒武紀這兩個國內比較頂級的雲端 AI 芯片的玩家為例。
在對數據精度的支持上,包括:雙精度浮點、FP64到INT到Binary這些數據精度上,英偉達GPU 有更好的通用性,可上達HPC高性能計算,往下對AI也有很好的支持。但國內的廠商主要的精力是 圍繞人工智能這一塊去獲取市場,在數據精度的支持的種類上較少。以人工智能需要的典型單精度浮 點或半精度浮點或者8位走點來看,英偉達的安培A100在INT8模式下,能提供624 TOPS的AI算 力,開係數計算模式則能提高到1,248 TOPS。華為和寒武紀在INT8模式下的ASIC是512 TOPS, 這已經是世界級的實力。所以 AI 神經網絡模型賽道中國內廠商的水平是很好的。對存儲、主頻、功 率等規格,同樣在 300~350 瓦的單芯片功耗下,提供 500~600 TOPS 的 INT8 的 AI 算力。這是包括服 務器之間,各個節點高速互聯通信,大家都提供數百 GB 的傳輸速度。
2.6部分國產AI推理卡與世界級AI推理卡的對比。
將英偉達最新的A30和A10推理卡、華為的ATLAS 300推理卡(4顆Ascend 310芯片組成的算 力)、寒武紀MLU370-X4推理卡、燧原科技雲燧i20進行對比。英偉達在數據格式上的支撐是最好 的,芯片既可以在AI領域用,也可以在傳統的超算HPC市場上應用。INT8部分,安培A30 A的算力上是相當的。
目前大家均支持多路的視頻編碼。目前VPU AI卡中,AI芯片均是作為VPU AI芯片的一部分實現 視頻的編解碼。總而言之,國內的這些廠商如果在 AI 賽道,對於低精度數值、半精度浮點、 8 位定點值 ,在相似或相同功耗下提供的算力,已經接近世界級的水準了。只是在高精度數值數據格式下, 比如 說雙精度浮點或單精度浮點,以及非 AI 類的這些算法上沒有很好的通用性。
2.7 雲端 VPU AI 芯片深度學習性能對比
在製程上,早期的 Google TPU v1 使用 28 納米工藝,目前 v3 是 12 納米工藝。國內廠商新一代 的產品在製程上大部分是比較激進的,不輸國外巨頭。華為的 Ascend 910 芯片、寒武紀的思元 290 均 已開始使用TSMC納米工藝,天數智芯等企業也在繼續開發。
芯片面積越大,芯片設計的難度越高,因為晶體管越來越多,對芯片的布局部件提出了更高的要 求。以華為、英偉達的和英特爾的數據為例。英偉達最新一代安培雲端的 AI 芯片是 826mm2的芯片面 積,Nvidia Volta 和 Nvidia Turing 的面積也都是在 700〜800mm2。對比來講,Huawei Ascend 910 是 456 mm2, Habana Gaudi 是 500 mm2。華為的芯片面積小,晶體管少,但是提供的 INT8 的算力較好,主要 是因為華為的 AI 的引擎基本上是基於 ASIC 的架構,可以有更好的能效比。GPU 太通用了,如果要 實現同等算力,芯片 GPU 的設計的要更為複雜。
芯片功耗。Google的TPU、英韋迖華為,燧原君支天數智芯、寒武紀的芯片功耗都是在300~400瓦 之間,可以說300~400 瓦的功耗是目前各企業在設計雲端訓練芯片的基準。當百度崑崙是 100〜120 瓦 的功耗,意味着芯片INT8峰值算力只有256 TOPS,是華為512 TOPS算力的1/2。
On-chip RAM。芯片內如果放入大容量緩存可以減少芯片與芯片外的DDR Memory的通信頻率, 從而降低 AI 雲算法處理過程中的功耗和提高 AI 的性能。所以目前很多雲端的 AI 芯片裡有幾十兆, graph core的IPU上甚至有300兆字節的RAM。芯片的On-chip RAM容量越大,意味着對於大型或 中型的神經網絡模型,可以把這些神經網絡模型一次存儲在芯片上,減少了芯片與外部的 DDR memory 的通信頻率。但是 On-chip RAM 價格高,RAM 的容量越高芯片成本越高。
FP30、 FP16 和 INT8 暫時無法探究,有些芯片不支持 FP30 和 FP32 等功能。
國內這些廠商在INT8 上,Huawei Ascend 910 TOPS、寒武紀思元290是國內兩個突破500 TOPS INT8 的 AI 算力的雲端訓練芯片。除此之外,燧原、天數智芯、百度崑崙均是在 200〜300 TOPS 的能 力。這些國內廠商在對 AI 賽道上的性能已經達到准世界級的水準。雲端大算力的 AI 芯片需要有高帶 寬的閃存與外部的 memory 跟芯片進行通信,如果帶寬不夠,即使你的芯片上的峰值的 ASIC 再高, 但是數據讀入芯片內的速度帶寬太低,性能也無法達到峰值。所以雲端的這些AI芯片基本上是清一 色的用HDMR高容量大代換的存儲介質,達數百GB甚至是1,000 GB/s的高速傳輸。對於IO的帶寬 的支持,一個是芯片跟CPU之間通信,各企業均會用第四代的IO的標準;對於多顆VPU AI芯片之 間,通信組成數據集群之間的這些計算節點的通信時,大家會就使用數百GB每秒的傳輸帶寬。
三、 桌面、移動端 VPU AI 玩家
3.1自動駕駛SoC (英偉達、高通、特斯拉等)
自動駕駛是目前移動端 VPU AI 對算力需求最高的,因為自動駕駛車上可能有 10 多路高清相機 和其他的傳感器支撐。雲端的VPU AI芯片往往是協處理器芯片,跟英特爾和AMD的CPU做成不同 的分離式的芯片,中間通過 PCIE 進行 CPU 和雲端的 AI 芯片之間的通信。但是在移動端,各企業會 設計成 SoC system 系統級芯片。
典型的自動駕駛芯片的玩家,包括英偉達、高通、特斯拉、華為、國內地平線或黑芝麻科技。以英 偉達特斯拉為例。在一個 SoC 里, CPU 中央處理器並沒有做成 3D 式芯片,而是跟其他 AI 引擎和視 頻編解碼器等裝置一起。英偉達在芯片的右下角放了 8顆ARM的CPU,左下角是英偉達的GPU硬 件引擎,上面還有英偉達設計的ASIC架構實現的deep learning excess (深度學習加速器),包含了 視頻編解碼器。在英偉達的Xavier 里, multi media (多媒體)Engine,提供了 encode、decode視頻鏈 接碼能力。高通在特斯拉的自動駕駛芯片SoC裡邊,安置了多核的ARM Quad A72的CPU,也有購 買的GPU IP、特斯拉自硏的ASIC架構實現的兩顆NPU CORE。每個NPU提供96*96個MAC乘 累加陣列單元。同時,特斯拉FSD SoC左上角有ISP,做圖像預處理,自動曝光自動白平衡;同時它 也有視頻,video encoder,做數據採集的,因為特斯拉要訓練神經網絡模型時,需要儲存車上相機采 集到的數據,然後上傳到特斯拉的數據中心去訓練自動駕駛神經網絡模型。video encode 跟英偉達 Xavier 1.2GPix每秒的encode的功能是一樣的,做視頻的編碼壓縮編碼,便於更小容量以存儲。
3.2手機SoC (蘋果、高通、聯發科等)
在移動端 VPU AI 芯片第二大市場是手機芯片。手機芯片的出貨量比自動駕駛多,但在對算力的 需求上目前還沒有增加。英偉達最新一代自動駕駛單芯片可以提供 254 TOPS 的算力,而旗艦手機芯 片能提供 20~30 TOPS 的算力就已經是頂尖水平。一顆頂級的自動駕駛芯片在 AI 的算力上可能是若干 顆甚至是 10 顆新一代旗艦手機的 AI 算力。
移動端手機芯片的玩家包括蘋果、高通、聯發科、華為、麒麟展瑞、三星等。在蘋果A14或者是 A15的芯片裡也有Neural Engine,做神經網絡模型加速的,同時該芯片又有針對於傳統的machine learning (機器學習)加速器。同時Pro Video Encode和Pro Video Decode分別是做視頻編碼和解碼的, 這也是目前的 Vision Processing Unit 視覺 AI 芯片大部分都集成了視頻編解碼能力的原因。高通的 Snapdragon888 SoC芯片裡邊,也集成了包含多核ARM、CPU和ISP、TPU。然後AI加速引擎高通 的AI加速引擎,這樣的780 Processor,高通是用DSP硬件架構來實現的,深度學習加速。
3.3智能座艙SoC(英偉達、高通'特斯拉等
目前隨着汽車、車載娛樂艙內體驗要求越來越高,包括高通以及國內的廠商也在開發智能座艙域的 SoC。高通要在2023年集度汽車推出時量產第四代的芯片;高通 8295P SoC最高可以提供30 TOPS AI算 力,與目前旗艦手機的 AI 算力相當。國內吉利汽車跟 Arm 中國合作開發的龍鷹一號智能座艙, NPU 的算力可以達到 8 TOPS。
3.4安防智能攝像頭SoC (小海思、安霸等)
華為小海思是安防領域VPU的霸主,代表產品包括Hi3559 SoC。目前安防領域華為至少占有2/3 的市場,但移動端的VPU芯片不再是雲端CPU AI加速器,分離式包裝封裝,而是做成SoC,在芯片 內有多種多樣的AI加速引擎,分別運行。
3.5 主流智能駕駛/智能座艙 VPU 芯片性能對比——適用於任何細分行業的的移動端 VPU 芯片 (手機、機器人、安防等)
SoC 系統及芯片受到關注的不止是 AI 算力,還有中央處理器 CPU 的性能,因為 CPU 要承擔操 作系統的運行,各種硬件設備的管理系統調度等任務。CPU的能力很大程度上制約了VPU AI SoC CPU 最終的性能。高級別自動駕駛芯片的 AI 算力較高, CPU 的性能較高,而智能座艙或輔助駕駛的 CPU 的性能稍低。在深度學習 AI 能力上,高級別的自動駕駛芯片對深度學習的算力要求也很高。英偉達2025 年要發布的下一代的阿特蘭的自動駕駛的 SoC 單芯片可以做到 1000 TOPS 的算例,超出目前英 偉達最先進的雲端的AI芯片的算力。邊緣端尤其是汽車領域,對高算力的VPU AI芯片的需求強勁。
在車載VPU AI芯片領域,對通用計算非AI類算法獲得並行加速不能依靠VPU單元。英偉達不 是深度學習,但這一類算法也要從 CPU 上卸下以充分加速。目前旗艦手機的通用並行加速超過了 1T flops FP32 模式下的算力大關,目前自動駕駛或智能座艙的這些 VPU AI SoC 芯片甚至能做到 2T、3T、 5T flops 的通用並行計算。

鑽石舞台 發表在 痞客邦 留言(0) 人氣()

Q:調整範圍?
2022 年6 月30 日前新通用名上市藥品、適應症發生重大變化的藥品,以及新 型冠狀病毒肺炎診療方案、基藥目錄;
鼓勵納入《首批、第二批、第三批鼓勵研發申報兒童藥品清單》、《第一批、 第二批鼓勵仿製藥品目錄》、《第一批罕見病目錄》的藥品。
Q:工作程序?
準備、申報、專家評審、談判、公布結果 5 個階段。準備階段為2022 年5-6 月,申報階段為2022 年7-8 月,專家評審階段為2022 年8 月,談判階段為 2022 年9-10 月,公布結果階段為2022 年11 月。
Q:專家構成?
1)評審專家、測算專家、談判專家,評審專家分為綜合組專家和專業組專 家;2)綜合組專家由藥學、臨床、藥物經濟學、醫保管理、工傷專家組成;
3)專業組專家由相關學術團體和行業學(協)會推薦;4)測算專家由醫保管 理、藥物經濟學等方面的專家組成;5)談判專家由醫保部門代表以及相關專家 組成。
Q:新增納入鼓勵兒童藥物、仿製藥、罕見病用藥?
兒童用藥未來是面臨醫保、基藥納入的雙重利好,是未來目錄調整的方向。國 內罕見藥上市獲批大概有60餘種,其中40餘種已經納入國家藥品目錄,涉及到 的病種包括肺動脈高壓、帕金森症、血友病等。隨後罕見病用藥會越來越多納入 醫保範圍,所以有這方面相關的企業可以多關注。
Q:納入常規目錄管理的藥,一方面是非獨家上市的,另外一方面是在協議期內沒有對醫保帶來更多增量支出的藥品,可以這樣理解嗎?可以,兩個協議期沒有調整支付標準,沒有給醫保基金的支出帶來壓力,過4年市場的驗證,價格的標準和支付範圍符合預期,會納入常規目錄管理。
Q:PD-1續約或重談,它面臨的情景是什麼?對應的降幅是怎麼樣的?如何利 用新的規則形成預期?
一方面考慮預算增幅合理度問題,預估值不能超過2倍,如果A值不大於 110%,相對來說可能談判更占優勢。此外,新增適應症的預算增量也要考慮。
Q:關於比值A,另外一個指標是醫保基金實際支出,現在醫保能拿到對某一個 品種支出多少錢的數據?
開展醫保目錄談判,針對某項藥品會統計,即通過醫保系統報銷某一個品種的 藥物時,醫保局能夠把支付相關的數據提取出來,實際支出數據全國聯網,可以 從系統直接抓取。如果沒有進入醫保目錄,需要衛健部門統計。
Q:每個協議周期都會形成新的醫保支付標準、預估值,如此循環往復?
是的,藥品價格、市場格局、患者數量在發生變化,受到供應鏈、市場環境等 影響,每個周期對應銷售預期在變化,預估值也會變化;
預估值是每個續約/談判周期的啟始階段,根據確定的支付標準,測算預計帶來 的基金支出。每一次調整支付標準,預估值也會更新,第四年的預估值根據新的 周期測算。
Q:如何預測一款產品的降幅?
某PD-1在2022年談判的降幅,假設某PD-1今年續約,醫保局抓出對PD-1支 付的數據且A值沒有超過200%,不新增適應症,醫保局支付10億,預估值是8 億,A值為1.25,對應5個點的降幅,形成支付標準1;如果調整支付範圍,B< 100%,且醫保支出不超2億,降幅可以控制在15%,基於支付標準1,形成支付 標準2。
Q:如何理解市場環境發生重大變化?
醫保系統預留彈性空間,重大變化指在治療領域中價格和治療費用明顯偏高, 雖然藥品已經進入協議期,支付標準確定了,但是類似治療功能的藥品有大幅度 降價,藥品市場價格高於價值,這個時候醫保不能再按照之前協議的價格續約。
目前簡易續約為新規則,如何衡量還沒有統一口徑,同疾病領域治療藥物,或 者治療功能相同或者相似,支付標準/價差不宜過大(50%),可能算是市場發 生重大變化。
Q:PD-1/-L1之間算是同一個市場嗎?
對於同類、同治療領域的藥品,如果說價格差異比較高的話,要進行測算和評 審。PD1不能完全算是同一個疾病領域的藥物,需要專家進一步評估。
Q:假假如說有一些原研不想進,維持高價繼續推廣,國產可以主動去申請進入醫保目錄,並且把整個支付標準帶的更低一些去搶占市場?
可以,是國家戰略層面鼓勵的方向,國產原研藥價格一般都低於進口的藥品, 支持國產原研藥、中藥的發展。
Q:有關簡易續約產品降幅,某產品比值A小於110%,但預算支出大於2億,會 降價嗎?文件中寫到當比值A小於110%,無論實際支出是多少,支付標準均不 做調整。
2億之內都按上面4個比例去調整降幅,超過2億的在上面比例基礎上再增加。
Q:重新談判的降幅會比簡易續約的降幅更大?
不好輕易下判斷,年度談判也考慮到各方面的因素,比如成本問題、市場需求 問題、供應鏈問題,這些因素都會影響藥品的價格和降幅,具體問題具體分析
Q:進醫保目錄藥品,即便是藥品成本上升,提價就比較難了吧?進醫保目錄範圍之內,在協議期之內必須按照醫保支付標準去支付,不存在漲 價的問題。
Q:在相同領域有不同機制的藥物,這些藥物趨向於相似的支付標準水平嗎?如果是同一領域治療功能相似或者相同的,市場價格差別較大,醫保基金從節 約的角度考慮,一定會選擇價格低的藥品。市場價格差異大讓市場調節,醫保支
付標準趨向統一。
Q:在同一個疾病領域,如果說藥品在功能或者療效上有提升,能去定相對更高 的醫保支付標準嗎?
可以,要經過評審,功能發生變化,對應的價格和價值如何,要經過衛生經濟 學的專家從技術上進行評審、審核。
Q:關於非獨家品種定價規則,如果5家企業只有1家企業報了不高於支付價格, 是不是這5家企業的品種,全部都得按照比較低的價格去支付?
是的。
Q:關於流程的問題,今年方案在評審環節把時間壓縮在8月份,和之前的方案 比,去年走了三輪評審,綜合論證、專業組論證、綜合組論證,今年的方案沒有 寫的很明確,是不是意味着不走三輪了?
還是走三輪,按照綜合組、專業組、再綜合組論證,只是效率提高,時間上有 所壓縮。

PS:如若內容對您有所幫助,請記得點讚、在看、轉發,您的鼓勵是對我的肯定,也是我最大的動力源泉!

鑽石舞台 發表在 痞客邦 留言(0) 人氣()

四季度出貨1.2億,整體結構維持之前30%干法和70%濕法 五月份塗覆比例上升的話,出貨稍微降一點,但是塗覆的價格更高,所以盈利能 力還是在上升的,預計六月份還是會延續上升趨勢 二季度出貨大概在3.5億左右,—季度出貨3.4億,出貨量微增。公司端:在調結構,塗覆比例在提升。
市場端:下遊客戶希望隔膜的企業直接塗覆好了出貨,所以接下來塗覆比例會提升。
二季度新情況:歐洲公司已經投產並且小批量出貨,實現了本地化供貨。
三季度會有新增產能投放市場,預計六月底有干法產線投產,三季度開始會有新 增干法產能,預計給今年新增3到4億平干法出貨;四季度開始會有濕法,新增 大概不到2億平出貨。
通過三四季度新產線的投產,預計今年年底產能接近30億平。
Q&A
Q:有沒有拆過干法和濕法的單平淨利大概在什麼水平?因為考慮到三季度開始新增干法的產能會有一點多,會不會使得三四季度的單平盈利低於一二季度?
A:單平淨利乾濕法沒有拆過,但是濕法單平盈利水平肯定是超過干法的。三季度干法雖然在投產,但是塗覆比例和海外的岀貨比例在持續提升,所以這兩個因素都會對公司經營成果產生一定影響。建議不用太在意三季度單一的一個數 據,三季度營收和岀貨比例還是會大幅增長,公司整體盈利也是會增長的。另外 在四季度還會有濕法的產能在投產,所以增長動力會更強勁。
Q:關於海外出貨跟塗覆的比例問題。海外50%出貨二季度是否還能做到?
A:海外出貨一季度接近50%,二季度差不多。三季度新增干法出貨主要是在國內 量大一些,但是在海外也有(三星LG AEAC)但是到四季度來講,海外出貨會再 起來。
塗覆比例目前是40%多,年底應該會達到50以上
Q:感覺下游需求沒有受影響」今年的出貨是否有保障?
A:你們認為最困難的二季度我們都沒有收到什麼影響,國內還是一個供需比較緊 張的狀態。
Q:對於價格這一塊,因為去年和今年年初整個行業提過兩次價格,想問今年下 半年還有提價的預期嗎,或者漲價的計劃是什麼樣的?
A:趨於穩定。春節以後隔膜很少漲價。
Q:外部玩家恆力石化公告了隔膜的拓產計劃,相較於業內玩家而言,外部玩家 進入行業會額外受到哪些阻力?他們的產能投放預計的大概時間會是什麼樣子?
A:首先,隔膜行業不是簡單製造業,存在技術壁壘、工藝壁壘、專利問題、客戶 認可、行業認證(兩年的時間,認證時間較長)以及設備供應等問題,壁壘明顯。其次,夕卜部玩家克服困難需要時間,而且並不見得做得很好。另外設備緊缺」生 產品質比較好的、符合一線客戶品質要求的隔膜在沒有好的設備的情況下會比較 困難。
最後,公司客戶結構比較優質,不會受外界玩家影響
Q:行業供需一直偏緊」優質產能和優質訂單匹配比較緊張」公司為什麼沒有抬
價的預期呢?
A:漲價集中在去年下半年和今年年初,春節之後的變化集中在項目上的集中調 價。
公司整體戰略不太希望大幅給客戶漲價。基於客戶結構,對海外客戶和大客戶着 眼於長遠的戰略合作,而非短期利益。
Q:預估一下產能
A:干法下半年開始產能5億平,逐步投產;濕法產能四季度開始有8億平到10億平.
Q:明年後年以及更遠其的擴產結構是怎樣的f市場份額目標是怎樣的?
A:跟市場溝通過,到2026年占全球市場份額的25-30 % 2025年85億平,26年100億平的規模。到30年希望做到150億平,後面都是十而且公司的產能擴產比較有確定性,因為設備都已經鎖定到2026年,大中華區設備布魯克納只賣給星源。另外,每條線的交期都是明確的,所以擴產具有確定性。
Q:生產隔膜的國產設備進展怎麼樣,跟國外設備的差距有多大?
A:沒有純國產設備,核心環節需要外購。所謂國產設備星源也接觸過,製造精 度、設備穩定性、產品穩定性、達不到現有客戶的要求,所以濕法線用的是布魯 克納的。但是也不是全線進口,有些環節通過硏發也實現了國產化。
Q:在原材料成本一樣的情況下,新產線的成本下降幅度是多少?
A:濕法產線通過增加單線幅寬跟車速增加單線產能,以此來減少單平折舊、能耗
和人工這類成本。整體測算,6.2米的產線的話單線產能翻倍,成本端在理想狀 態下有30%的下降空間(基膜),在塗覆端會持續加快塗覆GT車速,目前100多, 以後開到200.兩端的生產效率做到極致,整個成本下降的幅度還是非常可觀的。干法設備國產化」自己設計自己硏發,只做委外製造,對干法設備的掌控更強。全線國產化之後,設備的採購成本能夠降低30-40%。
Q:接下來如果隔膜供需沒有那麼緊缺的話,接下來的定價以市場份額為主還是以盈利為主?
A:因為具備成本優勢,所以綜合考慮的話市場份額肯定是要的(目標是2026年占 全球市場份額的30%)但也不會一味價格戰」公司會通過技術升級帶來的成本 下降來保障擴展市場份額的前提下保障盈利水平。
Q:星源的設備跟布魯克納主要涉及到哪些環節?
A注要是前段的環節,
Q:布魯克納的擴產節奏是怎麼樣的?
A:目前沒有擴產
Q:設計專利都在自己手上對吧
A:對
Q:目前塗覆的專利情況是怎麼樣的?
A:星源是隔膜企業里專利最全的,有LG全套塗覆專禾啲授權,出海和供給海夕卜 客戶完全沒有專利問題
Q:公司一直都有給出貨量指引,今明兩年的出貨量分別是多少?濕法和干法的比例 是多少
A:,今年還是10億平濕法,7億平干法。明年25・27億預期
明年新增出貨包含7億平濕法,3億平干法。
Q:明年海外的比例和塗覆比例會上升嗎?還是維持在上一年的平均水平?
A:會提升。塗覆比例占總出貨的70%
Q:雙70%的目標什麼時候實現
A:後年差不多
Q:根據國內目前的需求端的補貼退撥來看,現在看這些訂單的需求有什麼樣的波動
A:大家的消費需求形成了,所以是否補貼對需求訂單沒有太大影響,
Q:目前來看在四季度客戶的需求相較於三季度並沒有下降趨勢對嗎?
A:預示訂單沒有太大變化,但如果實際到那個時候有波動也有可能
Q:需求訂單有變化的話大概什麼時候能夠看到呢?
A:可能三季度能看到,因為在四季度盤第二年的單
Q:訂單增量鎖定情況是怎麼樣的?需求來自於國內還是海外?
A:認為產能釋放節奏不夠快。因為跟下游合作非常順利,放量也很快,另外也在 不停開拓客戶,尤其是海外客戶」所以產能釋放不夠快。很多客戶想簽保供」星 源不敢簽。
Q:海外和國內哪個市場需求更大?
A:歐洲市場對隔膜的需求量很尢 後期增長會更快。所以公司比較注重歐洲的布 局和擴產
Q:海外的隔膜公司都認為23・24年海外的需求會很旺盛,認為價格很有可能上漲,你怎麼看?
A海外價格沒有跌也不會跌,有可能上漲,因為需求非常好。公司不會主動漲 價,但基本會跟行業價格趨勢同步。
Q:關於行業競爭格局的問題,比如東芝也會擴產,大概率也會給到國內其他企業。
A:我們也了解過東芝的設備。他們現在要交付的設備的效率不如星源現在量產的
設備的生產效率。目前長線車速開到82的話基膜產量在13J.4個億,但是東芝 線現在可能只做7000-8000萬的產能。目前公司的設備帶來的成本優勢和規模優勢。星源與布魯克納合作非常緊密,公司對設備的理解和匹配程度非常高,產 品品質非常優秀。布魯克納滿足公司的擴產需求,我們不會做退而求其次的事 情。
Q:整個干法最大的客戶是誰?
A:國內比亞迪國外LG。干法需求量和儲能和動力的需求量非常快
Q:比亞迪和LG大概占比?
A此較敏感不讓交流
Q此亞迪會切換成濕法嗎?
A汗法需求量會很大,有些型號會用濕法
Q:塗覆膜方面,為什麼濕法整體會比干法更薄一些?大概多大差別厚度
A;用在動力上的濕法更薄,在7山但是要加塗覆,雙面塗的話總體厚度在9p 最薄的干法膜的厚度也在12p
Q:從海外工廠原材料、人工、水電費用等成本角度與國內同等產線做對比,完 產後成本大概會增加多少
A:海外整體成本比國內高,基建、人工。便宜在能源(指電費。便宜一半以上)。因為工廠建在瑞典,瑞典使用清潔能源」所以能源成本相對低,但是設備、原材 料都是採購國外的(設備德國進口),所以總體成本會高」但是海外的價格會更好,所以毛利大大優於國內。
因為考慮到國際間碳稅成本等其他不穩定因素及客戶的本地化要求,所以不會在 國內直接向海外供貨。而且歐洲基本沒有電動車上游產業鏈」所以他們要在本地 構成自己的產業鏈。
Q:儲能業務也是重點,目前干法膜的利潤會比以前的干法膜成本低一些嗎?
A:儲能市場的膜會更便宜。所以現在沒有大規模的緊國內儲能市場。在產能有限 的情況下更多的是供海外儲能,因為海外儲能價格更好一些。後面產線國產化之 後成本會更低,所以可能考慮供應儲能市場,但還是會有限供應動力。
Q:儲能放在公司業績預期里的貢獻
A:儲能業務可以增厚公司利潤,所以這塊業務也在做。而且儲能膜的品質沒有動 力那麼高,所以可以消化掉部分降品膜。(一些降品膜質量達不到車用級別的可 能會用在彳諸能上面)
Q:海外供應隔膜與國內隔膜的價差大概有多少?
A:分項目」儲電有百分之幾十到幾倍的差異
Q沬來價差會維持還是會縮小
A:目前沒有看到這個趨勢
Q:恆力石化隔膜設備和來源
A:中科和日本的一家企業。市場上短期不可能看到恆力石化的產品
Q:遠期來看行業是否會打價格戰?
A:隔膜市場存在分級,未來中低端市場可能會引發價格戰特別是在國內。由於中 國二三線企業沒有進入海外市場」無法在海外市場掀起價格戰,海外基本不會掀 起價格戰,為一直維持比較好的價格,利潤狀況也會比較好。
Q:國內其他公司沒有進入海外的原因是什麼?
A:買不到一線設備,設備殘缺,做不岀穩定產品。海外認證周期兩年期且非常嚴 苛,星源的是中國唯一供海外干法膜的廠家。
Q:星源共海外動力跟儲能的占比是多少
A海外混動會用干法膜
國內純電也會用干法,後面趨勢海外純電也可能用干法。
Q:跟恩傑的客戶結構有沒有重大變化?搶客戶的問題存在嗎
A:競爭格局比較穩定,_家產業不可能只有一個隔膜供應商
Q:下半年如果產能上的比較快r有沒有做過針對客戶的一些計劃?有沒有針對增 量產能投放做專門布局
A:只對整體產能做調配,不會集中給幾家。
Q:目前濕法的客戶結構是什麼樣
A:上億級別:LG寧德時代三星 幾百萬:興旺達億緯
Q:今年對於LG寧德時代三星整體出口臺計劃
A:沒有變化,按之前溝通的計劃

PS:如若內容對您有所幫助,請記得點讚、在看、轉發,您的鼓勵是對我的肯定,也是我最大的動力源泉!

鑽石舞台 發表在 痞客邦 留言(0) 人氣()

寫在前面

今天收到出版社消息,我撰寫推薦序的《意識的解釋》一書正式上市。這是心靈哲學家、認知科學家丹尼爾·丹尼特(Daniel C. Dennett)的經典名著,值得向所有讀者推薦。新書預定,請點:

鑽石舞台 發表在 痞客邦 留言(0) 人氣()


鑽石舞台 發表在 痞客邦 留言(0) 人氣()

日前,有記者調研抖音直播間發現多個火爆的直播間升級沉浸式玩法。商家運用綠幕、燈光、摳圖技術,將直播間直接打造成身臨其境的效果,主播每播完一個產品,只需要按按遙控器,就可以切換背景和產品,通過內容、場景、玩法的創新讓用戶獲得嶄新的沉浸式直播消費體驗。

B 站於今年3月與林肯汽車合作舉辦了一場沉浸式新品發布會,以」劇院式觀看體驗+虛擬場景氛圍感+彈幕互動+興趣轉化」閉合鏈路,基於社區彈幕文化為品牌定製專屬形象,打造了品牌高光時刻。

鑽石舞台 發表在 痞客邦 留言(0) 人氣()

鑽石舞台 發表在 痞客邦 留言(0) 人氣()

(本文閱讀時間:10分鐘)

聯合國發布的一系列報告都傳遞出一條嚴峻的信息:人類活動引發的氣候變化正在將地球推向巨大災難的邊緣。可持續發展已經成為一個全球性的議題,備受各國政府、企業、機構及個人的持續關注。實現碳中和挑戰重重,但也伴隨着產業轉型的巨大機遇。在邁向碳中和的過程中,大家一致的共識是科技企業將扮演更重要的產業賦能角色。

鑽石舞台 發表在 痞客邦 留言(0) 人氣()

(本文閱讀時間:3分鐘)

微軟人工智能和物聯網實驗室攜手三家國際頂尖零售巨頭打造的零售創新加速營項目 TECH TAGS 正式啟動啦!入選的科技初創企業將一戰「出圈」,坐享多方福利,包括微軟的AI及IoT技術賦能、與微軟聯合銷售、與國際零售巨頭們直接對接方案並落地 PoC、特別政策扶持等等。趕緊申請「出戰」吧!

鑽石舞台 發表在 痞客邦 留言(0) 人氣()