本期為青源LIVE第33期線上直播活動,參與直播互動討論有驚喜🎁!
Transformer架構提高了深度學習模型在計算機視覺和自然語言處理等領域的性能。與此同時,更好的性能需要更大的模型尺寸。這對於當前的加速器硬件(如GPU)的內存是一個極大的挑戰。在單GPU或單個機器上訓練像Vision Transformer、BERT和GPT這樣的大型模型是不夠理想的,因此能夠在分布式環境中簡便快速訓練模型變得尤為迫切。
本期青源Live邀請了尤洋教授,其團隊研發的統一併行訓練系統夸父AI,旨在無縫集成不同的並行化技術範例,包括數據並行、流水線並行、多張量並行和序列並行。
夸父AI文檔可於https://www.colossalai.org/ 查看。
源代碼:https://github.com/hpcaitech/ColossalAI
主講人:尤洋是新加坡國立大學計算機系的校長青年教授 (Presidential Young Professor),加州大學伯克利分校博士。尤洋的研究專長包括高性能計算,並行算法,以及機器學習。他曾以第一作者身份獲得了國際並行與分布式處理大會(IPDPS)的Best Paper Award(0.8%獲獎率)和國際並行處理大會(ICPP)的Best Paper Award(0.3%獲獎率)。尤洋曾獲清華大學優秀畢業生,北京市優秀畢業生,國家獎學金,以及當時清華大學計算機系的西貝爾獎學金。他還在2017年獲得美國計算機協會(ACM)官網上頒給優秀在讀博士生的ACM-IEEE CS George Michael Memorial HPC Fellowship。他也獲得了頒發給伯克利優秀畢業生的Lotfi A. Zadeh Prize。他還被伯克利提名為ACM Doctoral Dissertation Award候選人(81名博士畢業生中選2人)。他在2021年被選入福布斯30歲以下精英榜 (亞洲)並獲得IEEE-CS超算傑出新人獎。
更多信息請查看研究小組主頁(https://ai.comp.nus.edu.sg/) 。
主題:夸父AI: 用於大規模並行訓練的統一深度學習系統
方式二:留言互動
關注智源社區公眾號,在公眾號後台留言提出建議或推薦下一期live嘉賓,推薦的嘉賓被選中後我們會為您贈送智源社區紀念品。(嘉賓推薦模板:姓名+研究方向+亮點工作名稱)