備受矚目的開源創業公司Hugging Face一周之內完成了價值1億美元的C輪融資。在完成此輪融資之後,Hugging Face估值將達到20億美元。
本輪融資仍由Lux Capital領投,紅杉資本和Coatue首次參與跟投,其他跟投的投資方包括 Addition、Betaworks、AIX Ventures、Cygni Capital、Kevin Durant和Olivier Pomel這些Hugging Face原有的投資方。

Hugging Face創立於2016年。它的名字來源於一個表情符號,看起來像一張「張開雙手擁抱你」的笑臉,最早是一家開發聊天機器人的企業。起初,他們想要打造一個可以理解任何類型對話主題的聊天機器人來為無聊的年輕人解悶。當然,這樣的創意雖然看起來很好,但顯然並沒有做得很大。
圖源Hugging Face官網
HuggingFace的轉變主要來源於它在NLP領域的貢獻。在Google發布BERT(Bidirectional Encoder Representation from Transformers)模型不久之後,HuggingFace貢獻了一個基於Pytorch的BERT預訓練模型,即pytorch-pretrained-bert。相信這個庫很多人都使用過,因為pytorch框架的友好、BERT的強大,以及pytorch-pretrained-bert的簡單易用,使這個repo也是受到大家的喜愛,不到10天就突破了1000個star,於是也順着NLP模型的發展不斷擴張。後來,HuggingFace整合了他們貢獻的NLP領域的預訓練模型,發布了Transformers庫(https://github.com/huggingface/transformers)。目前,Transformers庫在GitHub上已有62.3k個Star,Fork數量達到了1.48k。
圖源GitHub上Transformers庫首頁
Transformers 為數以千計的預訓練模型奠定了基礎(包括我們熟知的Bert、GPT、GPT-2、XLM等),支持100多種語言的文本分類、信息抽取、問答、摘要、翻譯、文本生成。它的宗旨就是讓最先進的 NLP 技術人人易用。Transformer還提供了便於快速下載和使用的API,讓你可以把預訓練模型用於給定文本上,在自己的數據集上對它們進行微調,然後通過modle hub與社區共享它們。此外,Transformer由三個最熱門的深度學習庫——Jax、PyTorch和TensorFlow支持,它們之間可以無縫整合。
Hugging Face的願景是構建機器學習領域的GitHub。它是一個社區驅動型的平台,擁有大量的資源。開發人員可以在機器學習模型、數據集和 ML 應用程序上不斷創建、創新和互相協作。
Hugging Face 還提供託管服務,允許你通過編程接口使用數千個模型的推理API,以及「自動訓練」模型的能力。
為人工智能領域按下快進鍵
現在,已有超過1萬家公司正在使用該公司的服務來建立機器學習技術。這些公司的機器學習科學家、數據科學家和機器學習工程師在Hugging Face的產品和服務的幫助下,節省了無數時間,同時加快了他們的機器學習進程。
Hugging Face團隊表示,本輪融資將用於人工智能的科研、開源、產品和以及人工智能民主化方面。他們相信,未來的人工智能的方向是通過公開分享模型、數據集、訓練程序、評估指標和合作解決問題。開源和開放科學會帶來信任,促進社區的穩健發展和持續創新,而未來的人工智能也一定是建立在這個基礎之上的。
參考資料:
https://huggingface.co/blog/series-c
https://techcrunch.com/2022/05/09/hugging-face-reaches-2-billion-valuation-to-build-the-github-of-machine-learning/
CSDN讀者俱樂部營業啦~
—點這裡↓↓↓記得關註標星哦~—
一鍵三連 「分享」「點讚」「在看」
成就一億技術人