

荊虹科技創始人,3D TOF視覺領域專家,六西格瑪黑帶大師,天津大學工業工程碩士。曾就職於台灣揚信與盛泰光學,領導並服務過Moto、Nokia、蘋果手機攝像頭項目。
人稱奶罩,騰訊雲中小企業中心總經理,DNSPod創始人,洋蔥令牌創始人,網絡安全專家,域名及DNS技術專家,知名個人站長,中歐國際工商學院EMBA。
吳洪聲:你之前曾就職於台灣揚信科技和富士康,後來擔任了盛泰光學總經理,一直都從事手機攝像頭相關的工作。這些年的工作經歷對你後續的創業有什麼幫助?為什麼荊虹科技最後選擇專注在3D TOF這個領域?黃歡:從1827年世界上第一張照片誕生到現代手機的照片,屏幕從TFT屏到8K屏,通訊從2G到5G,分辨率從8萬像素到1億像素,我們看到從二維到三維是一個不可逆的趨勢,所以創業的時候堅定地選擇了三維領域。

《勒格哈的窗外景色》是目前已知世界上第一張可以永久固定影像的照片,該照片由法國攝影先驅約瑟夫·尼塞福爾·尼埃普斯於1826年(一說1827年)拍攝
儘管2017年創業的時候蘋果推出了結構光手機,引領了結構光的風潮,但我們考慮到裡面有很多專利風險,最後通過分析比較認為TOF會更具前瞻性。
我們的基因在於做整個三維的模組方案和標定的算法,後來創業的時候把後端算法補齊,現在荊虹科技已經成為軟硬件結合的3D全棧公司,能滿足不同產品和客戶的需求。
吳洪聲:3D sensing 技術主要分為三種方案,包括結構光、TOF和雙目測距法,目前比較成熟的是結構光和TOF技術。結構光和TOF技術的區別在哪裡?在哪些領域的應用上,TOF使用得更加廣泛,或者更具優勢?黃歡:為什麼大家會比較關注結構光,是因為蘋果率先推出了結構光,然後大家紛紛跟進。
結構光 (Structured Light)是通過紅外激光器,將具有一定結構特徵的光線投射到被拍攝物體上,再由專門的紅外攝像頭進行採集反射的結構光圖案,根據三角測量原理進行深度信息的計算。ToF(Time of Flight,飛行時間)是通過紅外發射器發射調製過的光脈衝,遇到物體反射後,用接收器接收反射回來的光脈衝,並根據光脈衝的往返時間計算與物體之間的距離。
第一,結構光的近距離效果非常好,例如用於人臉識別,但它有一些抗光性的問題,就是我們所謂的「魯棒性」沒有那麼好,對日光的適應性沒有那麼強。而TOF在各種場景、各種日光下的適應性都比結構光好,因此現在很多結構光的廠家也逐步轉型去做TOF。
第二,結構光其實比TOF多了光發射準直鏡,所以我們在量產製造時,結構光就會多一個環節,這就意味着會多一個工人,多一個製造的設備,多一個製造的工藝,那麼成本就會上升。而TOF沒有準直鏡,製造工藝的鏈條相對結構光更簡單,在大量量產的情況下,同等級的產品成本可以比結構光低30%左右,性價比更高。
第三,結構光主要應用在近距離的刷臉,在中遠距離、遠距離的優勢並不大。TOF應用領域更廣,包括工業領域和消費領域。
除了手機和汽車,機器人視覺也會往RGB-D發展,這個D是深度,都會向TOF走。機器人以前用激光雷達只能接收到二維信息,能測量出物品的距離但無法做VSLAM,導致有的掃地機器人會很「笨」。TOF的數據多了一個維度,會讓機器人更加智能,我們只需要解決TOF成本的問題就能實現大規模應用,實際上現在的掃地機器人頭部廠商石頭科技、科沃斯、小米等的旗艦機或中高端機全部都是用3D TOF。

吳洪聲:3D TOF其實也是近五六年才興起的市場,在華為 P30 Pro、華為 Mate 30 Pro系列手機的應用下讓更多人認識到了3D TOF,荊虹科技宣稱擁有世界領先的TOF的2D/3D人臉識別技術,你們的技術優勢體現在哪裡?黃歡:首先,從材料方面來說,我們有鏡頭的光學設計,鏡頭的光學設計會影響圖像的還原效果。舉個例子:光有發射與接收的環節,發光發出去是100分,回來至少也要有80、90分才不會導致數據失真得太厲害,否則就會造成空洞,需要有更大的三維模型去把空洞補上,而這將嚴重占用後端資源,影響體驗。我們在光學鏡頭的設計方面擁有大量的量產經驗能夠從設計端就做好品質的管控,品質是設計出來的,而不是檢驗和製造出來的。
其次,光學設計完後需要很強的工業製造能力。就像大家都知道的芯片頭部代工廠商台積電,強大的製造能力和工藝能力形成了它的技術壁壘。而我們的鏡頭交給我們的股東惠州星聚宇光學來做,他們在光學領域積累了15年經驗,在手機攝像頭領域出貨已經做到全世界第三,星聚宇光學擁有非常強的製程能力、製造能力,保證了源頭的鏡頭input數據的質量,那麼我們才能輸出優質的output。
最後,我們是一家軟硬件結合的3D全棧公司,有上游的光學設計能力、中游的硬件設計高精密製造能力、下游的核心算法能力,能夠「知其然而知其所以然」。比如當我們配合華為、小米等客戶時,他們會指定應用場景,那麼我們很快就能根據應用場景反過來去設計前端,修改鏡頭的參數,修改硬件的設計,並優化算法參數。而當我們得到與更多大客戶的合作機會,就有更多的數據來完成迭代,由此慢慢形成閉環,搭建起我們的技術壁壘。

吳洪聲:3D TOF的一大應用就是人臉識別。但相信有很多人都有這種體驗:小區或寫字樓的人臉識別要麼識別不出來,要麼只要你長了一張「大眾臉」,隨便就能進出門禁。這些人臉識別不精準的「烏龍」情況是怎麼造成的?黃歡:出現這樣的問題是因為數據訓練量不夠,一般出現在小公司的產品或還不成熟的產品。如果發現有「大眾臉」的情況,那麼就需要通過數據學習來不斷修正,避免報錯。
要更好地解決這個問題,還需要通過TOF的深度活體算法。人臉識別靠的是特徵點,以前是二維信息,可以用一張照片去做識別;而TOF則多了一維。舉個例子,3D TOF能夠通過例如鼻尖、耳朵等深度信息去判斷具體的差異,因此識別結果更加準確。
大家有時候做身份驗證需要頭左轉右轉,或者張嘴眨眼,這其實是雙目測距法,屬於被動判斷,背後是因為數據量不夠,需要人去配合做一些動作才能判斷是不是活體。

而3D TOF根本不需要人去動,例如在智能座艙里你正常上車,中間不用停下來對着某個地方刷臉,就能檢測你是不是車主。搖頭晃腦要人配合的人臉識別一點都不「智能」,真正的「智能」就是要做到與人「心有靈犀」,根據用戶的使用習慣做出智能的選擇。
吳洪聲:去年七月,荊虹科技的3D TOF深度相機及人臉識別(活體檢測)算法,通過了由中國人民銀行批准成立的國家金融行業權威檢測機構——國家金融科技測評中心(BCTC)的技術認證,達到國家認證的金融支付級安全標準。金融支付非常講究高效與安全,你們在金融支付場景下的3D TOF會跟其他場景下的有什麼不同嗎?網上經常看到有戴面具,甚至還使用deepfake技術等來冒充人臉,你們如何通過技術手段甄別出來?黃歡:我們是深圳第一家通過BCTC認證的公司。如果一家創業公司要證明自己TOF的技術能力,最好的方法就是去獲得金融支付認證。真正能夠量產和做到高等級水平的公司,在全國範圍內都是鳳毛麟角。
金融支付場景下的3D TOF非常看重精度。做避障的話,一般需要5-6米的標定,而做人臉識別則需要到1米以內(約50-70公分),然後根據不同的場景、使用習慣去做標定和整體的調試。此外,還需要用精準的頭膜進行測試。除了普通二維照片、三維人臉模型,還要用到不同材質、多模態去訓練學習。
支付的安全性不講求100%安全,而是講究一個閾值,只要破解概率能達到例如百萬分之一,那麼就能進行商用(因為我們的6位數密碼就是百萬分之一)。
在實際的場景中,真正破解的情況是非常少的。你需要非常了解算法模型的漏洞,然後再專門做一個頭模才能破解,deepfake相當於是花30萬做一個高精密的頭像去偷1000塊的手機,這是完全不符合商業邏輯的。而且這些高精密的3D頭像也都會在進行BCTC認證的時候做驗證,只要我們有足夠多的數據,我們就能通過算法的學習提前避免破解的發生。
特朗普的deepfake(深度偽造)已經能以假亂真
吳洪聲:除了少部分手機前置攝像頭的人臉識別解鎖,3D TOF技術現在還被用在後置攝像頭,可以在輔助對焦、3D 拍照、手機「尺子」、體感遊戲等發揮一定作用。但很多評論認為3D TOF用在手機後置很雞肋,處於一種專業人士看不上,但普通用戶也不需要的窘境。一方面,很多新機會選擇搭載一億像素CMOS而不是TOF,且用激光傳感器就可以解決輔助對焦問題;另一方面,AR應用還未成氣候,同時專業人士手上也不缺專業的空間測距設備。你怎麼看待這個所謂的3D TOF「窘境」?
儘管蘋果13在帶頭用3D TOF攝像頭,但是蘋果是一個開創者的角色,引領新的風潮,而一般的手機廠商,即使裝了3D TOF打開頻率也非常低,雙目攝像頭已經能完全滿足日常使用。

但在未來,3D TOF攝像頭會配合VR眼鏡應用於不同的場景。舉個例子,今天你弄了一個非常酷炫的髮型,穿了一身很帥的衣服,那麼你用3D TOF的手機繞着自己掃描一圈,在王者榮耀里就能生成你的三維形象,然後跟朋友們一起去玩。再比如,現在微信只能傳圖片和視頻,未來就能用3D TOF把物品掃描一圈,就能發送一個三維的物品給對方。
現在基礎設施已經搭建完畢了,我們就是其中提供底層引擎算法的一員,相信在5年內,騰訊等公司就會帶頭落地更多應用,打造出越來越多的生態,用三維技術極大地提高工作和生活效率。
吳洪聲:TOF技術的另一大終端應用在於車載電子,荊虹科技也積極地把TOF技術服務於智能座艙,也成為去年華為智能汽車解決方案的優秀合作夥伴。TOF技術具體是如何成為打造智能座艙的重要一環?目前已經實現了的關鍵應用有哪些?你曾說「TOF是AI視覺中最具想象力的傳感器」,為什麼是「最具想象力」?黃歡:第一,人臉識別。3D TOF的人臉識別,不僅能夠刷臉開車門,還能根據識別出來的身份進行個性化調節,例如根據人員的身高自動調節座椅,一進入車內就能坐上最舒服的位置。現在非常多主機廠和品牌廠都需要這樣能夠體現「奢華」的功能。
第二,HUD抬頭顯示。現在的HUD沒辦法實時跟蹤調整駕駛員的位置,但用TOF技術就能根據眼睛和身高調整抬頭位置,提供一個更好的駕駛體驗和場景。
第三,駕駛安全輔助。基於TOF的DMS(駕駛員監測系統)用於貨車,就能實時監控駕駛員的狀態,檢查司機是否疲勞駕駛、是否有兒童被落在車裡等。
最新的Euro NCAP(Euro New Car Assessment Program,歐盟新車安全評價規程)規定:DMS在2022年7月份強制執行「司機瞌睡和注意警告」DDAW(Driver Drowsiness and Attention Warning)法規;「兒童生命體檢測」CPD(Child Presence Detection)是Euro NCAP對於OMS(乘客監測系統)的一個加分引導。我們中國在新車輛的法規上預計會在2023年跟進Euro NCAP的DMS強制,在2025年跟進CPD的檢測要求。(這個要看具體國家政策時間)
第四,汽車中控。寶馬、特斯拉以及一些造車新勢力的汽車都在用大屏,但現在的交互其實非常不安全、不智能:大屏里還有二級菜單,調個音樂可能還需要翻頁、下拉、點擊。未來在TOF的支持下可以用手勢或多模態解決交互,既安全又優雅。
之所以充滿想象力,是因為汽車是一個封閉的第三空間。
汽車跟手機一樣會占用很多用戶時間,人們將來可以在每天2-3小時的通勤里打開自動駕駛,自己在車裡辦公或刷視頻,把節約的2-3小時自由分配到其它地方將產生巨大的價值。
另一個是汽車空間裡的沉浸式體驗,這手機是完全無法帶來的,例如你可以戴着VR眼鏡看一場電影,自由地放聲大哭,沉浸在自己的世界裡。
汽車還會成為社交的工具,車裡的攝像頭可以記錄出行、記錄美好生活。例如我去新疆旅遊,現在不可能邊開車邊拍風景,有了視覺攝像頭就能每到一個地方自動在朋友圈裡發送定位、風景照片、視頻。
我非常認同「汽車是裝了四個輪子的手機」的觀點,實現自動駕駛後,基於雲端服務會產生各種內容和應用,例如辦公、音視頻、卡拉OK、存儲等都能在汽車裡實現。
吳洪聲:實際上,TOF技術還能服務於自動駕駛,比如採用了TOF技術的倒車系統可同時偵測多個不同距離障礙物,當檢測到有行人或者障礙物靠近,通過影像顯影或聲音警示距離,進一步輔助駕駛路況。無論從市場熱度還是體量來看,自動駕駛比智能座艙更吃香,為什麼你們沒有選擇做自動駕駛這個細分領域?
黃歡:我們的基因不在智能駕駛,因此當前我們更適合配合車內提供產品。車外主要是長遠距離的激光雷達,而我們擅長的是中短距離的TOF在車內場景更具優勢。當然,純視覺的自動駕駛攝像頭車外的應用方案我們也在和自動駕駛公司積極配合中。
另外,視覺市場比激光雷達的市場大。日本東京商工研究所(TSR)的權威報告顯示,整個汽車車內視覺市場大約占比63%,車外包含超聲波雷達、毫米波波雷達、激光雷達等市場只占30%左右,且為負增長或僅40%左右的增長,而車內視覺則呈100%增長,2020年的市場是153億美金,2030年將達到400億美金,2040年則是840億美金,每隔10年就能實現3倍速的增長。
畢竟激光雷達全車只需要幾個,頂多再增加2-4個就完全足夠了。但是攝像頭的數量可以非常多,現在的小鵬、蔚來、理想等汽車車內平均裝有10個攝像頭,自動駕駛則更多,裹動智駕等汽車裝有28個以上攝像頭,所以說視覺市場的增長是無比巨大的。
同時,剛剛也提到歐洲已經有法規要對車內的遺留物進行檢測,防止不小心把小孩留在車裡導致意外發生等情況,因此用TOF配合做車內活體檢測將成為強制標準和造車剛需。
吳洪聲:數據顯示,2020年全球智能座艙主要產品達396億美元,2018-2022年市場CAGR(複合年均增長率)為8.8%。從市場角度來看,你認為智能座艙憑什麼能支撐起千億市場規模?
黃歡:根據我們最新看到的數據,智能座艙的市場已經達到2萬億。為什麼市場這麼大?首先就是我剛剛提到的「裝了四個輪子的手機」,汽車一定會有手機的功能,更重要的是提供了一個私密空間。
另外,越來越多玩家進入汽車領域。為什麼大廠們在各自的領域都做得很好了,依然還要來造車?比如小米,在手機、電視、IoT領域已經非常優秀,但依然要去造車。
第一,要形成閉環。人類文明的進程就是效率的提高和時間的再次利用,誰占據了時間,誰就獲得流量。汽車能夠讓人在裡面消耗大量時間,拿下汽車這塊,就能形成支付、娛樂、社交整條數據鏈的閉環。這也可以解釋為什麼汽車廠家也在做手機,同樣也是為了形成這個閉環。
第二,對於造車來說,未來屬於數據內容,重要的不僅是汽車漂亮的外殼,還有沉浸在汽車裡的各種體驗,所以內容生態和雲端數據是又一核心所在。
在此背景之下,我個人不成熟地認為像騰訊雲、阿里雲、華為雲等的雲玩家最有可能掌握最終的話語權,把數據帶進汽車,甚至會誕生一款像微信一樣所有人都會使用的車內應用,連接車裡的VR眼鏡、辦公、娛樂等等。
自動駕駛是有標準的,當未來每家公司都生產出「國家標準」的智能汽車,那麼除了擁有核心技術的造車廠,其他汽車的品牌忠誠度將不復存在,整個汽車市場特別是中國傳統車企會面臨一場大洗牌。
吳洪聲:現在國內的智能座艙慢慢火熱起來,有的評論甚至認為在智能座艙表現方面,中國的汽車已經超過了特斯拉,你認同這個觀點嗎?現在國內的智能座艙趨向於跨界、融合、集成的網狀產業結構,新興互聯網公司與傳統整車、零部件企業三方勢力角逐,這樣的格局會繼續延續嗎?智能座艙以及TOF技術未來還有哪些發展空間?黃歡:與特斯拉對比的話,我覺得在某些應用方面確實是超越了,例如車裡的語音交互系統,特斯拉的核心優勢在於自動駕駛和電池技術,我們在智能座艙這塊則稍微走在前面一點點,但還是要長遠地來看。
當然,智能座艙的前提還是需要實現自動駕駛,才能把生活場景引入汽車裡。L5級別的自動駕駛還有很長一段路要走,即使最理想的情況5年內能解決技術問題,再花10年也難以解決倫理問題。

目前奔馳在德國已經有了相關的自動駕駛法規,但依然需要有人坐在駕駛位置。在極端情況下,如果無人駕駛的汽車撞到了人,那麼是車主負責,還是寫代碼的公司負責?自動駕駛是選擇撞小孩還是撞老人,這是代碼的倫理問題;選擇不撞人而自己車毀人亡,這是個購買問題。所以無人駕駛目前主要還是應用在物流,智能規劃好最優路線,極大提升運輸效率。
就現在的格局來看,主機廠、互聯網公司、傳統車企都已經入場,我個人不成熟地認為擁有雲的互聯網企業會因為擁有個性化數據而最有可能在未來成為主導者,擁有自身獨特品牌力的公司才能占領用戶心智,走得更遠。像特斯拉這樣本質是能源公司/SaaS公司的玩家也能繼續留在牌桌上,但中國傳統車廠未來很有可能會走向整合,或者逐步被自己革命。
TOF技術的發展空間肯定是非常巨大的,包括人臉識別、活體檢測等等。當量足夠大,性價比足夠高,TOF技術就能大規模應用。就像指紋芯片那樣,剛開始需要25美金,兩年後只需要不到1美金。實際上,智能汽車的三維人臉識別,在未來兩年就能做到高性價比。三維是一個不可逆的趨勢,那麼我們就不要逆勢而行,但這裡面肯定是需要時間的,也請相信未來三維空間的生活不會太遙遠。
* 圖片來源:荊虹科技、北京日報、搜狐網、知乎、靈犀AR、嗶哩嗶哩@視知、攝圖網、微博、SAE

你對自動駕駛/智能座艙的了解有多少?你看好自動駕駛/智能座艙的發展嗎?你看好互聯網大廠去造車嗎?歡迎在評論區分享你的看法~點亮「在看」+評論區留言,阿D將在2月8日(周一)下午15:00隨機抽取2位粉絲,送出DNSPod定製筆記本~





《DNSPod十問》是由騰訊雲企業中心推出的一檔深度談話欄目,通過每期向嘉賓提出十個問題,帶着廣大讀者站在這些行業精英的肩膀上,俯瞰各大行業發展趨勢和前沿技術革新。
欄目嘉賓的領域在逐漸擴大,從最初的域名圈、站長圈到程序員圈、創業者圈、投資圈。騰訊副總裁丁珂、CSDN董事長蔣濤、Discuz!創始人戴志康、知識星球吳魯加、騰訊安全學院副院長楊卿等技術大咖和行業領軍人物都在這個欄目留下了他們的真知灼見。
《DNSPod十問》在騰訊雲生態圈也極具影響力和活躍度。我們在騰訊內部平台——DNSPod公眾號、Discuz! Q公眾號、騰訊中小企業服務公眾號、騰訊雲公眾號、騰訊雲主機公眾號、騰訊雲服務器公眾號、騰訊雲助手、騰訊樂問、騰訊碼客圈、騰訊KM平台、騰訊雲+社區、騰訊雲+大學等平台累計關注度高達數十萬,同時我們積極開拓與外部媒體的合作,如騰訊科技、騰訊新聞、新浪微博機構號、CSDN社區技術專欄、知乎機構號、企鵝號、搜狐號、頭條號、開源中國技術社區、IT之家、InfoQ社區資訊站點、Twitter機構號、Facebook機構號等媒體閱讀總量逾百萬。
未來,我們希望這個欄目的影響力會覆蓋更加多元的受眾,把更多正確的理念對外傳遞出去。歡迎各位讀者在評論區留下你想看到的嘉賓和想問的問題,我們邀請你共同成為《DNSPod十問》欄目的提問者與發聲者。
合作聯繫:
qitinghuang@tencent.com
▼點擊直達DNSPod官方社區
▼掃碼加入DNSPod官方用戶群

點「在看」給我一朵小黃花