close

一、座艙交互的目標

在了解座艙交互的前提,我還是講萬能公式:用戶+場景+需求。

在座艙需要產生交互的兩端是:人+車機

在座艙需要產生交互的場景是:娛樂場景、養護場景、休息場景、出勤場景,接送孩子場景,情侶戀愛場景,車內聚會場景,車輛出借場景,長途出行場景,自動駕駛場景,共享租賃場景,車外交互場景,智能家居互聯場景等,都在我們與汽車的粘性範圍之內,都需要交互設計師深度挖掘。

在座艙需要產生交互的需求是:對車機發出操作指令

所以在做交互設計的時候,【最短路徑】是交互設計考慮的第一步!根據三秒原則,觸達的目標路徑一定要短,才能夠保證安全性和處理效率。

二、座艙人機交互的方式

隨着科技發展和車主的期望,車內外的信息和功能越來越多,作為HMI設計師的任務就是讓車主減少注意力資源占用,減少駕駛分神,所以交互方式由此產生階段性變化:物理旋鈕/按鍵——數字觸屏——語音控制——多模態交互。

多模態交互的方式現有最常見的有觸控、語音、手勢。但在車載系統的設計中,這些交互方式必須緊扣實際場景下的交互方式與用戶需求來設計。

1、物理旋鈕/按鈕

從戰鬥機演變過來的傳統物理旋鈕,在用戶按下功能鍵的一觸即達,不是觸控能產生的快感。而且物理旋鈕比觸控調節要省時安全的多,比如調節空調溫度,物理旋鈕可以給駕駛者一個調節刻度的觸感,方便調節,這是觸控所做不到的,而且觸控調劑明顯交互成本會增加。影響安全駕駛。

2、觸控

觸控一種是通過按鍵控制;一種是通過觸屏控制。都是通過不斷的觸控功能按鈕行程鍛煉肌肉記憶,現在的趨勢越來越趨向重觸屏,輕按鈕,這樣不僅系統迭代成本小,功能可以動態分布。但是對於一些精準調節的功能還是按鍵控制好一些。

3、語音交互

語音交互被認為是車內場景下最自然的交互方式,基本會有三個場景:快速控制車輛場景;連接一切場景;主動服務場景。語音控制的前景主要在於兩個因素,一個是可以把除了界面以外的利用起來,一個可以與HMI自由交談,二是最小化HMI手動操作產生的干擾,增加安全性。

語音交互作為新一代的交互模式,通俗的講,就是用人類最自然的語言(開口說話)給機器下達指令,達成自己的目的的過程,這一過程包括三個環節:能聽、會說、懂你。

4、手勢

手勢交互是對語音交互、觸控交互的很好補充,能夠讓車主通過簡單的手勢和語音就能完成車內的交互任務,也是能夠增加交互趣味性、表達情感、傳達情緒的另一個自然交互方式。

常用的手勢:單指滑動(上下左右)、雙指滑動(左右)、雙指點擊等。

HMI的交互手勢不同於移動端。HMI的交互不僅用手指去操作,還有考慮用戶會高頻的使用手腕,因此橫向的滑動和點擊可以高頻。屏幕是固定在車上的,要規避掉一些不方便的手勢。比如雙指往上滑動就很不方便,向上推不靈活,也有阻力。

5、生物識別

移動端的人臉識別技術已經有了飛速的發展。現在開始逐漸被汽車引用。人臉識別作為有很強的自身個體差異性,人臉特徵成為了驗證身份的最佳依據。

目前車內配備語音識別、面部識別、指紋識別、掌紋識別、虹膜識別、視網膜識別、體形識別、打字節奏、步態識別等

功能:

·健康方面:檢測駕駛者開車時的身體狀況(如心率、血壓、疲勞程度、血液酒精含量、可能出現的癲癇發作等),為司機、乘客以及公眾安全帶來更高的保障。

·安全方面:指紋傳感器、視網膜掃描和語音/面部識別技術取代傳統車鑰匙,用於訪問和啟動車輛。

科普

常見的生物特徵識別包括:視網膜識別、虹膜識別、步態識別、靜脈識別、人臉識別等。與其他識別方法相比,人臉識別具有直接、友好、方便的特點,使用者使用時無任何心理障礙,從而得到了廣泛的研究與應用。近幾年,人臉識別技術被引入汽車,逐漸成為智能汽車的標準配置。

三、交互開眼

開眼給大家分成了兩部分,第一部分是國內頭部「蔚小理」

1、國內頭部智能座艙

A.蔚來

蔚來的語音是科大訊飛提供的底層技術支持。配合交互機器人NOMI的表情設計、消除了人機對話冰冷生硬。據說NOMI的表情有48種。全車搭載了4個麥克風,可以調節單獨的座椅和空調。但是語音通用能力一般,很多應用不支持語音搜索。但亮點在於支持車窗,天窗等的程度控制。以及可以在多媒體上進行多倫的交互。

B.理想

在理想同學2.2版本中,可以四個麥克風同時控制互不影響。不同人的同一指令可以直接複製「我也要」就可以獲得同樣的設定。20秒連續對話。應用上基本都是所見即所說,可支持車輛中心、藍牙電話、喜馬拉雅、QQ音樂。

https://v.autohome.com.cn/v-2159708.html

https://www.pingwest.com/a/249451

C.小鵬

Xmart OS v2.1.0 版本更新中新增的「全場景語音」功能,在當時就讓我覺得非常驚艷。車內分成的是雙音區但是通過語音可交互的基本都是所見即可說。小鵬連續對話不固定時長,只要有對話就一直出於喚醒的狀態。甚至氛圍燈顏色的調節,指令倒數第幾個都可以做到。

2、前瞻智能座艙

BMW i4

交互搭建:語音+手勢+智能表面座椅+物理按鍵+ARHUD

奔馳EQS

交互搭建:語音+手勢+生物識別+ ARHUD

四、智能座艙交互實戰

上篇《一篇帶你讀懂車載設計》中提到了交互的設計基本原則。所以我們直接主流座艙里的幾個主要交互實戰原理,但不會太深,因為下一篇我會主要說下語音交互。

1、觸控交互

1.1物理按鍵

早期的中控台的屏幕只是顯示收音機的一些信息,絕大部分的面積都是容納超多的物理交互按鍵,這些按鍵基本都是靠觸覺的交互來實現人機溝通的。

這種物理按鍵要考慮人體工程學,用不同的觸覺方式,如按壓,如輕觸,如旋轉,並以不同的觸覺方式來劃分好固定的區域,儘可能地讓駕駛者熟悉後,就能夠盲操這些交互按鍵。其中的部分常用按鍵會集成到多功能方向盤上,以便駕駛者在駕駛中也能便捷操控。

然後隨着智能交互的發展,中控大屏的出現,物理交互按鍵開始逐漸減少。而中控大屏則占據着越來越大,越來越重要的位置。

一直到中控台的物理按鍵減到了近乎沒有的程度,這個時候已經駕乘人員已經無法靠觸覺來進行人機交互了(因為屏幕信息是變化的,按鍵也是虛擬的,且觸碰起來千篇一律,沒有手感可言),而這個階段就逐漸轉成了視覺的交互,人們不在通過觸覺來進行人機溝通,而是主要通過視覺來進行操控。

也就是說你不能光摸了,靠手感(觸覺)來辨別物理按鍵了。而是要看着(視覺)來進行操控。

實際視覺為主的溝通是符合人的認知規律的。根據某研究報告,人類獲取外界信息的渠道有83%是來自視覺,其他的如聽覺11%,嗅覺3.5%,觸覺1.5%,味覺1%。

但是如果純靠視覺來進行智能座艙的人機交互,人們還是會絕對諸多不便。尤其在駕駛期間,人的視覺注意力的90%都必須要投入到對路況的觀察中去,不大可能把視線長期投入到屏幕上面,和智能座艙進行交互。

1.2 手勢交互

你以為2021年特斯拉Model S引開創了汽車大屏時代,其實1986年,美國通用集團旗下品牌別克汽車,在Riviera在車上搭載第一塊可觸控的中控屏幕,遠遠早於特斯拉。

除了上篇說的手勢交互的規則,說到手勢咱們一般想到的就是觸摸大屏,這次分享給大家一個物理按鍵與手勢結合不錯的案例。這次主要以ID.4為例,ID.4運用的大量的觸摸式交互方式,對於直接換成大屏我覺得還是很友好的。比如交互方式有點觸、滑動、雙指觸控,按壓觸控反饋等這些在方向盤或者中控底部的按鈕進行觸控。

知識延展

除了觸控的交互還有非觸控手勢,比如在寶馬高端車型上有了很多懸空手勢操作,比如在空中食指畫圈,就可以調節音量之類的。

2、語音交互

VUI(Voice User Interface)語音界面設計,語音交互的好處就是可以傳達情感、但交互準確性確實不如硬交互,但理想ONE全球首輛在車內放置四個全向數字麥克風。語音交互的重視程度可想而知。我之後會單寫一篇設計語音交互的文章,這篇先讓大家了解語音交互。

2.1、語音交互的原理:

自然語音的理解-語音識別-語音轉化語音

2.2、語音交互需要的場景

語音控制的場景應用有兩個因素,一個是取代沒有在屏幕展示的功能,可以與HMI自由交談,二是最大限度地減少HMI手動操作產生的干擾,從而提高安全性。

2.2.1 功能場景

我們車內的場景是什麼樣呢?一是當你下班回家,希望在開車過程中快速控制車輛、查詢信息、空調、座椅等。當你長途旅行時中途查詢服務區和加油站,以及行程規劃。二是用語音鏈接一切。車裡的音樂、副屏娛樂都可以快速喚起。所以我們需要做的就是快速控制車輛-鏈接一切+主動響應。

A.快速控制車輛

基本功能包括調節車內氛圍燈,調節音量,調節車內空調溫度,調整車窗,調整後視鏡,快速控制車輛的本意就是幫助駕駛者更快的掌控車輛,減少注意力的分散,增加安全駕駛係數。

在遠途時語音交互作為實現功能的一個入口,系統會理解駕駛員的語音指令,提供智能導航。除了被動的接受任務,還可以提供目的地推薦和行程規劃的附加服務。因為系統通過整合餐廳,商場,服務區,再用算法為駕駛者千人千面提供服務方案。

在這個場景下用戶的基本需求就是搜索路線,期望需求是可以同時匯報前方的服務站,興奮需求可能就是在搜索目的地時可提供的智能化的地點推薦。所以在我們設計語音交互的時候要結合業務產品定位,達到預期需求。

B.車輛和駕駛者監控

在實時的駕駛過程中,可以隨時與詢問車輛性能和車輛狀態,比如胎壓,水箱的溫度,冷卻劑和機油。實時的信息詢問可以幫助駕駛者提前處理信息,當然到警戒臨界點的時候也要實時提醒。

除了對內監控當然也要對外監控,生物識別和語音監控的混合監控可以監控駕駛者的情緒。在適當的時候提醒駕駛者打起精神,以避免交通事故的發生。以及行駛長時間的疲勞語音提醒。

C.在多媒體娛樂方面:

開車場景,播放音樂和廣播是最高頻的操作和需求。我們出了提供除了簡單的播放,暫停和切換歌曲等功能外,還有一些收藏,登錄賬號,打開播放歷史,切換播放順序,以及直播互動更多的個性化的功能等待開發。

2.3、語音交互設計流程

我們先來階段科普下語音交互設計的流程,因為基本語音交互都是外接第三方,但是作為HMI設計師,也要了解整個語音交互的設計流程,這樣才可以作為設計語音形象的依據,能讓那個IP更好的貼合使用場景。

基本現在VUI的設計流程,和我們日常設計需求的流程相似,首先分析使用場景-創建用戶畫像和用戶旅程圖-設計聽覺IP-編輯腳本-梳理指令邏輯和交互-建立插槽庫-交付走查。

2.4、腳本設計

語音設備需要以一種自然對話的方式進行感知、認知以及輸出自然語言,在VUI設計過程中需要遵循識別前(聲音信號識別與優化) - 識別中(聲音信號的理解)- 識別後(信息反饋及播報)。所以整個語音交互設計下來,核心是信息的接受和設計。

A.腳本清晰簡潔高效

語音指令斷句和語氣會讓駕駛者理解成本增加。以及明確肯定的問題也是防止用戶糾結的原則。

腳本的文案和UX設計的微文案有相似的邏輯,清晰的文案可以幫助用戶更好做出下一步的指令判斷,比如「登錄有誤,請重新登錄」用戶會認為自己的操作失誤導致沒有登錄成功,可以優化成「當前系統未更新,請更新後再登錄」

簡潔的考核指標就是是否能在正常的語速下不換氣一句話讀完。

人們獲取信息高效的方式往往是短時間記憶一個精簡的信息。比如「導航去天安門,全程14公里,預計需要30分鐘」。用戶其實記憶最深刻的就是30分鐘,所以不光要精簡信息,還要把重要信息放到後面。

B.符合生活,輪流交談

鼓勵用戶自然的表達同時機器也要給出自然的反饋,讓對話更加自然有以下方法。在交流的語境中用戶說話會省略一些表達,所以也要支持理解代詞和省略的表達,「今天天氣怎麼樣」+「明天呢?」

在語音對話過程中,除了要像兩個人對話一樣,還需要語音助手需要對用戶的回答進行引導和判斷,以及提供方案。比如用戶說「今天天氣挺好的」可以回答「今天天氣氣溫11度到26度,多雲轉晴現在晴,需要打開空調嗎?」引導用戶做出指令。

C. 容納錯誤

語音交互中必須要允許有容錯機制,基本容錯也是分場景處理的,一是沒聽清,這時會讓用戶再說一遍,二是聽清了但是不具備處理問題的能力,三是識別成錯誤信息,這是再次確認即可。

3、人臉識別

A.凱迪拉克XT4的解鎖系統

通用旗下首款全面應用車聯網創新「雲服務」的車型:凱迪拉克人機互聯網系統,它的人臉識別智能身份解鎖系統堪稱黑科技。

可以觸摸B柱的按鍵,就能激活汽車,B柱的液晶屏會進行人臉掃描識別。就會解鎖成功汽車,你就能發動汽車。

為了方便你的親戚朋友使用這輛車,這套人臉識別系統還能添加多個用戶賬戶,可以實現多賬號解鎖使用,不僅要採集臉部數據,還要收集相關指紋,增加安全性。

B.拜騰K-Byte Concept:雙重保險識別系統

它推出的首款SUV車型K-Byte Concept就以科技型配置主打市場,讓這輛車科技化變成一個亮點。

最具有科技水平的還要數那一套面部識別系統,它是把解鎖和啟動集為一體,它也是把臉部識別區域設計在B柱上。

3.1人臉識別的原理

座艙內部的人臉識別主要涉及三個部分:人臉檢測、人臉鑑別、人臉確認。隨着整個互聯網信息生物化,很多平台都錄入面容信息,車機作為萬物互聯的一個點,而且隨着更多移動端的使用場景移到車內,賬戶登錄,身份認證需要在車內進行。

3.2使用場景

行駛前:上車校驗車主信息、登錄應用ID

行駛中:人臉識別是行駛中閉眼疲勞的主要工作場景,以及打電話提醒、沒有目視前、打哈欠

單純的交互會讓駕駛者更加不方便,比如只有語音,很容易產生誤指令、單純的觸控會讓駕駛員滿足不了三秒原則,語音、手勢、視覺等多個交互方式融合才能,才能讓智能系統能夠更準確、方便、安全地在各種場景和駕乘人員進行溝通。

參考鏈接

車載人臉識別系統到了哪種程度?不怕壞人用照片偷車嗎?

大家好,我是持續輸出文章,愛設計的小七!私我【車載素材】獲取乾貨資源。現組織產品設計交流群,想加進微信群拉你進群。如果大家想及時收到文章的更新麻煩大家多給我們文章點一下「在看」和「 贊 」,並在右上角「 ... 」裡面將七醬設計筆記設為星標,這樣就不會做過每一篇精彩的推送啦🥳

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 鑽石舞台 的頭像
    鑽石舞台

    鑽石舞台

    鑽石舞台 發表在 痞客邦 留言(0) 人氣()