精靈女傭正的可以幫助用戶做家務嘛?
憑什麼斷定它是人工智能,而不是人工智障?
魯柏民用疾雷汽車的自動駕駛功能來舉例,他說道疾雷汽車智能駕駛功能,其實就是葉總當初在采訪裡憧憬的智能識彆技術。
這種智能識彆技術是相通的,是巨獸工業開發出來非常成熟的識彆技術,是必然會被應用到精靈女傭身上的。
魯柏民用3D動畫方式,展現了智能識彆係統所看到的世界,與人類肉眼觀察到的世界有那些區彆,以及疾雷智能識彆係統是如何工作的。
3D動畫中,一輛疾雷汽車行駛在擁堵的馬路上。
在疾雷汽車周圍馬路上,遍布著幾十個綠色、大小不一的正方體和長方體。
這些綠色正方體和長方體,是馬路上的汽車。
再根據轎車與貨車的體積差彆,分彆用不同大小的綠色方框表示。
在馬路邊緣,是體積更小的橙黃色長方體,和紅色的立方體。
橙紅色長方體表示摩托車和電動車,紅色立方體表示的是人。
除此之外,還有用實線和虛線表示的馬路交通線,以及用不規則形狀表示的道路綠化。
以及出現在路上的其它物體,包括三角架、警示牌,以及交通錐等等。
這就是智能識彆程序看到的世界。
沒有絢麗多姿的色彩,沒有神態不一的人群,沒有五花八門的汽車品牌。
隻有可以被數字化的線條,和模型化的立體圖形。
魯柏民告訴大家,不要覺得這些圖形看似簡單。以為一個攝像頭外加一個圖形分析程序,就能完成這些圖像采集。
疾雷汽車為了能實現智能識彆功能,不僅在車身周圍安裝了六個高清探頭,在車頂擾流板處,還安裝了一台長焦攝像頭,可以在人類肉眼觀測範圍外,就鎖定遠處信號燈發出的紅綠信號。
除此之外,疾雷汽車周圍還安裝有毫米波雷達,激光雷達,一同組成感知模塊共同工作。
感知模塊對疾雷汽車周圍上百個保持運動的交通參與者,進行實時檢測與追蹤,並且對他們的下一步行為和軌跡進行預判。
如果遇到複雜物體,例如道路垃圾,臨時路障之類。
感知模塊還會根據采集到的數據進行融合判斷,路麵較小的物體,激光雷達采集到的信息非常稀疏,高分辨率攝像頭采集到的圖像清晰,但單一圖像又缺乏深度信息,不足以主導判斷結果。
這時感知模塊就會通過多幀檢測結果,與圖像信息進行融合,得到物體厘米級的坐標精度信息。
這些信息傳遞到下遊規劃與控製模塊,讓它們來主導疾雷汽車的提前減速或避讓選項。
這也是很多用戶們在開啟疾雷汽車自動駕駛後,驚喜發現自動駕駛功能,竟然能提前鎖定他們視野盲區外的行人,對他們行為軌跡提前預判。
用戶們再也不用擔心有人突然橫穿馬路,或是冷不丁一輛摩托車從後麵飛快躥過來占道。
因為疾雷汽車的感知模塊是360度工作,無論視野角度還是高度都遠超人類雙眼。
隻要是出現在感知模塊中的交通參與者,都會被牢牢鎖定。
哪怕行人暫時被車輛或綠化遮擋,感知模塊也會根據他們軌跡進行預判。
魯柏民講解完了疾雷汽車的智能識彆程序工作原理,又把3D動畫換成了一名站立在房間裡的機器人。
機器人當然是精靈女傭,此時精靈女傭看到的世界,遠比疾雷汽車在路上,看見的世界更複雜。
但無論環境複雜多少倍。
它們的環境感知模塊,與下遊規劃控製模塊工作原理是相同的,處理起來隻是算力占用的問題。
汽車變成了家電沙發,道路變成了家裡地麵,那些路障綠化,變成了家裡的瓶瓶罐罐,還有鍋碗瓢盆。
魯柏民強調,精靈女傭的感知模塊一定比疾雷汽車複雜多倍。
在無數線條與圖形組成的單調世界裡,精靈女傭通過這些複雜的傳感器,完全可以精確的把物體坐標定位到毫米級。
有了物體坐標,就等於有了可執行的運動軌跡。
以精靈女傭拿起一件衣服,丟入洗衣機為例。
用戶在下達命令後,精靈女傭隻需要融合用戶的眼神、語言、和手勢動作,就能對衣物進行鎖定。
接著規劃模塊將拿起衣服,再到丟入洗衣機的一整套動作,拆解成幾百到幾千條,精確到毫米級的空間運動軌跡。
再通過控製模塊,去控製熱神經單元組成的肌肉運動係統,完成這些空間軌跡動作。
這些動作的計算過程是複雜的,但在強悍的處理器麵前,隻需要0.01秒,就能計算完畢。
精靈女傭的智能程序,隻需要事先導入各種品牌的洗衣機參數,還有衣物與洗衣液的配比。
就能在超算中,進行幾百萬次的模擬計算,找出丟衣服最流暢的動作軌跡。
魯柏民告訴觀眾們,在精靈女傭的眼裡,拿起衣服丟到洗衣機的一整套動作,和它拿起菜刀,把一塊土豆切成絲,再丟進鍋裡沒有什麼不同。