持懷疑態度的人說,完全自動駕駛可能比預期的更遙不可及,但該行業不愿承認這一點。如果你真的相信首席執行官們的說法,全自動駕駛汽車可能會在幾個月后問世。2015年,埃隆·馬斯克預測,到2018年實現全自動駕駛的特斯拉將問世;谷歌也是如此。Delphi和MobileEye的L4系統目前計劃于2019年推出。同年,Nutonomy計劃在新加坡街頭部署數千輛無人駕駛出租車。通用汽車將于2019年大規模生產全自動駕駛汽車,無需方向盤,駕駛員也無需干預。這些預測得到了真金白銀的支持,軟件可以實現其使命,其功能正如廣告中所說的那樣強大。

乍一看,全自動駕駛似乎比以往任何時候都更觸手可及。Waymo一直在亞利桑那州一些有限但開放的道路上測試汽車。特斯拉和許多其他模仿者已經在銷售功能有限的自動駕駛系統,該系統在發生任何事故時都依賴于駕駛員的干預。已經發生了幾起事故(其中一些是致命的);然而,業內普遍認為,只要制度繼續完善,我們就不會離完全不需要干預太遠。但全自動駕駛汽車的夢想可能比我們想象的更遙不可及。人工智能專家越來越擔心,自動駕駛系統至少需要幾年甚至幾十年的時間才能可靠地避免事故。由于自我訓練系統很難應對現實世界中的混亂,像紐約大學的加里·馬庫斯這樣的專家準備對他們的期望進行痛苦的調整,這有時被稱為“人工智能的冬天”。這種延遲可能會給依賴自動駕駛技術的公司帶來災難性后果,使整整一代人無法體驗完全的自動駕駛。不難理解為什么汽車公司對自動駕駛持樂觀態度。在過去的十年里,深度學習給人工智能帶來了幾乎難以想象的進步 和技術產業;
深度學習使用分層機器學習算法從海量數據集中提取結構化信息。深度學習支持谷歌搜索、臉書新聞源、對話語音到文本的轉換算法和可以下圍棋的系統。在互聯網之外,我們使用深度學習來檢測地震、預測心臟病和標記擊中的可疑行為,還有無數其他創新是不可能的。然而,深度學習需要大量的訓練數據才能發揮作用,包括算法將遇到的幾乎每一個場景。例如,谷歌圖像等系統擅長識別動物,只要它們有訓練數據來顯示每只動物的樣子。Marcus將這項任務稱為“插值”,并調查了所有標記為“豹貓”的圖像,以確定新圖像是否屬于豹貓的類別。工程師們可能會找到另一種方法來確定數據的來源以及如何組織數據,但這對算法的覆蓋范圍施加了嚴格的限制。同樣的算法無法識別豹貓,除非它看過數千張豹貓的照片,即使它看過家貓和美洲豹的照片,并且知道豹貓介于這兩種動物之間。這個過程被稱為“概括”,需要一套不同的技能。長期以來,研究人員認為他們可以通過適當的算法來提高泛化能力,但最近的研究表明,傳統的深度學習比我們想象的要糟糕。一項研究發現,當面對不同的視頻幀時,傳統的深度學習系統甚至很難泛化。只要視頻背景稍微改變,同一只北極熊就會被貼上狒狒、貓鼬或黃鼠狼的標簽。由于每一種分類都是基于數百個因素,即使照片上的微小變化也可能完全改變系統的判斷,而其他研究人員在對抗數據集中利用了這一點。Marcus提到,對聊天機器人的狂熱是炒作泛化問題的最新例子。他說:“2015年,一些制造商向我們承諾推出聊天機器人,但他們沒有做任何好事,因為這不僅僅是收集數據的問題。”當你在網上與某人交談時,你不只是想讓他們重復之前的對話。你希望對方對你說的話做出回應,并使用更廣泛的對話技巧來做出專門針對你的回應。深度學習根本無法制造出這樣的聊天機器人。一旦最初的炒作消退,許多公司對聊天機器人項目失去了信心,現在只有少數公司仍在積極開發。這讓特斯拉和其他自動駕駛公司面臨著一個可怕的問題:自動駕駛汽車會像圖像搜索、語音識別和其他人工智能成功故事一樣變得越來越好嗎?或者你會遇到像聊天機器人這樣的泛化問題嗎?自動駕駛是一個插值問題還是一個泛化問題?駕駛有多不可預測?現在知道結果還為時過早。馬庫斯說:“無人駕駛汽車就像科學實驗,我們不知道答案。”我們以前從未達到過這種水平的自動駕駛,所以我們不知道這是一項什么樣的任務。如果我們只識別熟悉的物體并遵守規則,那么現有的技術應該能夠勝任這項任務。然而,Marcus擔心,在事故多發的場景中安全駕駛可能比預期的更復雜,但該行業只是不想承認這一點。“只要出現令人驚訝的新情況,這對深度學習來說就不是一件好事。”我們的實驗數據來自公開的事故報告,每一份報告都提出了一個不同尋常的問題。在2016年的一場致命車禍中,一輛特斯拉Model S全速撞上了一輛白色拖車的尾部,因為高高的拖車底盤和耀眼的陽光反射讓汽車感到困惑。今年3月,優步的一輛自動駕駛汽車撞死了一名推自行車的女子,當時她正在穿過一條未經授權的人行橫道。根據國家運輸安全委員會的報告,優步的軟件錯誤地將這名女子識別為未知物體,然后是汽車,最后是自行車,并每次更新預測。在加利福尼亞州的一次車禍中,一輛Model X在撞擊前加速沖向障礙物,原因尚不清楚。每一次事故似乎都是一種極端情況,這種情況不能要求工程師提前預測。但幾乎每一場車禍都涉及到一些意想不到的場景;
如果沒有泛化能力,自動駕駛汽車將不得不面對每一個場景,就好像這是第一次一樣。結果是一系列幸運的事故:隨著時間的推移,這些事故并沒有變得不那么常見或危險。對于懷疑論者來說,手動脫離報告表明,這種情況已經陷入停滯。吳恩達(Andrew Ng)是前百度高管,Drive.AI董事會成員,也是業界最著名的推廣人之一。他認為,問題不在于建立一個完美的駕駛系統,而在于訓練旁觀者預測自動駕駛行為。換句話說,我們可以確保汽車的道路安全,而不是反過來。作為一種不可預測的情況,我問他是否認為現代系統可以應付踩著彈簧高蹺的行人,即使他以前從未見過他們。吳恩達(Andrew Ng)告訴我:“我認為許多人工智能團隊可以處理行人在人行橫道上踩高蹺的情況。話雖如此,在高速公路中間踩彈簧高蹺確實很危險。“吳恩達說:”我們應該與政府合作,要求人們遵守法律,考慮他人,而不是設計人工智能來解決彈簧高蹺的問題。安全不僅與人工智能技術的質量有關。“深度學習并不是唯一的人工智能技術,許多公司已經在探索替代方案。盡管技術在行業中受到嚴格保護(看看Waymo最近對優步的訴訟就知道了),許多公司已經轉向基于規則的人工智能,這是一種古老的技術,允許工程師將特定的行為或邏輯硬編碼到其他自主系統中。它沒有同樣的能力僅僅通過研究數據來編程自己的行為,這就是為什么深度學習如此令人興奮,但它可以讓公司避免深度學習的一些局限性。然而,由于感知的基本任務仍然深受深度學習技術的影響,很難說工程師在隔離潛在錯誤方面會有多成功。Lyft董事會成員、風險投資家Ann San Pu-ko表示,她認為問題的一部分在于對自動駕駛汽車本身寄予厚望,而除了完全自動駕駛之外的任何系統都被歸類為失敗。San Pu Kang表示:“期望自動駕駛汽車從零進入L5是一種期望錯配,而不是技術上的失敗。我認為所有這些微小的改進都是在全自動駕駛道路上取得的非凡成就。”然而,目前尚不清楚自動駕駛汽車將在這種困境中持續多久。特斯拉的自動駕駛系統等半自動產品具有足夠的高度智能,可以應對大多數情況,但如果出現任何不可預測的情況,仍然需要人工干預。當真的出了問題時,很難知道是該怪汽車還是該怪司機。對于一些評論家來說,這種人機混合動力可能不如人類駕駛員安全,即使很難完全歸咎于機器。蘭德公司的一項研究估計,自動駕駛汽車必須行駛2.75億英里而不發生致命事故,才能證明它們和人類司機一樣安全。第一例與特斯拉自動駕駛系統有關的死亡發生在距離約1.3億英里的地方,遠低于這一標準。然而,由于深度學習是汽車識別物體并決定處理物體的關鍵,因此降低事故率可能比看起來更困難。杜克大學教授Mary Cummings在談到今年早些時候導致一名行人死亡的優步事故時說:“這不是一個容易孤立的問題。感知決策周期往往是相互關聯的,就像導致行人死亡的事故一樣。由于感知的模糊性,我決定不采取任何行動;
由于傳感器發出的假警報太多,緊急制動系統被關閉。“這起車禍以優步暫停其夏季自動駕駛測試而告終,這對其他計劃推廣該測試的公司來說是一個不祥的跡象。在這個行業,許多公司爭相獲得更多數據來解決問題,認為里程數最多的公司將建立最強大的系統。但盡管許多公司認為這只是數據問題,但馬庫斯認為這要多得多很難解決。Marcus說:“他們只是使用他們現有的技術,并希望它能發揮作用。他們依賴大數據,因為這是他們手頭的利器,但沒有證據表明它能讓你達到我們需要的精度。”懷疑論者說,全自動駕駛可能比預期的更遙不可及,但該行業不愿承認這一點。如果你真的相信首席執行官們的話,全自動駕駛汽車可能會在幾個月后問世。2015年,埃隆·馬斯克預測,到2018年實現全自動駕駛的特斯拉將問世;谷歌也是如此。Delphi和MobileEye的L4系統目前計劃于2019年推出。同年,Nutonomy計劃在新加坡街頭部署數千輛無人駕駛出租車。通用汽車將于2019年大規模生產全自動駕駛汽車,無需方向盤,駕駛員也無需干預。這些預測得到了真金白銀的支持,軟件可以實現其使命,其功能正如廣告中所說的那樣強大。

乍一看,全自動駕駛似乎比以往任何時候都更觸手可及。Waymo一直在亞利桑那州一些有限但開放的道路上測試汽車。特斯拉和許多其他模仿者已經在銷售功能有限的自動駕駛系統,該系統在發生任何事故時都依賴于駕駛員的干預。已經發生了幾起事故(其中一些是致命的);然而,業內普遍認為,只要制度繼續完善,我們就不會離完全不需要干預太遠。但全自動駕駛汽車的夢想可能比我們想象的更遙不可及。人工智能專家越來越擔心,自動駕駛系統至少需要幾年甚至幾十年的時間才能可靠地避免事故。由于自我訓練系統很難應對現實世界中的混亂,像紐約大學的加里·馬庫斯這樣的專家準備對他們的期望進行痛苦的調整,這有時被稱為“人工智能的冬天”。這種延遲可能會給依賴自動駕駛技術的公司帶來災難性后果,使整整一代人無法體驗完全的自動駕駛。不難理解為什么汽車公司對自動駕駛持樂觀態度。在過去的十年里,深度學習給人工智能帶來了幾乎難以想象的進步 和技術產業;
深度學習使用分層機器學習算法從海量數據集中提取結構化信息。深度學習支持谷歌搜索、臉書新聞源、對話語音到文本的轉換算法和可以下圍棋的系統。在互聯網之外,我們使用深度學習來檢測地震、預測心臟病和標記擊中的可疑行為,還有無數其他創新是不可能的。然而,深度學習需要大量的訓練數據才能發揮作用,包括算法將遇到的幾乎每一個場景。例如,谷歌圖像等系統擅長識別動物,只要它們有訓練數據來顯示每只動物的樣子。Marcus將這項任務稱為“插值”,并調查了所有標記為“豹貓”的圖像,以確定新圖像是否屬于豹貓的類別。工程師們可能會找到另一種方法來確定數據的來源以及如何組織數據,但這對算法的覆蓋范圍施加了嚴格的限制。同樣的算法無法識別豹貓,除非它看過數千張豹貓的照片,即使它看過家貓和美洲豹的照片,并且知道豹貓介于這兩種動物之間。這個過程被稱為“概括”,需要一套不同的技能。長期以來,研究人員認為他們可以通過適當的算法來提高泛化能力,但最近的研究表明,傳統的深度學習比我們想象的要糟糕。一項研究發現,當面對不同的視頻幀時,傳統的深度學習系統甚至很難泛化。只要視頻背景稍微改變,同一只北極熊就會被貼上狒狒、貓鼬或黃鼠狼的標簽。由于每一種分類都是基于數百個因素,即使照片上的微小變化也可能完全改變系統的判斷,而其他研究人員在對抗數據集中利用了這一點。Marcus提到,對聊天機器人的狂熱是炒作泛化問題的最新例子。他說:“2015年,一些制造商向我們承諾推出聊天機器人,但他們沒有做任何好事,因為這不僅僅是收集數據的問題。”當你在網上與某人交談時,你不只是想讓他們重復之前的對話。你希望對方對你說的話做出回應,并使用更廣泛的對話技巧來做出專門針對你的回應。深度學習根本無法制造出這樣的聊天機器人。一旦最初的炒作消退,許多公司對聊天機器人項目失去了信心,現在只有少數公司仍在積極開發。這讓特斯拉和其他自動駕駛公司面臨著一個可怕的問題:自動駕駛汽車會像圖像搜索、語音識別和其他人工智能成功故事一樣變得越來越好嗎?或者你會遇到像聊天機器人這樣的泛化問題嗎?自動駕駛是一個插值問題還是一個泛化問題?駕駛有多不可預測?現在知道結果還為時過早。馬庫斯說:“無人駕駛汽車就像科學實驗,我們不知道答案。”我們以前從未達到過這種水平的自動駕駛,所以我們不知道這是一項什么樣的任務。如果我們只識別熟悉的物體并遵守規則,那么現有的技術應該能夠勝任這項任務。然而,Marcus擔心,在事故多發的場景中安全駕駛可能比預期的更復雜,但該行業只是不想承認這一點。“只要出現令人驚訝的新情況,這對深度學習來說就不是一件好事。”我們的實驗數據來自公開的事故報告,每一份報告都提出了一個不同尋常的問題。在2016年的一場致命車禍中,一輛特斯拉Model S全速撞上了一輛白色拖車的尾部,因為高高的拖車底盤和耀眼的陽光反射讓汽車感到困惑。今年3月,優步的一輛自動駕駛汽車撞死了一名推自行車的女子,當時她正在穿過一條未經授權的人行橫道。根據國家運輸安全委員會的報告,優步的軟件錯誤地將這名女子識別為未知物體,然后是汽車,最后是自行車,并每次更新預測。在加利福尼亞州的一次車禍中,一輛Model X在撞擊前加速沖向障礙物,原因尚不清楚。每一次事故似乎都是一種極端情況,這種情況不能要求工程師提前預測。但幾乎每一場車禍都涉及到一些意想不到的場景;
如果沒有泛化能力,自動駕駛汽車將不得不面對每一個場景,就好像這是第一次一樣。結果是一系列幸運的事故:隨著時間的推移,這些事故并沒有變得不那么常見或危險。對于懷疑論者來說,手動脫離報告表明,這種情況已經陷入停滯。吳恩達(Andrew Ng)是前百度高管,Drive.AI董事會成員,也是業界最著名的推廣人之一。他認為,問題不在于建立一個完美的駕駛系統,而在于訓練旁觀者預測自動駕駛行為。換句話說,我們可以確保汽車的道路安全,而不是反過來。作為一種不可預測的情況,我問他是否認為現代系統可以應付踩著彈簧高蹺的行人,即使他以前從未見過他們。吳恩達(Andrew Ng)告訴我:“我認為許多人工智能團隊可以處理行人在人行橫道上踩高蹺的情況。話雖如此,在高速公路中間踩彈簧高蹺確實很危險。“吳恩達說:”我們應該與政府合作,要求人們遵守法律,考慮他人,而不是設計人工智能來解決彈簧高蹺的問題。安全不僅與人工智能技術的質量有關。“深度學習并不是唯一的人工智能技術,許多公司已經在探索替代方案。盡管技術在行業中受到嚴格保護(看看Waymo最近對優步的訴訟就知道了),許多公司已經轉向基于規則的人工智能,這是一種古老的技術,允許工程師將特定的行為或邏輯硬編碼到其他自主系統中。它沒有同樣的能力僅僅通過研究數據來編程自己的行為,這就是為什么深度學習如此令人興奮,但它可以讓公司避免深度學習的一些局限性。然而,由于感知的基本任務仍然深受深度學習技術的影響,很難說工程師在隔離潛在錯誤方面會有多成功。Lyft董事會成員、風險投資家Ann San Pu-ko表示,她認為問題的一部分在于對自動駕駛汽車本身寄予厚望,而除了完全自動駕駛之外的任何系統都被歸類為失敗。San Pu Kang表示:“期望自動駕駛汽車從零進入L5是一種期望錯配,而不是技術上的失敗。我認為所有這些微小的改進都是在全自動駕駛道路上取得的非凡成就。”然而,目前尚不清楚自動駕駛汽車將在這種困境中持續多久。特斯拉的自動駕駛系統等半自動產品具有足夠的高度智能,可以應對大多數情況,但如果出現任何不可預測的情況,仍然需要人工干預。當真的出了問題時,很難知道是該怪汽車還是該怪司機。對于一些評論家來說,這種人機混合動力可能不如人類駕駛員安全,即使很難完全歸咎于機器。蘭德公司的一項研究估計,自動駕駛汽車必須行駛2.75億英里而不發生致命事故,才能證明它們和人類司機一樣安全。第一例與特斯拉自動駕駛系統有關的死亡發生在距離約1.3億英里的地方,遠低于這一標準。然而,由于深度學習是汽車識別物體并決定處理物體的關鍵,因此降低事故率可能比看起來更困難。杜克大學教授Mary Cummings,談到今年早些時候優步導致一名行人死亡的事故時說:“這不是一個容易孤立的問題。感知決策周期往往是相互關聯的,就像在導致行人死亡的事故中一樣。由于感知的模糊性,我決定不采取任何行動;緊急制動系統被關閉,因為傳感器發出的假警報太多。 “這起車禍以優步暫停其夏季自動駕駛測試而告終,這對其他計劃推廣該測試的公司來說是一個不祥的跡象。在這個行業,許多公司爭相獲得更多數據來解決問題,認為里程數最多的公司將建立最強大的系統。但盡管許多公司認為這只是數據問題,但馬庫斯認為這要多得多很難解決。Marcus說:“他們只是使用他們現有的技術,并希望它能奏效。他們依賴大數據,因為這是他們手頭的利器,但沒有證據表明它能讓你達到我們需要的那種準確性。”
在2018中國國際智能產業博覽會上,長安逸動EV460通過模擬城鎮路況場景,正完成L4級別自動駕駛汽車公開試乘體驗。
1900/1/1 0:00:009月1日2日,“2018中國500強企業高峰論壇”在西安舉行,國家千人計劃聯誼會副會長,澳大利亞國家工程院外籍院士,南方科技大學清潔能源研究院院長劉科現場演講時表示,
1900/1/1 0:00:00戴姆勒集團將選擇中國北京四維信息技術有限公司作為其在中國地區的獨家導航技術服務供應商。
1900/1/1 0:00:008月30日,韓國汽車零部件制造商萬都公司(MandoCorp
1900/1/1 0:00:00美媒稱,在經過了近十年的增長后,世界最大汽車市場的新車銷售進入自金融危機以來首個持續放慢期。伴隨著美國貿易政策的不確定性,汽車銷售利潤面臨壓力。
1900/1/1 0:00:002018年46月份日系七大車企在除中日以外的亞洲市場銷量達到132萬臺,較同期增長15,占了七家車企全球銷售總量的19。份額越大,日系車企業績越容易受到該區域市場狀況影響。
1900/1/1 0:00:00