作為技術(shù)世界中最基本的問題之一,這個問題有點難以回答。總而言之,自動駕駛汽車可能比人類駕駛的車輛更安全,但需要大量額外的工程來防止特定類型的認知盲點,這些盲點很容易導(dǎo)致事故甚至死亡。
簡單地說,自動駕駛汽車有可能變得更安全,但目前在實踐中并不安全。(另請閱讀:入侵自動駕駛汽車:這就是我們還沒有自動駕駛汽車的原因嗎?)
特斯拉的自動駕駛技術(shù)就是一個很好的例子——當(dāng)駕駛員信任車輛這項技術(shù)時,我們已經(jīng)看到了死亡事故的發(fā)生(公平地說,特斯拉一直明確表示自動駕駛只是一種部分自動駕駛技術(shù),并要求用戶不要信任該技術(shù))車輛完全到達)。
然而, PolicyAdvisor 的這份新報告顯示,自動駕駛汽車通常被認為比人類駕駛員駕駛的汽車更安全。
造成這種差異的原因與自動駕駛汽車的運行方式有關(guān)。自動駕駛汽車在防止與人類駕駛員失誤有關(guān)的多種類型事故方面要安全幾個數(shù)量級——例如,因為駕駛員沒有注意而簡單地追尾另一輛車。
自動駕駛汽車幾乎不會發(fā)生此類事故。
考慮到這一點,評估自動駕駛汽車整體安全性的一種方法是,一般來說,事故發(fā)生的次數(shù)會較少,但確實發(fā)生的罕見事故將比涉及駕駛車輛的平均擋泥板彎曲事故更嚴重由人類。
換句話說,計算機一開始就不太可能犯錯誤,但如果出現(xiàn)問題,計算機的自我糾正能力也比人類差。
事實上,作為天生的問題解決者,人類在很多方面都優(yōu)于計算機。
自動駕駛汽車設(shè)計中的一個突出問題與無法完全模擬人類反應(yīng)有關(guān),稱為價值學(xué)習(xí)問題。
價值學(xué)習(xí)問題解決了技術(shù)無法像人類那樣清楚地識別抽象風(fēng)險或抽象目標的問題。專家解釋說,人類的目標很復(fù)雜,并且基于許多不同的抽象概念。
有些可以編程;其他人則抵制實用的編程解決方案。
例如,特斯拉自動駕駛儀事故中的一起重大死亡事件涉及分叉高速公路上不尋常的物理楔子。自動駕駛軟件未能檢測到異常障礙物,從而引發(fā)了悲劇性事故。
因此,一個明顯的區(qū)別是,自動駕駛汽車對于某些類型的事故風(fēng)險極其安全,而對于其他類型的事故風(fēng)險則非常不安全,盡管它們在不斷改進。
新的創(chuàng)新也提高了自動駕駛汽車的安全性。例如,激光雷達激光器和輔助駕駛技術(shù)的使用提高了自動駕駛系統(tǒng)的能力。美國國家公路交通安全管理局等機構(gòu)的新評估計劃也解決了自動駕駛汽車的安全問題,以使這些新車在道路上更安全。區(qū)分乘用車和貨運車輛,監(jiān)管機構(gòu)可以專注于創(chuàng)建頂級安全解決方案,以解決載人自動駕駛車輛的安全問題。
上一篇我們送上的文章是
TensorFlow 在機器學(xué)習(xí)中的作用是什么? , _!在下一篇繼續(xù)做詳細介紹,如需了解更多,請持續(xù)關(guān)注。
本文由
日本NEC鋰電池中國營銷中心于2023-07-16 17:21:24 整理發(fā)布。
轉(zhuǎn)載請注明出處.