在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            博客專欄

            EEPW首頁 > 博客 > 特斯拉 vs 司機:是誰在“自動”駕駛?

            特斯拉 vs 司機:是誰在“自動”駕駛?

            發(fā)布人:硅星人 時間:2022-02-06 來源:工程師 發(fā)布文章

            要“酷”,還是要命?

            ——

            文|杜晨   編輯|VickyXiao

            特斯拉最近又出了個大新聞:被美國國家公路交通安全管理局(NHTSA)要求在美國召回近5.4萬輛汽車。

            為啥?

            這又是它的完全自動駕駛(Full Self-Driving)軟件惹的禍:它有可能讓汽車在路口的停車標志前緩慢前行,而不是完全停止。

            在美國,所有司機都知道,一旦看到路口有停車標志,不管有沒有看到其他車輛或者行人,司機都要先完全停下車,再繼續(xù)前行。所以,特斯拉自動駕駛里的這個功能妥妥地違反了不少州的法律,而且有可能會增加車禍風險。

            為什么特斯拉號稱全智能的自動駕駛,在現(xiàn)實里,卻這么多bug?當這些bug造成嚴重后果,承擔責任的,是它,還是相信了特斯拉所描述的美好場景的司機?


            司機or汽車:誰的錯?

            上個月,全球第一樁涉及到特斯拉 Autopilot 的嚴重刑事起訴,浮出水面。

            此案當中的事故,發(fā)生在2019年的洛杉磯郊區(qū) Gardena.

            2019年12月29日深夜,司機 Kevin Riad 駕駛一輛特斯拉 Model S,從高速公路下匝道時,以較高的速度闖了紅燈,并且撞上一輛正常行駛通過路口的本田小轎車。事故導致本田車上兩人當場死亡,Riad 和特斯拉車上另一名女性乘客受到輕傷,目前已恢復。兩輛汽車均已報廢。

            事后,美國公路交通安全管理局 NHTSA 宣布派出特別調(diào)查組。在此之前,這支特別調(diào)查組已經(jīng)對十多起和特斯拉 Autopilot 功能相關的車禍事件展開了調(diào)查。

            去年10月,加州檢方正式對 Riad 發(fā)起了重罪指控 (felony charge),包括兩項交通肇事致人死亡 (vehicular manslaughter) 的罪名。首次開庭安排在今年2月23日。

            需要明確的是,本案的被告人是當時肇事車輛的司機。

            盡管 Autopilot 技術無疑在事故中扮演了關鍵的角色,并且也將在本案的審理過程中被著重提及——但該技術本身,以及特斯拉公司,并非本案的被告。

            (不過,美國聯(lián)邦和各地監(jiān)管部門,同時也在 Autopilot 功能對特斯拉公司展開調(diào)查。)

            此案也是目前全美已知的第一起涉及 Autopilot 功能,并且起訴對象為肇事駕駛員的重罪案件。這也意味著:即使司機認為汽車在“自動駕駛”,司機自己仍然是事故的責任人。

            多位自動駕駛相關法律事務專家,包括南卡羅萊納州大學法學教授 Briant W. Smith,和律師 Donald Slavik 等表示,這次加州公訴 Riad 一案,是第一樁涉及相關輔助/自動駕駛功能致人死亡的嚴重刑事訴訟案件。

            除此之外車禍受害者的家人也已經(jīng)分別向肇事司機和特斯拉公司發(fā)起了民事訴訟。受害者 Lopez 的家人在起訴書宣稱,那輛 Model S 在事故發(fā)生“突然加快到無法控制的速度”,并且指控肇事者 Riad 本人此前的駕駛非常不干凈,屬于“危險駕駛者”。這些民事起訴將作另案審理,和本次的加州公訴暫時無關。


            自動駕駛 or 輔助駕駛?

            如果你對電動車本身以及相關的技術行業(yè)有足夠多的了解,你可能會知道,被特斯拉命名為“Autopilot”的這一功能,并非真正的“自動駕駛”系統(tǒng)。

            本質(zhì)上,Autopilot 就是很多汽車都有的輔助巡航功能的“升級版”,可以實現(xiàn)定速巡航、跟隨車道、調(diào)整車速等操作。該功能從2019年4月之后的車型開始標配,無需額外付費;2016-2019年的車型均包含了 Autopilot 所需的硬件,需要付費才能激活。

            按照行業(yè)廣泛接受的國際汽車工程師協(xié)會 (SAE International) 標準,Autopilot 處于 L2-L3 之間,并未達到公認的“自動駕駛”的水平。

            比方說,SAE 標準(見下圖)對于 L3 的一個重要指標,就是在特定情況下駕駛員可以無需關注路況;而特斯拉在功能說明和教學的時候也會告知車主,即使開始了 Autopilot 功能,駕駛員也仍需要保持注意力。

            Autopilot 還有一個 FSD 模式,可以自動進行轉(zhuǎn)換車道、根據(jù)周圍交通情況自動調(diào)整車速、變換車道、駛?cè)腭偝鲈训馈⒆詣硬窜?、根?jù)信號燈/停車指示牌完成操作等更多功能。

            FSD 的全稱是 Full Self-Driving(完全自主駕駛),其中大部分功能均已商業(yè)化;少數(shù)功能仍處于公測階段 (Beta),但也對市售車型的消費者開放,只要付費升級 FSD,即可開啟。

            然而,監(jiān)管部門似乎并不認同特斯拉的說法和做法。

            在加州公訴 Riad 一案中,NHTSA 直接發(fā)表聲明,宣稱:

            1)盡管許多車輛都有輔助駕駛功能,在法律上,只有駕駛者本人才是責任主體。

            2)所有的汽車,不管是否有部分自動駕駛功能,這些功能是否開啟,都要求駕駛者必須保持全程的控制。(every vehicle requires the human driver to be in control at all times.) 

            3)沒有任何的市售汽車能夠?qū)崿F(xiàn)自動駕駛。(no vehicle on sale that can drive itself.)

            從 NHTSA 的表態(tài)中可以我們可以明確:截至目前,對于涉及到 Autopilot 以及類似輔助駕駛功能的交通事故案件,這些功能的確是事故發(fā)生的直接誘因。然而,監(jiān)管部門的思路,仍然是將肇事司機作為責任主體和懲治對象。

            不過,就前述的第三條來看,考慮到特斯拉公司和其高管過去曾在許多場合嚴重夸大 Autopilot 功能的實際能力和特斯拉自動駕駛技術的先進性——NHTSA 的聲明,也直接駁斥了他們的口徑。

            2016年5月7日,美國俄亥俄州,一輛開啟了 Autopilot 功能的 Model S 撞上一輛卡車。駕駛員當場死亡,Autopilot 在美國奪走了第一條生命。當時,該功能剛剛上線半年之久。

            根據(jù)硅星人統(tǒng)計,自從該功能發(fā)布以來,全球已知確認與 Autopilot 功能相關的交通事故已經(jīng)造成至少6人死亡、多人嚴重受傷。

            美國國家運輸安全委員會 NTSB(一個政府屬性的民用交通事故調(diào)查機構(gòu)),已經(jīng)對至少28起特斯拉電動車傷亡事故展開特別調(diào)查。這些事故涉及包括 Autopilot、電池起火、剎車失靈等諸多因素。

            去年,NHTSA 發(fā)布政府簡報,宣布正式就11起涉及 Autopilot 的具體事故,對特斯拉公司,以及其推出的 Autopilot、交通感知巡航系統(tǒng) (TACC) 等功能的設計能力,展開更加詳盡的調(diào)查。

            而在歐洲,特斯拉的過度宣傳問題已經(jīng)受到政府重視了。比如在德國,反不正當競爭監(jiān)管機構(gòu)在2020年起訴了特斯拉,指責 Autopilot、FSD 的命名和宣傳行為構(gòu)成了誤導公眾的行為,并且道路運行車輛開啟這些功能,違反交通安全法規(guī)。

            該案中,法院判定特斯拉敗訴。從此,特斯拉被禁止在德國使用 Autopilot、FSD 之類的字眼,并且在營銷宣傳內(nèi)容中也不得繼續(xù)誘導消費者相信其在“自動駕駛”方面的能力。


            要酷 or 要命?

            很多硅星人的讀者應該記得,在2018年,101高速的 Mountain View 路段,華人車主 Walter Huang 駕駛一輛 Model X ,在正常前進行駛中突然撞上了混凝土隔離帶,不幸殞命。

            當時,車上就開啟了 Autopilot 功能,然而這輛高配 Model X 搭載的諸多強大的的傳感器,和先進的道路掃描軟件算法,都沒能及時發(fā)現(xiàn)前方道路收窄,導致了事故發(fā)生。

            相關調(diào)查顯示,這位車主在生前已經(jīng)幾次對自己的妻子、家人和其它 Model X 車主吐槽過 Autopilot 功能不好用。具體來說, Autopilot 已經(jīng)好幾次把車往他后來喪命的那條隔離護欄上拐了。

            Huang 生前在蘋果擔任工程師,然而就連他都沒能對 Autopilot 功能局限有足夠清楚的認識,就更別提那些非科技從業(yè)者,對電動車和輔助/自動駕駛技術不夠熟悉的普通車主了。

            很多車主選擇特斯拉,看中的正是它的高科技屬性,給人很“酷”的感覺。而 Autopilot,又似乎是人們期待已久的自動駕駛技術,在大規(guī)模市售車型中的最早也最高調(diào)的應用

            結(jié)果就是,某些壓根沒有達到自動駕駛標準的輔助駕駛技術,包裝在自動駕駛的假面之下,非但沒有讓道路交通更加安全,反而釀成了更多事故。

            歐盟新車安全評鑒協(xié)會成員、英國汽車安全專家 Matthew Avery 接受當?shù)孛襟w采訪時曾表示,特斯拉在 Autopilot、FSD 等功能的宣傳上極具誤導性,容易讓那些對技術不太熟悉的消費者,誤以為他們花錢升級了 Autopilot/FSD 之后,自己的汽車就獲得完全自動駕駛的能力了。

            “Autopilot 導致的許多事故都是致命的。這些司機究竟是在鬧著玩,或者因為更糟糕的情況——他們真的相信 Autopilot 就是完全自動駕駛——我們無從得知?!?/span>

            去年,特斯拉向一部分車輛推送了 FSD beta 9 測試版軟件,讓這部分車主給特斯拉提供路測數(shù)據(jù)。

            但是一些車主很快發(fā)現(xiàn),這一版本的 FSD 非常不穩(wěn)定、不安全,會把月亮當成信號燈,還會時不時竄入自行車道。如果真的讓這些車上路,它們毫無疑問將會成為嚴重的道路安全隱患。

            消費者權益機構(gòu)《消費者報告》(Consumer Reports) 發(fā)布了調(diào)查報告,宣稱特斯拉推送的 FSD 測試軟件缺乏安全防護,對其它道路參與者帶來嚴重風險。

            近日,一家名為 The Dawn Project 的社會公益機構(gòu),在《紐約時報》上刊登了一則整版廣告,題為“不要成為特斯拉碰撞測試假人”,指責 FSD 功能的技術可靠性、安全性非常糟糕,特斯拉面向市售車型提供該功能,讓車主成為路測“小白鼠”的做法是在草菅人命。

            “一家《財富》500強公司,銷售的數(shù)千輛汽車,運行著最糟糕的軟件,在公開道路上行駛,而我們的家人將成為這些汽車碰撞測試的假人——這不是我們想要的,”廣告寫道。

            賣了這么多年,特斯拉電動車的普及程度現(xiàn)如今已經(jīng)非了,它的獨特感、科技感,給車主身份增添的“酷”的標簽,也不如從前了。

            而我們在今天觀察到的是:Autopilot、FSD 等實際是輔助駕駛,卻被宣傳夸大為自動駕駛的功能,正在延續(xù)著特斯拉作為一個“酷”品牌的生命。

            然而,讓車主對這些功能產(chǎn)生錯覺,進而誘發(fā)更多的交通事故、生命和財產(chǎn)損失——這件事,可一點都不酷。


            *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



            關鍵詞: 特斯拉

            相關推薦

            技術專區(qū)

            關閉