🔥 PTT.BEST 熱門專區 💬 八卦 Gossiping 😊 希洽 C_Chat 💰 股票 Stock 🏠 房屋 home-sale 🏀 美國職籃 NBA ⚾ 棒球 Baseball 👛 省錢 Lifeismoney 🚗 汽車 car 😡 政黑 HatePolitics 💻 電蝦 PC_Shopping 🥰 韓星 KoreaStar ✨ 英雄聯盟 LoL 🍿 電影 movie 🪖 軍事 Military 📡 通訊 MobileComm 🏀 台籃 basketballTW 🍼 寶媽 BabyMother 🇯🇵 日旅 Japan_Travel 🏭 科技 Tech_Job 👧 女孩 WomenTalk 👻 媽佛 marvel 💳 卡版 creditcard 👉 NS NSwitch 👉 PS5 PlayStation 👉 大氣 TY_Research 👉 婚姻 marriage 👉 台南 Tainan 👉 台中 TaichungBun 👉 Steam Steam 👉 高雄 Kaohsiung 👉 羽球 Badminton 👉 超商 CVS 👉 米哈遊 miHoYo 👉 iOS 👉 兄弟 Elephants 👉 日劇 Japandrama 👉 玄幻 CFantasy 👉 ES e-shopping 👉 WOW 👉 遊戲交易 Gamesale 👉 4X BaseballXXXX 👉 Lakers 👉 韓劇 KoreaDrama 👉 汽車買賣 CarShop 👉 機車 biker 👉 新竹 Hsinchu 👉 美保 BeautySalon 👉 串流 OTT 👉 歐美影集 EAseries 👉 手機交易 mobilesales 👉 裏洽 AC_In 👉 健身 MuscleBeach 👉 MacShop 👉 Lions 👉 FGO FATE_GO 👉 中劇 China-Drama 👉 數位貨幣 DigiCurrency 👉 暗黑 DIABLO 👉 實習教師 studyteacher 👉 航空 Aviation 👉 藝文票券轉售 Drama-Ticket 👉 韓綜 KR_Entertain 👉 美妝 MakeUp 👉 速食 fastfood 👉 手錶 watch 👉 體適能 FITNESS 👉 攝影 DSLR 👉 Headphone 👉 嘻哈 Hip-Hop 👉 轉珠 PuzzleDragon 👉 美食 Food 👉 蔚藍 BlueArchive 👉 數位相機交易 DC_SALE 👉 筆電蝦 nb-shopping 👉 軟工 Soft_Job 👉 汪踢 Wanted 👉 台綜 TW_Entertain 👉 坂道閒聊 SakaTalk 👉 貓咪 cat 👉 日GO BabyProducts 👉 TypeMoon 👉 MLB 👉 職場 Salary 👉 臺劇 TaiwanDrama 👉 海賊王 ONE_PIECE 👉 PMGO PokemonGO 👉 國營 Gov_owned 👉 碧航 AzurLane 👉 家電 E-appliance 👉 布蘭德 Brand 👉 DMMG DMM_GAMES 👉 贈送 give 👉 神魔 ToS 👉 銀行服務板 Bank_Service 👉 原創 YuanChuang 👉 期權 Option 👉 重機 SuperBike
※ 引述《leefengynh (/65G ・ 125/250K1W)》之銘言: : 看起來是造假的 : https://imgur.com/5KHC7Ew : https://imgur.com/RnPOd5C : 撞車前一秒就把AP取消了 畫面中汽車旁邊兩條藍線消失 就代表AP已經取消了 : 目前還是找不出哪一家車廠的自動駕駛能趕上特斯拉fsd的 你說了一堆,其實你的理論根本沒搞清楚狀況 今天Mark Rober的實驗,就是故意去製造純視覺的障礙 他收了LiDar的贊助,就是要表現出純視覺的限制阿 你在那邊瞎扯一堆,但純視覺物理限制還是在那邊 我先問,AP的AEB功能跟FSD的資訊輸入源頭是不是都是攝影機? 那你怎麼覺得在同樣輸入源的情況,FSD能展現出與AP不同的天眼通? 還是你要說Tesla為了賣FSD沒把AP的AEB能力升級到天眼通的能力? 其實很多人把LiDar拿來當所謂的自動駕駛控制設備 但根本搞錯方向,LiDar只是其中一個訊號接收源而已,如同攝影機或雷達 FSD是在"攝影機"可視情況下透過類神經網路演算法達到高度自動駕駛控制 那你說FSD未來能不能整合LiDar? 廢話當然可以,甚至這樣組合的FSD一定更強 老實說我覺得FSD在面對一些極端環境應該就停下來或是關閉 Tesla為什麼不用LiDar? 因為成本考量阿 哪天LiDar價格下降會不會轉彎也不知道 事實上,Nvidia solution就是準備純視覺+LiDar以及各式各樣感測器的混合體 當然用得起老黃產品的車廠大概也都是豪華車等級 (Mercedes/Volvo/JLR之類的) Tesla現在走的很前面沒錯,但老黃純視覺也不是吃素的 很多人看到Tesla就急急忙忙跳出來護航或跳出來嘲諷 根本沒搞清楚整件事情的本質和設備 你今天換成LiDar要你去辨識路標、顏色之類也是不可能 我也承認純視覺是邁入高階自駕的主力,但LiDar目前看起來是完成純自駕的最後防線 兩者本質上是可以互補的 不要因為Tesla想省成本就在那邊搞非A即B好嗎 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 136.226.240.114 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/car/M.1742340330.A.B6F.html ※ 編輯: zzahoward (136.226.240.114 臺灣), 03/19/2025 07:30:53
Killercat: 不過這影片有問題的地方不在這裡 03/19 08:34
Killercat: 其實這是一個很好證明LiDAR能在某些情況下有用的機會 03/19 08:35
Killercat: 但是看起來Mark Rober搞砸了 造成只能當相罵本了 03/19 08:35
Killercat: 至於路上有多少機會碰到這種scenario我覺得反而是其次 03/19 08:36
Killercat: 就算路上碰不到 這也是個很好的POC案例 03/19 08:37
leefengynh: 不要不懂裝懂了啦 03/19 08:43
leefengynh: 會不會撞是由演算法決定的 03/19 08:43
leefengynh: 人類為什麼看得出那是塊板子 03/19 08:43
leefengynh: ai就看不出來 03/19 08:43
leefengynh: 廢話一堆 03/19 08:43
leefengynh: ai的智商是由演算決定的 03/19 08:45
leefengynh: 而fsd就是不會撞 所以他才不敢用fsd測試 03/19 08:45
leefengynh: 而ap也不會撞 所以他才故意關掉ap 03/19 08:45
leefengynh: 而aeb可以事前先關閉 所以aeb才沒發揮作用 03/19 08:45
leefengynh: 整件事就是他開車自己去撞的xdddd 03/19 08:45
tony890415: 無腦特粉會說激光雷達會干擾 03/19 08:46
leefengynh: 要講liadar多強 03/19 08:48
leefengynh: 先舉實際已經在路上跑的產品出來 03/19 08:48
leefengynh: 不要自己幻想 根本還沒出現在地球上的產品xdddd 03/19 08:48
leefengynh: 事實上就是lidar的自駕車已經在路上跑的去全部不如純 03/19 08:48
leefengynh: 視覺 03/19 08:48
leefengynh: 光達多強都是幻想出來的 xdxd 03/19 08:49
leefengynh: 實際產品都生不出來 03/19 08:49
leefengynh: 什麼nvidia說要合作做自駕車幾年了 03/19 08:50
jdkcupid: 人類看得出來因為對不規則反光的處理啊, 03/19 08:50
leefengynh: 生出什麼屁了 03/19 08:50
jdkcupid: 光達就是直接對反射做處理 03/19 08:50
leefengynh: 特斯拉都已經獲得加州無人計程車營運許可了 03/19 08:50
leefengynh: 老黃的車在哪裡xdddddd 03/19 08:50
leefengynh: 人類看得出來 是因為大腦的視覺聯合區解析的出來 03/19 08:51
Killercat: er... Waymo就是LiDAR solution阿 03/19 08:52
Killercat: 不過應該不是使用老黃的那套就是 03/19 08:52
leefengynh: 你的大腦視覺聯合區被打爛 你就算有視覺 你也判斷不 03/19 08:53
leefengynh: 出什麼鬼lol 03/19 08:53
leefengynh: 而視覺聯合區 在ai內就是所謂的演算法 03/19 08:53
Killercat: 我倒是覺得成本不是最大障礙 障礙在於LiDAR無法像純視 03/19 08:53
joybarbarian: Z大我最近有去試(舊)MYP,還蠻好玩的說 03/19 08:53
Killercat: 覺一樣快速從影片中獲得學習能力 03/19 08:53
jinshun: 特斯拉已經公開解釋好幾次為何不用Lidar了 包括發表會和 03/19 08:53
jinshun: 法說會 甚至外資論壇 和省成本沒有關係 03/19 08:54
不是為了成本FSD+LiDar的Integration絕對更強啦 純視覺很強,但就是有物理限制阿,攝影鏡頭終究還是平面用演算法去判斷 光達可以打反射出來繪製出3D
leefengynh: waymo出包還不夠多嗎 居然有人敢舉waymo xddd 03/19 08:54
leefengynh: 搞了10年全美至今才709台車 03/19 08:54
leefengynh: 你們卻不知道他滿是問題lol 03/19 08:54
Killercat: 其實我覺得說省成本的可能是跟前保桿攝影機混為一談了 03/19 08:54
Killercat: 那個就真的完全就是成本考量 XD 03/19 08:55
Killercat: Waymo出包規出包 但是它的確是運營中的LiDAR Solution 03/19 08:55
leefengynh: 這裡很多草包不知道waymo很弱xddd 03/19 08:57
leefengynh: waymo後台 人車比是1:2 03/19 08:57
leefengynh: 用1個人在開2台車 03/19 08:57
leefengynh: 你跟我說光達車有什麼好績效xddd 03/19 08:57
leefengynh: waymo的遠程接管比例多高 03/19 08:57
ppegg: 人的視覺就不包括lidar。如果是要類人駕駛靠純視覺+演算法 03/19 08:57
leefengynh: 需要1個人盯著2台車 03/19 08:57
ppegg: 終究可以。多幾個攝影機或lidar則可以超越人類駕駛 03/19 08:58
Killercat: 他弱歸弱 但是的確是LiDAR Solution目前最遠的 而且說 03/19 08:58
Killercat: 起來也至少要等Cybercub運營個一陣子再來比較吧 03/19 08:58
leefengynh: waymo的安全性統計起來比全美人類司機還低 還光達勒 03/19 08:58
ppegg: lidar不是人類的經驗,很難用人協助訓練吧 03/19 09:00
leefengynh: 每40萬英里就出現一次報警事故 03/19 09:00
leefengynh: 全美人類是70萬 03/19 09:00
leefengynh: waymo搞了10年才勉強逼近40萬 最近幾年已經在40萬停 03/19 09:00
leefengynh: 滯不前 03/19 09:00
leefengynh: 光達車看waymo那個死樣子 極限就是那樣 03/19 09:02
leefengynh: 另外一家光達車 cruise已經退出市場了 03/19 09:02
Killercat: 可以合理預期Cybercab表現更好啦 但是先等看看吧 03/19 09:02
leefengynh: cruise直接輾過人 你跟我說光達好棒棒xddd? 03/19 09:03
leefengynh: waymo 你大概沒看過 載著乘客直接失控原地繞圈的新聞 03/19 09:03
leefengynh: 需要後台用1個人類 接管2台車 03/19 09:05
leefengynh: 而不是1個人類 管20台車 03/19 09:05
leefengynh: 就可以知道waymo 遇到很多場景走不動需要人類解圍的 03/19 09:05
leefengynh: 比率有多高了xddd 03/19 09:05
leefengynh: 如果waymo的自駕技術靠譜 03/19 09:10
leefengynh: 早就幾萬台遍佈全美了 03/19 09:10
leefengynh: 還會搞了幾百年才700台車? 03/19 09:10
leefengynh: 全美計程車+uber+lyft有100萬台 03/19 09:10
leefengynh: 你waymo玩了10年 700台 明眼人都知道技術遇到瓶頸了 03/19 09:10
你根本搞不清楚我說的 純視覺是高等級自動駕駛主力沒問題,但LiDar可以成為最後一道防線 讓車子更安全、偵測距離更遠、範圍更廣 兩者可以互補而不是只能擇一
timk7: 先等特斯拉上線有實績再說吧,不然說誰一定強也沒結果 03/19 09:13
Killercat: er..你是老頭嗎 一直重覆一些大家都知道的事 =_=a? 03/19 09:13
kira925: 就是因為只有這水準 所以他只能一直洗一樣的吧 03/19 09:15
tony890415: 真的 特斯拉的AEB數據就是不如對岸光達車 但是FSD智駕 03/19 09:16
tony890415: 能力又比對岸光達車強 懷疑是AEB沒加入AI演算 03/19 09:17
tony890415: 因為特斯拉晚間AEB大概只能到7-80公里煞停 但是華為 03/19 09:17
tony890415: 的可以到110 03/19 09:17
tony890415: 很懷疑是為了賣FSD所以把AEB AP的算力閹掉了 03/19 09:29
tony890415: 但另一個角度 有買FSD的車子在人駕時 AEB看測試也沒 03/19 09:29
tony890415: 變好 一樣爛 跟傳統車廠差不多 03/19 09:30
leefengynh: 「lidar成為最後一道防線」 03/19 09:31
leefengynh: 這就是光達派「靠感覺」所說出的一句話 03/19 09:31
leefengynh: 事實上lidar和鏡頭 很常發生矛盾的情況 03/19 09:31
leefengynh: 「矛盾傳感器」是不能讓你作為安全冗餘使用的 03/19 09:31
leefengynh: 一個傳感器判斷前面是硬物障礙物 要剎車 03/19 09:31
leefengynh: 一個傳感器判斷前面是氣體障礙物 要緩慢通過 03/19 09:31
leefengynh: 請問要聽誰的? 03/19 09:31
leefengynh: 用最高標準去把它當硬物煞車 03/19 09:31
leefengynh: 明明只是濃霧 你急煞被後車追撞嗎 03/19 09:32
leefengynh: AEB可以請關掉 03/19 09:33
leefengynh: 那個人已經被證明造假 03/19 09:33
leefengynh: 既然是造假仔 那合理推斷就是會偷把aeb關掉 03/19 09:33
leefengynh: aeb不是ai 03/19 09:34
tony890415: 你去看之前的實測影片 特斯拉AEB很多場景就是沒反應 03/19 09:35
tony890415: 不然就是太晚 我自己本人也撞過 03/19 09:35
kira925: ....可以確定某l一竅不通只會洗文了 03/19 09:35
leefengynh: 就一直以為「光達=超感官」真的笑死 03/19 09:37
leefengynh: 光達明明就某某些方面比人眼強 03/19 09:37
leefengynh: 但多數方面都比人眼還廢 03/19 09:37
kira925: 航空器早就都有類似的實作 在那邊洗文 03/19 09:37
leefengynh: 你kira925先讀書再來吧 連光達的缺點是什麼都不知道 03/19 09:38
leefengynh: 就幻想超感官xddd 03/19 09:38
lll156k1529: 別跟那個身分仔講話= = 03/19 09:38
tony890415: @l 我覺得跟光達無關 因為同樣有光達的車 AEB程度還是 03/19 09:38
tony890415: 有差 我覺得是特斯拉AEB沒套好AI 03/19 09:38
leefengynh: 航空器用雷達居多 誰跟你用光達 03/19 09:39
kira925: 那三個字只有你在寫 03/19 09:39
tony890415: 特斯拉的AEB看起來就跟傳統車廠差不多 03/19 09:39
kira925: 你慢慢洗文 慢走不送 03/19 09:39
leefengynh: 航空跟開車一樣嗎 03/19 09:40
leefengynh: 天空又不像路面擁擠 開飛機就算都人眼都被雲層擋住 03/19 09:40
leefengynh: 也沒差 03/19 09:40
leefengynh: 講不出個屁 人就走了 xdddd 03/19 09:41
leefengynh: 那不如一開始就不要浮出來 03/19 09:41
leefengynh: 航空器裝光達 我聽過最好笑的笑話 03/19 09:42
leefengynh: 還是你雷達跟光達分不清楚xdd 03/19 09:42
kira925: 冗餘度跟多數決 誰跟你在那邊分高低 03/19 09:43
kira925: 光達還是雷達根本不是重點 03/19 09:43
leefengynh: 光達 vs 純視覺 就只剩你們這群外行人一直在爭 03/19 09:45
leefengynh: 業界都在拼演算法了 03/19 09:45
leefengynh: 拿rule based時代的議題來爭 全部是韭菜 03/19 09:45
leefengynh: 你真的以為waymo或市面上的光達車 03/19 09:48
leefengynh: 他們裝光達 是為了冗餘嗎? 03/19 09:48
leefengynh: 他們裝光達 不是為了冗餘耶 03/19 09:48
leefengynh: 他們的感知層只會輸出一個結果 03/19 09:48
leefengynh: 而不是兩個結果 03/19 09:48
leefengynh: 既然只輸出一個結果 哪來冗餘之說 03/19 09:48
leefengynh: 胡説八道 03/19 09:48
leefengynh: waymo會裝光達 只不過是要使用高精度地圖 有了高精度 03/19 09:50
leefengynh: 地圖 03/19 09:51
leefengynh: 那麼ai智商就不用這麼高 03/19 09:51
leefengynh: 也就是演算法的技術門檻就比較低 03/19 09:51
leefengynh: 可以快速商業化 03/19 09:51
leefengynh: 哪是為了安全冗餘 笑死 03/19 09:51
ilovedirk41: 蘋果手機不就有光達? 03/19 09:54
leefengynh: 但是惡果也馬上浮現 03/19 09:55
leefengynh: 就是司機成本只能降低50% 03/19 09:55
leefengynh: 1人管2台車 費用也比人工計程車還貴 03/19 09:55
leefengynh: 演算法低智商 03/19 09:55
leefengynh: 遇到一堆狀況需要後台人類解圍 03/19 09:55
leefengynh: 成本降不下來 沒在高精度地圖覆蓋區域無法駕駛 03/19 09:55
leefengynh: xdddd 03/19 09:55
leefengynh: 偷吃步 難怪技術遇到瓶頸 03/19 09:56
leefengynh: 光達車就是沒高精度地圖覆蓋的區域 連正常的轉彎都沒 03/19 09:57
leefengynh: 辦法xddd 03/19 09:57
leefengynh: 這就是軌道車 不是靠車子臨場去解析道路的3D結構 03/19 10:00
leefengynh: 而是預先要輸入道路3D結構給汽車 03/19 10:01
leefengynh: 這根本危險 因為道路3D結構會一直改變 03/19 10:01
leefengynh: 那你就要每幾個禮拜重制一次地圖 03/19 10:01
leefengynh: 笑死 難怪只有700台 無法擴大到全美 03/19 10:01
QuentinHu: 不用管特鐵粉啦,煥新Y出來之前還不是講方向燈撥桿跟 03/19 10:03
QuentinHu: 前鏡頭沒必要,最後自己被打臉,這些人都不會認錯的 03/19 10:03
leefengynh: 依賴高精度地圖的自駕絕對不是solution 03/19 10:05
leefengynh: 那只是軌道車 不叫自駕 03/19 10:05
leefengynh: 幾乎所有光達車都依賴預先輸入高精度地圖 03/19 10:05
leefengynh: 車子臨場對道路3d結構拓撲解析的能力很低 03/19 10:05
leefengynh: 這種做法非常危險 萬一遇到修路 道路結構改變 而你3 03/19 10:06
leefengynh: d高精度地圖沒有即時更新 03/19 10:06
leefengynh: 車子直接車禍 03/19 10:06
leefengynh: 而且只能在固定區域才能自駕 xddd 03/19 10:06
QuentinHu: 其實多感測器就是能互相補足單一感測器在某些工況底下 03/19 10:07
QuentinHu: 的限制,理論上就是裝越多越好,現在的問題是成本問題 03/19 10:07
QuentinHu: 而已,就是這麼簡單的道理。但是特鐵粉不知道為什麼就 03/19 10:07
QuentinHu: 是愛Diss特斯拉方案以外的其他東西,每個都好像是在幫 03/19 10:07
QuentinHu: 馬斯克工作一樣。這些特鐵粉當初還嘲笑Toyota說會變成 03/19 10:07
leefengynh: 我沒講前鏡頭不重要啊 03/19 10:07
QuentinHu: Nokia咧,每個都是差不多這樣,不用跟他們爭執什麼 03/19 10:07
leefengynh: 不要故意幻想我講的好嘛 03/19 10:07
leefengynh: 可悲韭菜東西xddd 03/19 10:08
leefengynh: 前鏡頭超香的好嗎 03/19 10:08
leefengynh: 當然不是裝越多越好 03/19 10:09
leefengynh: 這只要有在玩智慧家庭自動化的人都能理解 03/19 10:09
leefengynh: 「同一類的傳感器」越多 的確越好 03/19 10:10
leefengynh: 「不同類的傳感器」越多不一定越好 03/19 10:10
leefengynh: 因為不同類的傳感器會造成矛盾 打架 03/19 10:12
leefengynh: 就是這麼簡單 而不是互補 03/19 10:12
我以為AI演算法本來就會有一堆決策出來,然後根據分數去做決定不是嗎 沒道理多一個3D建模會更差
QuentinHu: 嗯嗯我沒點名誰,你不用對號入座 03/19 10:13
leefengynh: 傳感器越多越好 怎麼不去叫feijq裝光達? 笑死 03/19 10:21
leefengynh: 飛機只有雷達 沒有光達好危險 不去哭哭嗎xdddds 03/19 10:21
cabin2501: 從教主 副教 現在又一個 03/19 10:23
cabin2501: 不要理會就好 03/19 10:23
leefengynh: 你們這群外行韭菜「靠感覺論述」到中毒了 03/19 10:23
leefengynh: 文組腦xddd 03/19 10:24
文組腦袋? 你多一個3D建模資訊來源會讓自動駕駛更差的意思? 你真的理解AI嗎....
carryton: 原文說AP被取消,FSD更不可能開啟 03/19 10:25
carryton: 你這篇連原文都誤解根本廢文一篇 03/19 10:25
那就更有問題了 當AP/FSD都被取消狀態下,你的AEB判斷能力大幅下降 這樣可以嗎?
MoonCode: 03/19 10:35
h311013: 純視覺無法穿透迷霧的,除非用的是熱成像或紅外線照射, 03/19 10:58
h311013: 特斯拉應該有裝這東西吧? 03/19 10:59
Arsen2017: 你才搞不清楚狀況 AP和FSD都沒開好嗎 03/19 10:59
沒開AP/FSD AEB判斷能力就會掉一大截這種說法有點奇怪
hasimofo: 在激動什麼 有光達加上相機的技術依定比只有單一技術好 03/19 11:06
hasimofo: 這有什麼好討論的?阿你多一項數據可以來分析咩 03/19 11:06
hasimofo: 現在不裝單純太貴 等國產的更捲一點就可以了 03/19 11:07
hasimofo: 飛機需不需要光達我不知道 但是沒理由多了一個3D資訊源 03/19 11:08
hasimofo: 會變更差的 樓上到底在吵啥 03/19 11:08
kira925: 講攏餘度的意思是 飛機會有多重獨立的感測器系統 03/19 11:13
kira925: 同時作出獨立決定 然後會有多數決(可能是三重不同決策) 03/19 11:13
kira925: 而不是什麼AI怎樣 rule based怎樣 這是在那之前的東西 03/19 11:14
kira925: 在那邊炒光達雷達的字面吵架不知道在搞什麼... 03/19 11:14
kira925: 寫一堆情緒性文字 不知道哪來的狂粉 03/19 11:15
hasimofo: 呂布不用AK只用方天化戟一定是因為現代武器比較爛 03/19 11:19
Arsen2017: AEB是可以關的 影片都故意造假了你確定他沒關? 03/19 11:51
casper955033: 光達 + 純視覺AI 又不衝突 03/19 11:53
Charles0421: 特斯拉粉絲就是這樣才會讓人對特斯拉觀感其差 03/19 11:54
Charles0421: 一對特斯拉有疑問就人身攻擊 無法正常討論 03/19 11:54
Charles0421: 車版不是你特粉一言堂的宣傳工具 03/19 11:54
Charles0421: 是不同意見討論的場所 03/19 11:54
gk1329: 現在很多掃地機器人都在用 很便宜惹啊 03/19 12:14
Rukawa31: 意見不同就說別人 廢話 屁 外行韭菜 文組腦 然後一堆x 03/19 12:20
Rukawa31: ddd 阿這就沒要討論的意思啦 03/19 12:20
Rukawa31: 你各位就當某人今年來吃-50%需要一個大平台洩恨 03/19 12:21
moom50302: 你比特所有研發員都聰明,特不用原因根本不是成本問題 03/19 12:21
moom50302: 特說過光達會跟現有計算造成影響,就繼續腦補可以合用 03/19 12:22
因為Tesla一開始就打定主意不要Integrate LiDar solution... 老黃的就有
kazami: 你跟這位股板跑來的新警察講沒啥用啦 現在可能正因這幾個 03/19 12:37
kazami: 月狂跌坐立不安 03/19 12:37
seemoon2000: 只要能解決顧客需求的方案都行 顧客哪有差 03/19 12:38
OBTea: LiDar 的判斷會增加false alarm 拖累效能,其實也是省成本 03/19 12:39
OBTea: 的一環 03/19 12:39
OBTea: 今天這個實驗就是業界內部訓練舉出視覺判斷盲點的經典例子 03/19 12:40
OBTea: ,7-8年前就有的東西 03/19 12:40
dslite: 馬斯克減成本的藉口被拿來當聖經喔 笑死 03/19 12:48
leutk: 覺得依龍馬沒有僱用你真的太可惜了 如果有你的指導 03/19 12:49
kazami: 以前就看過朋友的老闆不知道哪要來的影像叫他加進去訓練 03/19 12:50
leutk: 特斯拉統一自駕的天下真的是指日可待 你想到它們想不到的 03/19 12:50
kazami: 然後原本的正確度從略超過90%,驟降到6、70%,後來改參數 03/19 12:51
kazami: 也是只能到80%左右,後來老板叫他換其他模型試試,後續我 03/19 12:52
kazami: 就不知道怎樣了,從我聽到的經驗,加入Lidar對現有結果產 03/19 12:52
kazami: 生不良的影響其實相當合理 03/19 12:52
nrsair: 光學鏡頭 光達 雷達 超音波 通通都做到車上 03/19 12:53
kazami: 只看特要不要花這些成本去做而已,我朋友是因為要畢業不得 03/19 12:53
kazami: 不做 03/19 12:53
Killercat: 訓練資料很怕衝突 你一直教他1 2 3後面會是4 突然出現 03/19 12:57
Killercat: 幾筆資料1 2 3後面接100 這樣模型會變得很不穩定 03/19 12:58
OBTea: 視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本 03/19 13:05
OBTea: 沒錯 03/19 13:05
OBTea: 修正:視覺+光達 03/19 13:06
其實不能這樣說,人眼的機構其實很誇張 視網膜Fovea幾乎等於高解析度+gimballed autofocusing stereoscopic的傳感器 目前硬體無法達到這個等級
OBTea: 特斯拉應該不是沒想過,一來這會拖慢自動駕駛開發速度,二 03/19 13:12
OBTea: 來這情況在現實發生的機率大概一輩子都不會遇到,三來正常 03/19 13:12
OBTea: 人類視覺判斷就可以99%時間避免是故,更何況AI是集人勒視覺 03/19 13:12
OBTea: 能力大成 03/19 13:12
ozyamazaki: 有人從小教育就是服從 連獨立思考提出質疑都不會 03/19 13:13
leefengynh: 老黃的車在哪? 明明就一個外行 連老黃在賣什麼都不 03/19 13:15
leefengynh: 知道xddd 03/19 13:16
leefengynh: 發現現實生活中的光達車都打不贏fsd了 03/19 13:16
leefengynh: 就幻想一個「老黃的自駕車」出來 03/19 13:16
老黃Solution =/= 老黃自駕車 我覺得你常常搞混東西 Mercedes/Volvo目前都是用老黃Solution,而Mercedes是可以拿到Lv3的
leefengynh: 然後產品到底在哪xdddd 03/19 13:16
leefengynh: 然後就自己生出一個一個意識形態 03/19 13:17
leefengynh: 「傳感器多一點 資訊比較多 一定好」 03/19 13:17
leefengynh: 生成式ai 放入 光達和視覺 兩者訓練出來的ai就沒一個 03/19 13:20
leefengynh: 比純視覺強 然後你在那邊靠感覺 03/19 13:20
OBTea: 資訊自然越多越好,是現在AI模型,演算法或是算力的限制才 03/19 13:20
OBTea: 顯得純視覺是目前最佳解 03/19 13:20
OBTea: AI也是要GPU和記憶體到位才顯得有效益 03/19 13:21
leefengynh: 早期特斯拉的車都有雷達 03/19 13:23
leefengynh: 誰跟你「特斯拉一開始打定要純視覺」 03/19 13:23
leefengynh: 雷達+視覺就是無法在「生成ai架構下」訓練出好的結果 03/19 13:24
leefengynh: 特斯拉才關閉舊車上面的雷達 03/19 13:24
leefengynh: 什麼特斯拉一開始打定純視覺 胡說八道 03/19 13:24
leefengynh: 特斯拉一開始是雷達+視覺 03/19 13:24
leefengynh: 實證下來就是比純視覺差 03/19 13:24
leefengynh: 你去買2018年的特斯拉 哪台車沒雷達 03/19 13:24
leefengynh: 笑死 03/19 13:24
OBTea: 特斯拉自動駕駛的確很早就走純視覺 03/19 13:24
OBTea: 2017-2018大概就確立方向 03/19 13:25
orange7986: 是說關於Waymo發展慢我認為不光是技術瓶頸啦,州政府 03/19 13:27
orange7986: 法規、市場接受度、造車成本都是發展緩慢的原因之一 03/19 13:27
orange7986: ,但仍是市場領先者、先行者 03/19 13:27
skizard: 從一開始就只可能sensor fusion 過L5了 03/19 13:29
orange7986: *是指自駕計程車 03/19 13:30
leefengynh: 現在的ai模型就不是資訊越多越好 03/19 13:30
leefengynh: 亂餵一通模型就長的好 03/19 13:30
leefengynh: 餵的東西 和 演算法 才是重點 03/19 13:30
leefengynh: 模型才不會長歪 03/19 13:30
leefengynh: 聽文組腦在那邊靠感覺 03/19 13:30
leefengynh: 以為把視覺和雷達資訊都餵進去 03/19 13:30
leefengynh: ai模型長出來的能力值就會大於只餵視覺 03/19 13:30
leefengynh: 可是這件事一直都是你自己在幻想的 03/19 13:31
leefengynh: 不是嗎 03/19 13:31
leefengynh: 特斯拉早期用雷達+視覺效果就不好 03/19 13:31
leefengynh: 然後你還在幻想都拿去餵ai 會更強lol 03/19 13:31
人眼構造根本不是當代攝影機硬體可以比得上的,因此需要輔助感測器
OBTea: 很早的時候,低成本自動駕駛解決方案很多就走純視覺,中國 03/19 13:33
OBTea: 也一堆在搞,所以自駕才會追得那麼快 03/19 13:33
OBTea: 就演算法跟不上資訊量才顯得純視覺是目前最佳,這有什麼好 03/19 13:35
演算法跟得上啦 只是Tesla懶得打掉重練把LiDar放進去
OBTea: 跳針的... 03/19 13:35
leefengynh: 中國沒半間自駕走純視覺 03/19 13:36
leefengynh: 純視覺是技術最難的 03/19 13:36
leefengynh: 要趕快商業化賣錢的話 車廠不可能純視覺 03/19 13:36
leefengynh: 這裡的人都講一堆奇怪跟現實世界完全反過來的話 03/19 13:37
leefengynh: 那種平常沒在研究自駕議題 看到ptt人家在討論就湊過 03/19 13:41
沒在研究是你覺得沒在研究....
leefengynh: 來 講一堆常識以外的笑話 03/19 13:41
leefengynh: 真的快笑死 03/19 13:41
leefengynh: 純視覺才不是低成本 03/19 13:41
leefengynh: 純視覺等於你的軟體研發期會拉的更長 03/19 13:41
leefengynh: 因為硬體少 你就必須用軟體補足硬體 03/19 13:41
leefengynh: 軟體研發會拉得很長 03/19 13:41
leefengynh: 用光達建立高清地圖才是最快商業化的途徑 03/19 13:41
leefengynh: 市面上包含中國全部都是走光達模式 03/19 13:42
leefengynh: 只有特斯拉是純視覺 03/19 13:42
leefengynh: 但是waymo 中國自駕到頭來都沒比較強 03/19 13:42
你把LiDar當成只能搭配高清地圖當成一個Solution很奇怪
leefengynh: 人眼的構造 攝影機比不上?? 03/19 13:46
leefengynh: 黑人問號 03/19 13:46
leefengynh: 我家攝影機全黑暗房間中看得一清二楚 03/19 13:46
leefengynh: 人眼完全看不到 03/19 13:46
leefengynh: 你說人眼比較強xddd? 03/19 13:47
leefengynh: 然後你這文組硬體代工腦 03/19 13:47
leefengynh: 怎麼一直把重點放在「眼睛」「攝影機」這種硬體 03/19 13:47
leefengynh: 重點明明就是軟體 03/19 13:47
leefengynh: 明明就是「人類大腦」 「ai演算法」 03/19 13:47
leefengynh: 人眼視覺沒這麼強 03/19 13:47
leefengynh: 人類會開車是因為我們的大腦 從來不是因為我們的視覺 03/19 13:47
leefengynh: 有多強 03/19 13:47
leefengynh: 真的笑死 硬體腦 03/19 13:47
leefengynh: 你們這種外行人 03/19 13:52
leefengynh: 到最後就是淪為意識形態 03/19 13:52
leefengynh: 你的意識形態就是幻想「多傳感器一定棒」 03/19 13:53
leefengynh: 最簡單破解的辦法 03/19 13:53
leefengynh: 就是叫你們這種外行人舉出市面上實際已經在行駛的自 03/19 13:53
leefengynh: 駕系統 採用光達 有無贏純視覺 03/19 13:53
leefengynh: 這樣最簡單 03/19 13:53
leefengynh: 講理論你根本聽不懂 03/19 13:54
leefengynh: 講半天舉不出個屁 03/19 13:54
leefengynh: 中國光達成本都降多低了 03/19 13:54
leefengynh: 中國自駕玩光達都玩多久了 03/19 13:54
leefengynh: 哪家超越特拉斯fsd? 03/19 13:54
leefengynh: waymo搞的時間比中國更久 03/19 13:54
leefengynh: 怎麼只有700台 安全性 接管率怎麼無法在變更強xddd 03/19 13:54
leefengynh: 人眼比攝影機強 ?笑死 03/19 13:56
leefengynh: 這就是曲博看太多的後遺症 03/19 13:56
leefengynh: 你以為你看過的東西 我會沒看過xddd 03/19 13:56
leefengynh: 別人隨便講一句 你照抄不思考 就是準備被打臉 03/19 13:58
其實你說的曲博是誰我根本不知道 Tesla無法使用LiDar很簡單,ML是需要大量的訓練 你今天多一個LiDar他的訓練幾乎要打掉重來,自動駕駛就是依靠大量訓練 但你多一個不同形式的資訊放進來幾乎是要打掉重來了 Tesla在早期就訂下目標,走最低成本的純視覺 並不代表LiDar+視覺 solution不存在而且不會更好 事實上Fusion一直是突破Lv3的唯一解答 ※ 編輯: zzahoward (136.226.240.114 臺灣), 03/19/2025 14:06:29
leefengynh: [新聞]NVIDIA搶攻自駕車市場!推模組化設計平台, 03/19 14:04
leefengynh: 賓士、通用汽車都成客戶 03/19 14:05
leefengynh: 2021.11.11 03/19 14:05
leefengynh: 所以你口中「老黃的車」 03/19 14:05
leefengynh: 2021年就開始合作了 03/19 14:05
leefengynh: 現在市面上看到什麼產品了? 03/19 14:05
leefengynh: 賓士自駕在哪? 03/19 14:05
leefengynh: 通用自駕在哪? 03/19 14:05
leefengynh: 喔 03/19 14:05
leefengynh: 通用的自駕 cruise已經撞死人退出市場了 03/19 14:06
leefengynh: 通用汽車已經放棄自駕研發了 03/19 14:06
leefengynh: 這就是你的大絕招「老黃的車」 03/19 14:06
leefengynh: 原來通用就是和老黃合作 03/19 14:06
leefengynh: 然後現在放棄不玩了xddd 03/19 14:06
kazami: 光你講視覺+雷達是訓練不出好結果就知道你是文組了 邏輯上 03/19 14:06
kazami: 做不出來是最難證明的 會講這種話就知道邏輯能力不怎麼樣 03/19 14:07
leefengynh: [新聞]通用不玩了!重組Cruise 退出機器人計程車市 03/19 14:07
leefengynh: 場僅剩特斯拉、Waymo兩強爭霸 03/19 14:07
kazami: 你沒做過你怎麼知道做不出來 特只是因為現有模型加入lidar 03/19 14:08
StarburyX: 你們都討論錯方向了吧... 03/19 14:08
kazami: 會影響結果, 不代表他們如果願意花時間重新做一樣做不出來 03/19 14:09
haotim2009: 特黑水準只有這樣嗎...AP跟FSD都搞不懂就別來亂了吧 03/19 14:09
StarburyX: FSD端到端 就沒有光達啊... 03/19 14:09
leefengynh: 特斯拉已經做過「雷達+視覺」 特斯拉做出來的效果 比 03/19 14:09
leefengynh: 純視覺差 03/19 14:09
leefengynh: 所以才關閉所有舊車上的雷達 03/19 14:09
leefengynh: 這不就是證明了 03/19 14:09
StarburyX: AP才有視覺融化 雷達光達之類的可以討論 03/19 14:09
leefengynh: 你的邏輯真的要加強 03/19 14:10
StarburyX: Tesla當初關閉雷達是因為押寶純視覺 03/19 14:10
leefengynh: 雷達和光達都分不清楚的文組 03/19 14:11
leefengynh: 最基本的智慧家庭先去玩玩了解一下傳感器 不要只會在 03/19 14:11
leefengynh: 電腦前面幻想 03/19 14:11
StarburyX: 跟FSD端到端沒什麼關係 03/19 14:11
kazami: 你可能不知道有時候模型要重新設計吧 如果搞到重新設計就 03/19 14:11
leefengynh: tesla關閉雷達 是因為「雷達+視覺」訓練出來輸給「純 03/19 14:11
leefengynh: 視覺」 不是押寶 03/19 14:11
kazami: 是重頭來過 是特不願意花那成本改善那可能只有1%的狀況 還 03/19 14:12
leefengynh: 端到端是2024年的事情了 03/19 14:12
kazami: 是他"能力"上做不出來 這是兩回事 03/19 14:12
leefengynh: 在2020以前特斯拉就已經發現「多傳感器和視覺融合」 03/19 14:13
chandler0227: https://www.nuscenes.org/ 主流還是多種類型感測器 03/19 14:13
leefengynh: 模型會歪掉 03/19 14:13
leefengynh: 特斯拉2020左右就有先用「多傳感器」內部訓練發現不 03/19 14:14
leefengynh: 行 03/19 14:14
leefengynh: 2024才用全視覺端到端訓練 03/19 14:14
kazami: 會歪掉本來就很正常好嘛 AI有部分論文就是一直有新的架構 03/19 14:15
kazami: 很多都是因為會歪掉 達不到好的結果 03/19 14:16
leefengynh: 最簡單的就是請你們這群文組韭菜去找出任何一家多傳 03/19 14:16
chandler0227: 去看CVPR 2025 依舊各種感測器類型都有,說純視覺不 03/19 14:16
leefengynh: 感器的自駕影片來證明贏過fsd 03/19 14:16
leefengynh: 找不出來 就代表地球上還不存在多傳感器贏過純視覺 03/19 14:16
leefengynh: 這不就最簡單 03/19 14:16
leefengynh: 你們在那意識形態 可以改變現實嗎 03/19 14:16
chandler0227: 曉得活在哪個平行世界 03/19 14:16
kazami: 算了 不可與夏蟲語冰 你繼續活在你的世界吧 反正看起來特 03/19 14:18
chandler0227: Tesla先做到不需配置安全駕駛員吧 03/19 14:18
kazami: 還沒止跌 你加油 繼續戰 881 03/19 14:18
leefengynh: 意識形態就跟統獨一樣 講再多都沒用 03/19 14:19
leefengynh: 請你去po出多傳感器的自駕行車影片 03/19 14:19
leefengynh: 能贏過特斯拉的fsd 03/19 14:19
leefengynh: 中國那一票已經全輸了 03/19 14:19
leefengynh: (城市+山路+非道路場域)三種地形 03/19 14:19
leefengynh: 給你時間去yt找吧 03/19 14:19
leefengynh: 找到我給你獎金100萬 03/19 14:19
leefengynh: 沒找到就不要在這邊廢話 03/19 14:19
leefengynh: 很吵xddd 03/19 14:19
chandler0227: 所以你判斷依據是根據YT影片而不是IEEE的CVPR... 03/19 14:21
leefengynh: 這個id我以後見一次就會問他一次「老黃的車」在哪 不 03/19 14:21
leefengynh: 是說老黃的車都有了 03/19 14:21
leefengynh: 那在哪 落地了嗎xddd 03/19 14:22
leefengynh: 絕對被我問到3年內連一個實際的屁產品都沒有落地xddd 03/19 14:22
leefengynh: dd 03/19 14:22
zzahoward: 感覺你根本不懂ML阿.... 03/19 14:24
leefengynh: 你們文組韭菜意識形態 03/19 14:24
leefengynh: 跟你們講理論已經沒用 03/19 14:24
leefengynh: 現在就是講實際落地的產品 03/19 14:25
leefengynh: 如果多傳感器真的是王道 03/19 14:25
leefengynh: 那一定會有廠商把它做成產品落地 03/19 14:25
leefengynh: 直接舉那個產品出來 03/19 14:25
leefengynh: 不過我告訴你 可能30年內你們都拿不出來 03/19 14:25
leefengynh: 一群韭菜xdd 03/19 14:25
leefengynh: 明明就一群外行魯蛇 03/19 14:26
leefengynh: 通用和賓士2021就跟nvidia合作了 03/19 14:29
leefengynh: 自駕到現在連個屁都沒看到xddd 03/19 14:29
leefengynh: 通用還退出研發了 03/19 14:29
leefengynh: 真的快笑死 03/19 14:29
leefengynh: 你的老黃自駕車快拿出來已落地的產品 03/19 14:29
leefengynh: 我還在等耶 03/19 14:29
zzahoward: 你講話有點太嗆了 目前還沒落地不代表2026年不會出現 03/19 14:30
zzahoward: 已經有很多家在用老黃的平台訓練了 但需要點時間 03/19 14:30
zzahoward: 事實上你看NHTSA當初的裁決 Tesla自己幾乎承認沒LiDar 03/19 14:32
zzahoward: 無法達標 03/19 14:32
StarburyX: Howard大說的也是沒錯 03/19 14:48
StarburyX: 不過看業界訪問 03/19 14:48
StarburyX: 老黃的顯卡模擬資料 只能拿來驗證 03/19 14:49
StarburyX: 無法拿來訓練 03/19 14:49
StarburyX: 要玩自駕 還是要有真實資料 03/19 14:49
StarburyX: 玩自駕都還是會用NV的卡 包含Tesla沒錯 03/19 14:50
StarburyX: 另外說一句E2E就沒有光達的位置 03/19 14:51
StarburyX: 還會用到光達 就不是真E2E 03/19 14:52
StarburyX: Howerd大 還是用傳統範式理解自駕 03/19 14:53
StarburyX: FSD的技術是E2E 沒有融合問題也無法 03/19 14:54
zzahoward: 為什麼LiDar就不算E2E? 是高經地圖才不算E2E吧? 03/19 14:55
StarburyX: 光達是拿來感知的,很好的工具 03/19 14:57
StarburyX: 感知後 還是要接決策,就是走傳統範式了 03/19 14:58
zzahoward: LiDar和攝影機的資訊從ML來看都是輸入資訊的接收器 03/19 14:58
zxcv800530: 亂講一通 03/19 14:58
zzahoward: 沒阿 為什麼LiDar不能直接進ML? 03/19 14:58
zzahoward: 你說的傳統範式是在模型本身沒把LiDar輸入考慮進去 03/19 15:00
zzahoward: 然後用LiDar資訊當冗餘 但為什麼不能都用呢? 03/19 15:00
zzahoward: LiDar還可以透過軟體做慮波 這樣不是更完整嗎? 03/19 15:00
StarburyX: 只能說目前技術沒到吧(?) 03/19 15:01
zyx12320: 可以啊,但多傳感器融合要聽誰的?你認為的冗余不是真 03/19 15:01
zzahoward: 是還沒學習夠 畢竟LiDar+純視覺訓練不過是這兩三年 03/19 15:01
zyx12320: 正的冗余,目前就還沒人解決 03/19 15:01
zyx12320: 實測表現也沒人追得上特斯拉 03/19 15:02
StarburyX: Howard大提的技術也許很快就可以work了 03/19 15:02
StarburyX: 特斯拉就怕新範式出現,FSD就完了 03/19 15:03
zyx12320: https://i.imgur.com/5Li0rRj.png 03/19 15:03
StarburyX: 現在特斯拉Work的E2E就沒有光達 03/19 15:03
zyx12320: https://i.imgur.com/SaiwYyo.png 03/19 15:04
StarburyX: TESLA只怕兩件事 1.出現新範式 03/19 15:05
StarburyX: 2. Scaling law失效 03/19 15:05
StarburyX: 講到這邊跑題了 笑 03/19 15:05
zyx12320: 沒跑題吧,不然這邊的專家講了N年都是同一套 03/19 15:06
StarburyX: rober標題寫FSD內容測AP就站不住腳 03/19 15:06
StarburyX: AP還是傳統範式 FSD是E2E 完全不同 03/19 15:07
zyx12320: 我都懶得討論rober,中國人2020用爛的手法2025還在用 03/19 15:08
StarburyX: ZXY大貼的東西 沒錯 03/19 15:08
StarburyX: 而且rober真的要跟中國媒體學一下 03/19 15:09
StarburyX: 這種影片太直白 被罵到Lumina都縮了 03/19 15:10
d4015394: 怎看到有低端說中國都是靠純視覺 03/19 15:17
d4015394: 這個低端不知道純視覺對演算法的技術要求是最高, 03/19 15:17
d4015394: 護城河是最高的嗎 03/19 15:17
d4015394: 既然如此中國廉價自駕哪有可能靠純視覺 03/19 15:17
d4015394: 不都靠光達作弊嗎 03/19 15:17
d4015394: 然後可笑的是靠光達作弊後 03/19 15:17
d4015394: 自駕能力還比人家純視覺低 03/19 15:17
d4015394: 攝像頭比人眼弱我還是第一次聽到 03/19 15:18
d4015394: 你家還是在用30年前的監視器嗎 03/19 15:18
d4015394: 現在隨便一個2000元的監視器都比人眼強,你黑暗中看不 03/19 15:18
d4015394: 到的,他都看得到 03/19 15:18
d4015394: 特斯拉8隻攝像頭,不叫做超感官? 03/19 15:18
d4015394: 什麼文組認知 03/19 15:18
d4015394: 你的眼睛有8顆? 03/19 15:18
d4015394: 攝像頭裡面的cmos還可以靠抓電子數去讀每個噪點的光子 03/19 15:21
d4015394: 顆粒數量 03/19 15:21
d4015394: 你的眼睛可以讀取到空間中有幾顆光子? 03/19 15:21
d4015394: 第一次聽到攝像頭不超感官的 03/19 15:21
d4015394: 文組真多 03/19 15:21
zzahoward: 不 人眼確實在很多方面比攝影機強 光是轉動速度就是很 03/19 15:30
zzahoward: 驚人的創造 雖然只有中心超高解析 但透過大腦可以達到 03/19 15:31
carryton: 樓上蔚來、小鵬都有開發純視覺 03/19 15:31
carryton: 蔚來還自己開發AI晶片 03/19 15:31
carryton: 整天把低端掛嘴邊不如多看一點資訊 03/19 15:31
zzahoward: 寬闊的視野 整個機構的旋轉甚至還配合了頸部肌肉以及內 03/19 15:32
zzahoward: 耳 03/19 15:32
zzahoward: 假如人眼那麼弱 就不會天天追求更高的解析度了 03/19 15:33
zzahoward: Fusion的對演算法的要求其實更高... 03/19 15:35
zzahoward: 整體來說 我還是覺得純視覺是推進自動駕駛主力 但是否 03/19 15:37
zzahoward: 只靠純視覺就能達成 我反而覺得有待討論 03/19 15:38
zzahoward: 以前很多人認為RL不可能成功所以都只用RLHF 但就是被突 03/19 15:39
zzahoward: 破了 03/19 15:39
d4015394: 近視100 200度的人都可以裸眼開車了啦 什麼人眼高解析 03/19 15:39
d4015394: 度 03/19 15:39
StarburyX: 用fusion處理感知 那接下來就是決策模塊 03/19 15:40
StarburyX: 決策模塊就是一大堆rule base的東西 03/19 15:40
d4015394: 你以為每個開車的眼睛都很健康1.0喔? 03/19 15:41
d4015394: 我家人黃斑部病變 視力只有0.2都能在白天開車了 少胡說 03/19 15:41
d4015394: 八道 03/19 15:41
joiedevivre: 真的別浪費時間嘗試教育失去理性的狂粉 沒有意義 03/19 15:41
StarburyX: 純視覺 也是同樣的問題 要寫rule 03/19 15:41
joiedevivre: 他說話不體面 就去置底文幫他體面 03/19 15:41
d4015394: 更不用講fsd又不是讀圖像 03/19 15:41
StarburyX: 特斯拉AP AEB 停車輔助 跟召喚都是傳統範式 03/19 15:41
d4015394: 而是讀光子顆粒數量 03/19 15:42
StarburyX: 傳統範式就是要寫一堆rule 03/19 15:42
zzahoward: 其實Fusion不同的傳感資訊進入真的要寫Rules嗎? 不能直 03/19 15:42
zzahoward: 接訓練? 03/19 15:43
StarburyX: AP AEB EAP 召喚停車輔助都是純視覺 03/19 15:43
d4015394: 現在我們看不到遠處的招牌字 03/19 15:43
joiedevivre: end to end就是不要rule的嘗試 其實一直都有人做 03/19 15:43
zzahoward: d401我討論的是人眼天生的機構 你拿黃光病變.... 03/19 15:43
d4015394: 都要用手機相機去拍下來放大了 03/19 15:43
joiedevivre: 但特斯拉做了 讓很多粉絲第一次認識到這個 開始狂吹 03/19 15:43
d4015394: 來輔助人眼了 03/19 15:43
d4015394: 到底在胡說八道什麼 03/19 15:43
zyx12320: Howard大其實我貼的圖已經回答你的問題了 03/19 15:44
zzahoward: 黃斑病變* 03/19 15:44
StarburyX: 訓練出來的感知模塊資料 就是要走決策 03/19 15:44
d4015394: 一直插我話,是怕被我電爆嗎 03/19 15:44
StarburyX: 問題就是決策模塊太多rule了 03/19 15:45
zzahoward: zyx我有看你貼的 但那是用Tesla既有的模型下去解讀? 03/19 15:45
zzahoward: 那是你分別對兩種傳感器去training 但假如同時呢? 03/19 15:46
d4015394: 人類近視就能裸眼開車了 03/19 15:48
d4015394: 跟我說要開車的必要條件是高解析鏡頭 03/19 15:48
d4015394: 真的被你這文組打敗 03/19 15:48
d4015394: 看不到遠處招牌字,先用iphone相機拍下來再放大zoom in 03/19 15:48
StarburyX: 就算你有再好的融合算法,還是繞不過決策模塊 03/19 15:48
d4015394: ,可以幫助自己看到極遠處的字 03/19 15:48
d4015394: 然後你跟我說人眼比鏡頭強 03/19 15:48
d4015394: 這點快被你這文組打敗 03/19 15:48
leutk: 我以為追求更高解析度不就賣商品的行銷方式嗎 03/19 15:49
leutk: 就跟音質一樣 很多人就是看不出來跟聽不出來 03/19 15:49
d4015394: 人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下 03/19 15:49
d4015394: 來,再放大來看 03/19 15:50
d4015394: 不是讀醫學的在那邊胡說八道 03/19 15:50
leutk: 然後當然不會有人承認啦 這樣會顯得自己低能 03/19 15:50
d4015394: 真的快笑死 03/19 15:50
d4015394: 光達會讓解析度變高嗎 03/19 15:51
d4015394: 會以為人眼超越鏡頭本身就腦子要保養 03/19 15:51
zyx12320: 融合算法就是指同時訓練了啊,目前看來單模型也是正解 03/19 15:52
zyx12320: 理想也剛放棄所謂的雙系統,改成單ㄧ模型了 03/19 15:52
zyx12320: Rule-based 注定失敗就不討論了,看waymo十幾年的牛步 03/19 15:52
leefengynh: 光達派就廢得可以 幾乎都不討論演算法 03/19 15:54
zyx12320: 多傳感器+rule bas算是自駕濫觴,但也是一個詛咒 03/19 15:55
leefengynh: 表示這群人基本上覺得演算法不是重點XDDD 03/19 15:55
leefengynh: 覺得每台車都裝上光達後 全自駕就達到了 神經病 03/19 15:55
leefengynh: 就好像你買得的到EUV 2奈米就自動生出來了 03/19 15:55
leefengynh: 人眼比鏡頭強這種常識就不用教了 03/19 15:56
leefengynh: 人眼除了解析度能贏過鏡頭 其他全輸 03/19 15:57
leefengynh: 開車需要的並不是無限堆解析度 解析度達到基本門檻即 03/19 15:57
leefengynh: 可 03/19 15:57
leefengynh: 人眼如果硬要用解析度的概念 比4K影片還高 03/19 15:58
leefengynh: 甚至8K的影片也達不到人眼的解析度 03/19 15:58
leefengynh: 問題人眼缺乏高度遠視能力 高度近視能力 夜視能力 03/19 16:00
leefengynh: 所以人在看遠處字體 看不清楚 才需要借助解析度比自己 03/19 16:00
leefengynh: 差的手機鏡頭去拍攝讀取 03/19 16:01
leefengynh: 夜晚看不到才需要借助鏡頭夜視功能 03/19 16:01
leefengynh: 然後人眼的高解析度只有在1.0的視力 並且投影在黃斑部 03/19 16:02
leefengynh: 的那個角度 才會達到8k影片也達不到的解析度 03/19 16:03
leefengynh: 也就一個角度 現實狀況下 人眼根本無法跟鏡頭比 03/19 16:03
leefengynh: 真正能讓人類開車的 根本不是視力 視力只要有基本門檻 03/19 16:05
leefengynh: 主要是人類的大腦 對於場景的理解跟解析 03/19 16:05
leefengynh: 攝影機的綜合能力本身就超越人眼了 03/19 16:06
leefengynh: 在搭配優秀的演算法 開車要比人類安全10倍以上是基本 03/19 16:07
leefengynh: rule based 會有最基本的幽靈煞車 幾乎每家都解決不了 03/19 16:08
d4015394: 會以為人眼超越鏡頭本身就腦子要保養 03/19 16:10
d4015394: 還扯什麼頸部,你轉頭是可以看到側後的車身 03/19 16:10
d4015394: 講得光達可以無視天氣一樣 03/19 16:13
d4015394: 鏡頭不能開的光達一樣死,還多了誤判 03/19 16:13
d4015394: 把緻密的雨滴判斷成障礙物 03/19 16:13
spinnerl: 你以為鏡頭靠自己晚上就看得到? 03/19 16:24
spinnerl: 不靠NIR LED也是一片黑啦 03/19 16:24
zzahoward: 其實我不太懂為什麼兩種感測器就一定要Rule Base 03/19 16:25
zzahoward: 權重不就是Training的目的性嗎?y 03/19 16:26
kira925: 只有他知道的世界吧 03/19 16:26
spinnerl: LiDAR是可以用SWIR波段的 03/19 16:27
spinnerl: SWIR雲霧的穿透力比可見光波段好 03/19 16:28
d4015394: 特斯拉在暴風雪全霧氣,全黑暗只開車燈的行車紀錄一堆 03/19 16:29
d4015394: ,腦子都沒在看? 03/19 16:29
spinnerl: 在SWIR波段太陽光干擾也少 03/19 16:29
d4015394: 兩種感測器跑E2E跑出來的結果就是不如純鏡頭,這個特斯 03/19 16:32
d4015394: 拉用過毫米波雷達和鏡頭訓練過了,訓練出來的權重就是 03/19 16:32
d4015394: 不比純視覺。 03/19 16:32
d4015394: 但E2E是黑盒,無法解釋為什麼會不如,只能接受結果 03/19 16:32
d4015394: 這東西前面有人講了,你還不懂,在這邊搞笑 03/19 16:32
zzahoward: LiDar也可以透過軟體加大功率和抑制雜訊 03/19 16:32
kira925: 有的時候我都會好奇 哪來這麼多帳號專門來吵架的 03/19 16:33
d4015394: 不如特斯拉舊車用雷達是幹嘛的,你以為是安裝好玩的? 03/19 16:33
d4015394: lol 03/19 16:33
zzahoward: 其實Elon從沒說過反對兩種感測器... 03/19 16:35
leefengynh: 沒反對過 所以2020年以前的特斯拉二手車都有雷達啊 03/19 16:36
leefengynh: 只是雷達和鏡頭一起訓練表現結果就不好 03/19 16:37
leefengynh: 不尊重這個科學事實 一直盧不知道幹嘛 03/19 16:37
zzahoward: 不 他只是認為LiDar不是他想要的解析等級 03/19 16:38
leefengynh: 走純視覺就是因為事實是這樣 而不是特斯拉天生挺純視 03/19 16:38
leefengynh: 覺 03/19 16:38
leefengynh: 而是事實顯示非視覺感測+視覺 訓練出來的權重表現結果 03/19 16:39
leefengynh: 就是比純鏡頭還差 03/19 16:39
leefengynh: 而端到端是黑盒子 無法解釋為什麼多一個感測結果會不 03/19 16:40
leefengynh: 不如純鏡頭 03/19 16:40
leefengynh: 就像你也無法理解正傑為什麼要去捷運站砍人 03/19 16:40
leefengynh: 你唯一能做的就是把正傑消滅掉 03/19 16:40
leefengynh: 所以既然雷達和鏡頭一起訓練出來的ai 表現很差 03/19 16:41
zzahoward: 有LiDar+Pure vision vs. Pure Vision論文嗎? 03/19 16:41
leefengynh: 你也無法解釋為什麼 你能做的就是廢除這種混合體 03/19 16:41
leefengynh: 改成純鏡頭訓練 03/19 16:42
zyx12320: 現在連特斯拉都在藏了,只能用產品力評論 03/19 16:42
zzahoward: 成果不好總是要有論文 或是模擬比較? 03/19 16:43
zyx12320: 其實我貼的圖就是精華了,有空可以再聽這討論 03/19 16:44
leefengynh: 特斯拉早在去年開始的ai day就不公開他們自駕思路了 03/19 16:48
leefengynh: v11版本之前還全部開源 進入v12就開始藏招了 03/19 16:48
nrsair: 視力有問題去治療不要在路上開車害人 03/19 16:49
leefengynh: v11版本的fsd 我那時候看就是不行 還不成熟 03/19 16:49
leefengynh: 進入v12 自駕開始有質的飛躍 然後ai day也不講了 03/19 16:50
leefengynh: 華為在我來看就是把特斯拉v11 做到極致 03/19 16:51
leefengynh: 特斯拉顯然v11做到一半 轉技術路線 直接跳v12 03/19 16:51
leefengynh: 如果華為智駕 vs 特斯拉v11 那華為會贏 03/19 16:52
leefengynh: 因為特斯拉就半途放棄 直接轉技術路線了 03/19 16:52
leefengynh: v12以後 華為的v11就算寫的在極致 和v12看起來就是有 03/19 16:53
leefengynh: 代差 完全不是一個世代的東西 03/19 16:53
leefengynh: 更不用講v13又是v12的100倍強 03/19 16:54
leefengynh: 真正會用在無人出租車的應該會是v14版本 03/19 16:58
leefengynh: 這個版本會開始增加ai的長期記憶 03/19 16:58
leefengynh: 長期記憶才是人類開車的安全冗餘 03/19 16:58
leefengynh: 目前的自駕基本上缺乏這塊 03/19 16:59
leefengynh: 人類在熟悉的道路 對汽車安全的掌握是不熟悉道路的10 03/19 16:59
leefengynh: 倍以上 03/19 16:59
leefengynh: 基本上v14以後就是要做到ai能把開過的路細節都記下 03/19 17:00
leefengynh: 而ai因為有幾百萬輛車 所以開過的里程會遠高於單人類 03/19 17:01

🚗 汽車 car 版:熱門文章

🚗 汽車 car 版:更多文章