→ rebel : 結論差不多 DS提供了一個降低成本的做法 openai將 01/30 09:02
→ rebel : 會應用這做法讓自己的模型更強 成本更低 01/30 09:02
推 s10112 : 米國的抄不算抄 01/30 09:04
→ ggian123 : Openai真的輸不起了 01/30 09:06
推 tsubasawolfy: GPT的mini系列可以更省吧 01/30 09:06
推 KrisNYC : openAI在做的是在前面開路 試驗不一定能成功的事物 01/30 09:07
→ KrisNYC : DS做的事是已經知道可以成功 但他更便宜高效 01/30 09:08
以前沒想過先進商用AI成本可以這麼低
你看一大票AI新創甚至Cloudflare、Perplexity都開始陸續引入
價格戰開始
推 pingjung : 我們可以更省!?這是好還是壞啊… 01/30 09:09
→ KrisNYC : 本來這兩件事難度與投入 光試錯成本就天差地別 01/30 09:09
→ zzahoward : DeepSeek做的其實是大規模商業化的關鍵 01/30 09:09
→ KrisNYC : 開源了阿 以後o1可以套類似r1的模組免費給大家用 01/30 09:09
→ KrisNYC : 省成本阿 01/30 09:09
→ KrisNYC : 但你要最強的那些 還是得前面堆屍阿 01/30 09:10
→ zzahoward : 我不會評價孰高孰低 就跟SpaceX可以徹底商業化太空 01/30 09:10
→ zzahoward : 部屬一樣 01/30 09:10
推 Axwell : 所以真的就是:喔喔感謝DS提供一個更有效率的方法 01/30 09:11
→ Axwell : 你可以滾了 01/30 09:11
沒有什麽可以滾這種事
Deepseek 現在已經全線開花
如果按照 ChatGPT 公佈的現在仍然持續虧損
這波又要跟 Deepseek 下去玩價格戰的話
對 OpenAI 一定更傷
Perplexity
https://i.imgur.com/rDAhYVD.png
Cloudflare
https://i.imgur.com/0pbumC2.png
Poe
https://i.imgur.com/2rEIVOQ.png
Monica
https://i.imgur.com/OEYrDqz.png
Felo
https://i.imgur.com/ytQDXEt.png
Sider
https://i.imgur.com/ytQDXEt.png
Groq
https://i.imgur.com/sRE59mc.png
→ KrisNYC : 我是覺得這麼簡單 會不會跑出一堆阿貓阿狗套皮 01/30 09:11
→ KrisNYC : 最早不試也滿地套皮在那收訂閱費 還紅過幾個 01/30 09:12
→ KrisNYC : 什麼90年代畢業照生成器之類的 01/30 09:12
→ zzahoward : 就是打開潘朵拉的盒子阿 AI服務突然門檻變低很多了 01/30 09:12
→ zzahoward : 專業小規模語言團隊bussiness model會快速成長 01/30 09:13
→ zzahoward : 但小規模語言終究還是專業領域 所以門檻還是在那邊 01/30 09:14
→ zzahoward : 我就舉例了 你用4O會給你整段程式碼 但R1只會給你數 01/30 09:14
→ zzahoward : 行要修改的部分 01/30 09:14
推 A10 : DS在做的 降低成本 給AI大廠一個新方向 01/30 09:14
推 gbman : 答案抄起來CC 01/30 09:15
→ A10 : 對消費者來說 都是有利的 有些人眼裡只有政治 01/30 09:15
下面有一個一般user的推文
One lesson to take from this: a model that is 90% as good as o1 but with no
usage limits is an OOM more useful in a knowledge worker’s daily life than
an o1 with ~10 queries a day.
In the 3 days of testing R1, I have probably sent 10x as many queries as I
have to o1 in the past three months combined — despite being a ChatGPT Plus
subscriber.
A great model that I can work and iterate together with — without concern of
getting cut off after a handful of messages — is so much better than a
slightly better model that I can speak to for 5 minutes a day.
從這件事學到的一點是:一個效能達到 o1 90% 的模型,但沒有使用限制,對知識工作者
的日常生活來說,比起每天只能發送約 10 次查詢的 o1,有數量級更高的實用性。
在測試 R1 的三天內,我發送的查詢數量可能是過去三個月內對 o1 查詢總數的 10 倍—
—儘管我是 ChatGPT Plus 訂閱者。
一個可以無限制地與我一起工作、反覆試驗的優秀模型,遠比一個稍微強一些但每天只能
使用 5 分鐘的模型要好得多。
推 gn02118620 : 我們早就研究出來了 但是我們沒有發布而已 01/30 09:15
前 Meta SWE 在底下酸他
Thanks for wasting everyone’s fucking time protecting proprietary training
techniques that will eventually come out anyway. ClosedAI.
感謝你浪費大家的時間來保護那些最終還是會洩露的專有訓練技術。封閉AI。
推 Axwell : 是說最後一段不是Sam的推文嗎 01/30 09:15
我有備註不過不太明顯
上色了
→ zzahoward : 不是AI大廠一個方向 而是開創一個新的產業: 小模型 01/30 09:15
→ gn02118620 : 所以請大家支持openai 01/30 09:16
→ gn02118620 : 結論 01/30 09:16
推 lusifa2007 : 他的意思是借用deepseek的優異之處配上它們自身優 01/30 09:17
→ lusifa2007 : 異的算力儲備 會產生更美好的成果 邁向AGI? 本夢 01/30 09:17
→ lusifa2007 : 比又來了 01/30 09:17
→ zzahoward : 其實很多人也都在討論4O本身也是RL 他們沒公布而已 01/30 09:17
→ gn02118620 : 前面講蒸餾 也很明顯 01/30 09:18
推 gbman : DS就是佛開源大家一起捲CC 01/30 09:18
→ lusifa2007 : 這本來就是好事 目前很多大公司都禁止員工把資料喂 01/30 09:19
→ lusifa2007 : 給AI 現在可以低成本建置各公司建置自家AI的意願提 01/30 09:19
→ lusifa2007 : 升 硬體需求應該會越來越多 01/30 09:19
推 stocktonty : 慘了 豪紳們的錢還沒刮完 就要開始降價了 01/30 09:19
推 poeoe : 能降硬體成本就是好事 有人帶頭在想辦法算法降成本 01/30 09:20
→ poeoe : 其他人跟上就好 01/30 09:20
→ stocktonty : 一開始說沒要盈利 要開始圈錢了卻殺出個程咬金 01/30 09:21
→ AirPenguin : 他講的就這幾天一堆人講過的 就中小企業自用CP值高 01/30 09:22
→ zzahoward : 大語言存在性還是必要阿 01/30 09:23
→ zzahoward : 一般人還是大模型好用 專業人士用小模型 01/30 09:24
→ zzahoward : 大模型* 01/30 09:24
推 KrisNYC : R1就真的把他的推導過程全部寫給你看阿 01/30 09:25
推 sdbb : 現在的大模型等於以後的小模型 01/30 09:25
→ zzahoward : 大模型太雜了 邊際成本太高 所以才有小模型的需求 01/30 09:27
→ MyPetTankDie: 效率化是好事 01/30 09:27
→ AirPenguin : 講真原本高不可攀的AI中小能插一腳反而會帶動硬體吧 01/30 09:27
推 redbeanbread: 急了 01/30 09:28
推 straggler7 : 更低的成本 更高的售價 01/30 09:29
→ meatbear : NVDA : 躺著中槍 華西街:不是,我早想砍你很久了 01/30 09:30
推 k1k1832002 : 要看就是了,感覺有點像當初的挖礦潮,H100不是人 01/30 09:31
→ k1k1832002 : 人都能買但是5090可以考慮,只是5090銷量能否補上 01/30 09:31
→ k1k1832002 : 要觀察,也有可能乾脆利用既有的雲平台 01/30 09:31
推 lusifa2007 : 應該像是公司會建置自家NAS一樣 自家資料拿來餵自 01/30 09:33
→ lusifa2007 : 家AI才放心 01/30 09:33
※ 編輯: Lushen (36.229.38.139 臺灣), 01/30/2025 09:34:59
→ zzahoward : 帶動硬體我不敢說 因為租賃平台不跑大模型情況下算 01/30 09:38
→ zzahoward : 力應該足夠給數千倍的小模型跑 01/30 09:38
推 lusifa2007 : 租賃平台當然有市場 如果需求變多 租賃平台也要擴 01/30 09:40
→ lusifa2007 : 張硬體採購 不過有技術保密需要的公司應該還是會建 01/30 09:40
→ lusifa2007 : 置自家的AI 吧 01/30 09:40
推 s881720 : 就OpenAI貴大家不爽 一天限額使用是手遊呢== 01/30 09:41
推 redbeanbread: 5090不夠賣吧 01/30 09:41
推 Siika : closedAI就真的賣太貴了 大家一起卷對user很好啊 01/30 09:42
推 Aliensoul : 翻譯:請大家繼續每個月花200美金支持我們喔! 01/30 09:44
→ dongdong0405: OpenAI裡也有中國人 中又贏 01/30 09:47
→ Rattlesnake : 除非封閉式ai有更特別之處 類似頻果vs 安卓 不然 01/30 09:48
→ Rattlesnake : openai無法長久 01/30 09:48
推 stocktonty : 重點在 還需不需要跟著一起搶購最貴的最新款的 01/30 09:48
推 mamorui : 還不是要用OpenAI, 流量大戶可以加價給他買 01/30 09:49
推 stocktonty : 塞港缺櫃報復性消費人人搶 一櫃10000鎂也得吞 01/30 09:54
→ stocktonty : 不塞了有櫃了 反而大家開始等等看會不會更便宜 01/30 09:54
推 herculus6502: 首先,你要釀得出酒來 01/30 09:54
→ stocktonty : 所以才會飢餓行銷搞限量維持供不應求才能維持高毛利 01/30 09:55
推 XFarter : 其實 Gemini 2.0 flash thinking 目前也是無價搜尋 01/30 09:55
→ XFarter : 、更大量 Token 以及有相對接近 o1 的能力,但 DS 01/30 09:55
→ XFarter : 的開源、自由部署以及新的思路三點齊下才是讓整個網 01/30 09:55
→ XFarter : 路流量爆炸的原因 01/30 09:55
→ XFarter : 甚至如果你只是為了 LLM 的功能,一般使用者現在已 01/30 09:55
→ XFarter : 經可以一毛不花的使用近 o1 水準的模型了 01/30 09:55
推 c928 : 自己人,蒸餾沒事兒 01/30 09:57
推 ots625 : 以後就是客製化,跟選電腦配備,軟體也有分等 01/30 09:58
→ stocktonty : 兩年前是哀鳳時刻的話 現在就是小米時刻?xd 01/30 10:01
→ tctv2002 : 當成IOS跟安卓就好惹 01/30 10:09
→ IBIZA : 現在任何人都能在自己電腦裝一個啊 01/30 10:12
→ IBIZA : 我電腦跑不動R1,但我也裝了一個蒸餾版 01/30 10:13
推 ImHoluCan : 好的Nvidia 40見 01/30 10:13
推 spa41260 : 開源本來就是讓人拿來用的啊,只要不要用完以後反 01/30 10:16
→ spa41260 : 控對方抄襲就好 01/30 10:16
推 clecer : 本地監製R1硬體需求超低,gg準備崩盤了 01/30 10:26
→ clecer : 本地建置 01/30 10:26
推 laputaca : 帥 01/30 10:29
推 zbo5566 : 黑起來 01/30 10:32
推 Bmtswiiii : 美國人的抄能算抄嗎 01/30 10:41
推 joke3547 : meta那個有夠酸,笑死 01/30 10:42
推 lovefriend : 看看前幾篇吵成這樣 想說哇小島有這麼多AI專業人士 01/30 10:46
→ lovefriend : 那應該可以成為AI大國唷!! 哈哈 殊不知一堆鍵盤手啦 01/30 10:46
推 agoodjob : 這人也是中國人,該不會資料就他給的吧 01/30 10:49
推 kuso198610 : perplexity好像付費板材可以用R1...=.= 01/30 11:24
推 Axwell : 免費版不能挑模型啊 01/30 11:25
推 ZMTL : Mark Chen是台灣人... 母親是清大教授 01/30 11:38
→ linzero : 之前有人就在猜這些大廠已經在用自家大型模型來訓練 01/30 12:00
→ linzero : 小型模型來直接應用獲利 01/30 12:01
推 ImMACACO : 限額使用真的是硬傷 01/30 12:05
推 Brioni : 可以確定當高訂商品的市場策略被破壞了,白菜價預備 01/30 12:18
→ Brioni : ~ 01/30 12:18
→ ealleneee91 : 蘋果有什麼特別之處 01/30 12:27
推 Lenney33 : 真香.jpg 01/30 12:34
推 mopa : 大概就是訓練門檻變低,遍地開花,但還是需要硬體提 01/30 12:36
→ mopa : 供算力,需求不會減少,但會分散。 01/30 12:36
→ Brioni : 硬體仍有需求,但就不是非得短時間追求最頂的效能 01/30 12:46
推 clecer : 就不需要那麼多先進製程,用三星intel也可以,gg領 01/30 13:23
→ clecer : 先地位直接被軟體演算法打折 01/30 13:23
→ faultless : 有競爭才有進步,對ai開發才好 01/30 13:40
→ LightWorker : OpenAI 的首席研究員也是中國人? 01/30 13:41
推 hcwang1126 : OpenAI 不怕燒錢 01/30 18:12
推 umum29 : 那個英文留言真的說到我心坎 對使用者 好用就王道 01/31 01:25
→ umum29 : 一堆美國大廠都支援deepseek 你還在吵無法查64? 01/31 01:27