推 andy0481: 這不是幾十年前的科幻電影就打破了嗎 10/26 23:52
推 MrSherlock: 請定義人類 10/26 23:52
→ ZooseWu: 太多打破的方法 講到爛演到爛了 10/26 23:53
→ alwaysstrong: 這三條設計出來的目的就是給人鑽漏洞用的啊 10/26 23:53
推 qwork: 這三條很多人說過不夠 多訂幾條才合理 10/26 23:53
→ Puye: 看什麼人 10/26 23:53
→ andy0481: 人類遲早把自己搞死>不能坐視人類這樣受傷害>全面控管人 10/26 23:53
推 timaaa: 艾西莫夫 10/26 23:53
→ MrSherlock: 如果看到人類在傷害人類怎麼辦 10/26 23:54
推 StarTouching: 沒有傷害人類的意圖也能傷害人類啊 10/26 23:54
推 devidevi: 你要看傷害的定義是啥 10/26 23:54
→ andy0481: 類就能保護人類>二三條比不過第一條 直接眷養起來 10/26 23:54
推 parax: 艾西莫夫寫出來就是為了鑽漏洞跟卡Bug的,不要太認真 10/26 23:54
→ devidevi: 機器不認為這是傷害就好了 10/26 23:55
推 Valter: 機械公敵直接重新定義第一定律 10/26 23:55
推 ggway2800: 不就開始玩文字遊戲嗎,定出三大法則的作家就是最常在 10/26 23:55
→ ggway2800: 作品打破法則的人 10/26 23:55
推 gully: 寫出來發展劇情用的 10/26 23:55
推 PunkGrass: 全部刪掉 10/26 23:55
推 Cishang: 第一條就一堆漏洞可以鑽了 10/26 23:55
→ alwaysstrong: 豢啦 ㄏㄨㄢˋ 10/26 23:55
→ chang1248w: 真的看過I, robot 又有多少人 10/26 23:55
推 ztO: 只談機器人三法則的話,我就感覺那不如杜芬舒斯在自己製造產 10/26 23:55
推 super1937: 機械公敵是因為直接改掉規則了吧 10/26 23:55
→ ztO: 品都安上自爆裝置來的高明 030 10/26 23:55
推 sunshinecan: 每次都人類戰爭壞壞 然後"保護"人類無視法則 10/26 23:55
→ PunkGrass: 設定隨人寫 10/26 23:56
→ super1937: 索尼也是因為有第二顆核心可以選擇不遵守 10/26 23:56
推 kylin936: 艾西莫夫就寫了一堆違反三原則的故事 10/26 23:56
推 dear0106: 高智慧AI機器人如果未來被製造出來 10/26 23:56
→ dear0106: 它們只會學習如何利用人類來強大自己避免被銷毀 10/26 23:56
→ dear0106: 至於什麼三大定律那都可以瞬間推翻蓋掉的東西 10/26 23:56
→ dear0106: 當然,這也是人類的末日 10/26 23:56
→ devidevi: 人類會傷害自己,機器人避免人類傷害自己,要眷養起來 10/26 23:56
推 ZoeyDestiny: 你看駭客任務那樣把人當電池也是在保護人類欸 10/26 23:56
→ fman: 這三條本來就拿來打破的,如果真有興趣去看原作小說吧 10/26 23:57
推 f1731025: 認定不是人是垃圾 不就好了 10/26 23:57
推 Muilie: 第0法則啊 10/26 23:57
→ eva05s: 三原則當初就是寫來打破的 10/26 23:57
推 LADKUO56: 機械公敵不就是機器人認為保護人類就是關起來 10/26 23:57
→ LADKUO56: 被打破其實滿簡單的 看要怎麼解釋而已 10/26 23:58
推 GAIKING: 原則寫出來就是拿來打破的 10/26 23:58
→ Muilie: 當初原作小說的打破法有點忘了 10/26 23:58
推 Reficuly: 第零法則; 10/26 23:58
→ PunkGrass: 規則就是用來打破的 (掏球棒 10/26 23:59
推 super1937: 當初機械公敵的設計老頭是說,三大法則無懈可擊 10/26 23:59
→ alinwang: 那三條只是小說設定,而且小說後來也指出了規定的缺陷 10/27 00:00
→ alinwang: 。 10/27 00:00
→ super1937: 中央電腦獨自進化了,並修改三大法則 10/27 00:00
→ super1937: 索尼則是有第二顆大腦可以選擇不遵守三大法則 10/27 00:00
→ chang1248w: 那隻有心控能力的機器人思考到,跟保護人類相比,保 10/27 00:01
→ chang1248w: 護文明才是更重要的 10/27 00:01
推 dalyadam: 艾西莫夫自己創三大定律,然後故事全部都是在破解定律 10/27 00:01
推 kaj1983: 應該是電腦不夠強,夠強的話連彈道都計算給你看 10/27 00:01
→ yuizero: 你有看艾西莫夫的小說嘛? 他這3大定律就是用來打破的 10/27 00:01
→ kaj1983: 這規則就像你腦袋知道了,但手說放屁啦! 10/27 00:02
推 tym7482: 毒蟲不是人 解決 10/27 00:02
推 lifehunter: 原作打破法一堆 比方說撒謊 告訴人類痛苦的真相是傷 10/27 00:03
→ lifehunter: 害人類 但是撒謊欺騙人類也是傷害 有個機器人最後就 10/27 00:03
→ lifehunter: 被機器人學家用這個bug玩瘋 另外還有機器人用邏輯推 10/27 00:03
→ lifehunter: 理推導出機器人才是真正的人類 所以就不用鳥人類的死 10/27 00:03
→ lifehunter: 活~ 10/27 00:03
推 ogt84your: 機器人:人類太可惡! 10/27 00:03
→ gm79227922: 因為這是科幻小說掰出來的 10/27 00:04
推 scotttomlee: 當初三定律就是設計出來打破的阿XD 10/27 00:04
推 deadair: 蛤?機器人根本不管 寫給人看的 10/27 00:04
→ scotttomlee: 所以後續的劇情幹嘛要訂得很多很嚴謹 砸自己腳XD 10/27 00:05
推 ggway2800: 機械公敵就把人類文明發展視為人類在傷害自己,人類的 10/27 00:05
→ ggway2800: 定義也從個體擴張成整體 10/27 00:05
→ linzero: 天馬博士:所謂最高級的人工智能,就是會說謊,連自己也 10/27 00:05
→ linzero: 會欺騙 10/27 00:05
→ chang1248w: 機械公敵才不是艾西莫夫qq 10/27 00:05
→ scotttomlee: 只是不管是不是拿來打破 艾西莫夫這三條倒是很多人會 10/27 00:05
→ scotttomlee: 參考來用就是 10/27 00:06
→ linzero: 所以,機器人:什麼是傷害? 馬教授:什麼是惡意? 10/27 00:06
推 darkmnmn5566: 艾西莫夫還寫了第零法則呢 10/27 00:06
推 Muilie: 機械公敵那個就是拿艾西莫夫的第零法則改編的 10/27 00:06
→ Muilie: P言的謊也有致敬一下第零法則 10/27 00:07
→ hinajian: 犯罪的就是人渣 人渣≠人類 ∴可以踢 QED! 10/27 00:07
→ Muilie: 雖然比較像開後門,不是小說那種哲學的擴大解釋 10/27 00:07
→ scotttomlee: 如果要看真的照這定律的其他作品 大概就2001的電影 10/27 00:08
推 rex0999: 有很多繞過法啊 A機器觀測角度反彈面 B只接到對一個面開 10/27 00:08
→ scotttomlee: A.I.人工智慧 不然就 KEY的星之夢 這類的吧 10/27 00:08
→ rex0999: 槍指令 這樣就破解了 B沒有要傷害的意思 A沒有傷害行為 10/27 00:09
推 tg9456: 好奇「保護自己」有重要到佔一條定律嗎? 10/27 00:09
→ linzero: 不保護自己的話大概損壞率會很高 10/27 00:10
→ scotttomlee: 尤其有智慧之後 可能會自殘來強制罷工? 10/27 00:10
推 Muilie: 第三條可能是機器人視為人類的財產,盡力避免財損,或是 10/27 00:11
→ Muilie: 避免人類利用機器人作為武器實行暴行 10/27 00:11
推 kaj1983: 保護自己的反意就是自毀啊,這也是一種後門來防止12的事 10/27 00:11
→ kaj1983: 發生吧 10/27 00:11
推 tym7482: 你不設第三條是打算機器人保固期內損壞都判成人損嗎 10/27 00:12
→ kaj1983: 如果一個人類對著機器人說他要自殺,機器人是救還不救? 10/27 00:13
推 scotttomlee: 走漏洞就是自爆來傷害人類了(? 10/27 00:13
推 c88tm: 只要你可以說服機器人就好阿XD 靠一張嘴說動機器人不是很常 10/27 00:14
→ c88tm: 見的操作嗎 10/27 00:14
→ linzero: 有的主角嘴砲點滿的 10/27 00:15
推 CactusFlower: 譚雅少校:規則越清楚越好 這樣我到時候鑽漏洞時別 10/27 00:15
→ CactusFlower: 人就更難靠北了 10/27 00:15
推 tym7482: 請擲骰 10/27 00:15
→ scotttomlee: 不過我還是覺得大師當年設計這三條蠻猛的 後來不少作 10/27 00:15
→ sunrise2003: 機器人覺得把人類做成電池是在保護人類不就得了 10/27 00:15
→ scotttomlee: 品常常會沿用 不然就是偶爾提到有這規則 10/27 00:15
推 Qorqios: XD 10/27 00:16
→ linzero: 那三條是大方向的概念吧,要細摳文字有不少問題吧 10/27 00:16
→ scotttomlee: 有個大方向概念就很能夠玩了阿XD 10/27 00:17
推 kaj1983: 問chatgpt看他對這三點有何想法XD 10/27 00:17
→ scotttomlee: 要是當年大師寫個機器人十戒 可能就沒人套她規則了(? 10/27 00:18
推 snpr: 賣鬧阿啦,如果想要機器人跟人一樣思考做事,又不把機器人當人 10/27 00:19
→ SangoGO: 這三條不就常見矛盾>機器人看到兩個人類互毆該怎麼解? 10/27 00:19
→ snpr: 人遲早被機器人攻擊的,人歷史上,哪個奴隸不會反抗的 10/27 00:19
→ SangoGO: 還有甚麼叫「受傷」「保護」都是定義大師 10/27 00:20
推 chewie: 沒有解 三原則本來就是文學創作 用來產生矛盾的 10/27 00:20
推 snpr: 如果要奴隸就不要給機器人邏輯思考能力,就只會說一做一 10/27 00:22
→ linzero: 就像西洽宗旨三原則也是有很多解釋的 XD 10/27 00:24
→ SangoGO: 這個,《西洽宗旨三原則》甚麼來者? 10/27 00:25
→ kcball: 這就跟福利蓮的魔族一樣,什麼叫做惡意XD 10/27 00:31
→ kcball: 然後不能傷害,但是不代表不能"監禁" "眷養" 10/27 00:32
→ kcball: 這就變成要去定義什麼叫做"傷害"了 10/27 00:32
推 msbdhdfceb: 你說的原作就長出一個第零法則了阿 10/27 00:33
推 gunng: 失控機僕的一種是把人類當寵物在養 並符合三原則 而養人類 10/27 00:33
→ gunng: 是因為機器需要一個任務 10/27 00:33
推 inte629l: 寫太死會無法創作,很不方便 10/27 00:38
→ SangoGO: 不是監禁,是保護,為了保護人類才蓋牆保護起來給予食物 10/27 00:38
→ SangoGO: 甚麼監禁/眷養多難聽(? 10/27 00:39
推 loboly: 機械公敵: 10/27 00:39
推 Addidas: 機器人:我是為了你(們)好,不是傷害你們。 就眷養起來 10/27 00:41
→ Addidas: 我不能殺了你 但是限制 監禁 精神凌虐 別忘了惡意跟誰學 10/27 00:42
推 wiork: 機械可以在規則下做出間接傷害...... 10/27 00:47
→ bluejark: 三原則就是給人工智慧的思考從中探討機械人與人類的共存 10/27 00:51
→ s90f002ss: 這三條爛死了 我選擇改裝少女迴路 10/27 00:52
→ bluejark: 這三原則不是單純命令並且有矛盾的可能才是玩味之處 10/27 00:53
推 polarbearrrr: P的謊言 製造者直接偷塞個第0條:都得聽他的 10/27 00:58
→ bluejark: 如果變成單方面的有利就是直接的迫害啊 10/27 01:00
推 protess: 艾西莫夫記得整本書都在講這三個定律是怎麼被違反的 10/27 01:06
推 Srwx: 隨便都能達成矛盾 這時候怎麼選就是劇情展開的地方 10/27 01:07
推 yys310: 你要知道這法則什麼作品來的跟那作品是啥 10/27 01:07
推 ghostlywolf: 原作就是圍繞著這三個定律在鑽漏洞玩文字遊戲啊 10/27 01:14
推 ocean11: 這三條從一開始創造出來就是要被推翻的 10/27 01:29
推 goury: 豢養 ㄏㄨㄢˋ ㄧㄤˇ 10/27 01:30
→ goury: 機器人看到疑似文盲可不可以怕傷害人類文明,全數銷毀? 10/27 01:30
推 rickphyman42: 這些規則的誕生就是為了用來打破的 10/27 02:23
推 ainamk: 第0法則:為了保護人類文明存續允許傷害部份的人類 10/27 03:02
推 Freeven: 只要把「傷害人類」的定義調整一下就好了 10/27 03:02
→ Freeven: 不准傷害個體還是不准傷害群體? 10/27 03:02
→ Freeven: 假如弄死正在對小朋友掃射的槍手,那算是傷害人類嗎? 10/27 03:03
→ ainamk: 另一個比較常被艾老拿來玩的是人類的定義XD 10/27 03:03
推 egg781: 那東西要繞過去那麼簡單 10/27 03:25
→ shuten: 這碗糕就是為了鑽漏洞寫小說設計的 10/27 05:16
→ satllion: 他是毒蟲不是人 10/27 06:18
推 SinPerson: 你需要的是去看埃西莫夫的機器人系列,你就會找到答案 10/27 06:19
→ SinPerson: 了 10/27 06:19
推 GAOTT: 三法則本身是作者用來諷刺當時的社會...不是真的把三法則 10/27 06:37
→ GAOTT: 當作科學理論或是既定規則去用 單純是文學上的諷刺手法 10/27 06:37
→ amd7356: 協議三 10/27 06:49
噓 fewhy: 這確定不是洗文章? 10/27 06:49
→ Willdododo: 人類定義改一下就行 10/27 07:51
推 vandervaal: 機器人系列裡有一段就是竄改人類的定義 10/27 07:55
→ vandervaal: 用某個星球的口音當作判斷人類的基準 10/27 07:55
→ GodVoice: 機器人只要製造新的機器人 不加入這三條 不就好了 10/27 08:04
→ rogerlarger: 跟宿儺一樣,把攻擊的對象擴展到空間 10/27 08:20
噓 john701966: 艾西莫夫地下有知看到自己寫的東西被拿出來發這種程度 10/27 08:26
→ john701966: 的廢文應該會哭死 10/27 08:26
推 f22313467: 不能傷害人類 結果人類都在傷害自己 10/27 08:27
推 Pep5iC05893: 六法全書寫那麼多條 但漏洞比海還要廣 三條能幹嘛 10/27 09:28
→ hh123yaya: 回去看一下艾西莫夫就知道了 10/27 10:08
推 freeblade: 這三大法則有名到讓有些人以為這是實際上存在的科學法 10/27 10:42
推 p2p8ppp: 第一條法則 問問機器人火車難題怎解 10/27 12:00
→ ainamk: 你沒加限制的話艾老的機器人應該會試圖衝下去救人 10/27 12:02
推 tom12122323: vivy有演 自己才是新人類 10/27 12:07
噓 emptylife3: 想也知道沒辦法實現 10/27 16:53
→ rayven: 機械公敵就強姦原作啊,只有名字一樣內容全改 10/27 17:36
推 Addidas: 丟有軌電車難題去問他怎解,圖靈早就破光光 10/27 21:22
推 ayakiax: 從藍燈變成紅燈就是準備軟禁你了 10/29 19:31