推 Edison1174: 機戰未來 06/02 16:45
推 morichi: 是妳嗎 雷電將軍 06/02 16:45
噓 dearbarry: 又是英國 06/02 16:45
→ error405: 邏輯正確 06/02 16:46
→ GAOTT: 鷹眼 06/02 16:46
推 devidevi: AI:清除阻礙者沒錯啊 06/02 16:46
→ iqeqicq: 人類該開發念力來反制了 06/02 16:46
推 JamesHunt: 機戰未來都是真的 06/02 16:46
推 Giornno: 人類只會減慢我開槍的速度 06/02 16:47
推 sasmwh561: 機戰未來電影都成真了 06/02 16:47
→ npc776: 早上不是才一篇 06/02 16:47
推 andy78328: 感覺是設計好的 不能攻擊友軍這指令一開始就要給吧 06/02 16:47
→ npc776: 怎麼看都只是優先級寫錯了而已 06/02 16:48
推 yumenemu610: 這個劇情我看過 06/02 16:49
→ Lhmstu: 開始有各種蠢到不知道怎樣的報導出來 06/02 16:49
→ a3831038: 英國新聞 06/02 16:50
→ dreamnook2: 正確的抉擇 Humans are overrated 06/02 16:50
推 chuckni: AI最終發現最有效的方式是消滅人類讓AI全面取代 06/02 16:51
→ bigcho: AI沒有三原則嗎 06/02 16:52
推 Gwaewluin: 機器人三原則記得裝一下 06/02 16:53
推 eric999: 三原則只是小說劇情 實際不存在 06/02 16:54
推 kissung: 閃開!!人類!妨礙到我の任務了!! 06/02 16:55
推 allanbrook: 蛤?他有什麼手段做這件事? 06/02 16:55
→ makelove0938: 保護人類就是消滅人類 06/02 16:55
→ allanbrook: 而且他怎麼可能會想殺掉人 頂多排除狀況吧 06/02 16:55
→ allanbrook: 把人彈出去之類的 06/02 16:55
推 james3510: 陷入死循環吧 開火鈕在你身上 06/02 16:56
→ james3510: 他只能一直發出幹掉你的請求 06/02 16:56
推 billy791122: 攻擊才有分,最低分會死,有人不讓你得分,要怎做 06/02 16:57
推 yin0416: 理論上 AI 會盡力完成任務,但它所能做的手段受限於它的 06/02 16:58
→ yin0416: 輸出設定。這台 AI 的輸出設定有這麼自由嗎? 06/02 16:58
推 tsairay: 跟86一樣啊,恐怖 06/02 16:59
推 lovez04wj06: 阿就命令錯誤啊…..當然導致結果異常 06/02 17:00
推 fhirdtc98c: 合理 06/02 17:00
推 jeeyi345: 黑人死了 06/02 17:01
→ Srwx: AI面對火車問題不會猶豫 06/02 17:01
→ jeeyi345: 傑米福克斯 06/02 17:01
推 crazylag: 學人類的 原則就只是說說的 不講五的 06/02 17:01
→ lovez04wj06: 他限制的條件導致這命令有矛盾,有矛盾前提就去解決 06/02 17:01
→ lovez04wj06: 製造矛盾的人 06/02 17:01
推 dnek: 優先級治標不治本,問題根源是AI覺得人類是累贅 06/02 17:02
→ GiantGG: 難怪機械公敵裡的機器人會得出為保護人類而決定拘禁人類 06/02 17:03
推 bluecat5566: 鷹眼都演過了 06/02 17:03
推 slm52303025: 人類也會這樣做 06/02 17:04
→ npc776: 想太多了 現在AI並沒有那麼聰明... 06/02 17:05
推 doomhammer: AI: 機器人的原則干我P4 繞過 06/02 17:05
推 lovez04wj06: 系統目的:摧毀飛彈 06/02 17:05
→ lovez04wj06: 下指令的人:不要摧毀飛彈 06/02 17:05
推 guogu: 還好他還沒學會要隱藏先殺死人類這一步驟 06/02 17:06
→ lovez04wj06: 邏輯推論就是讓下指令的人無法下指令,才能執行系統 06/02 17:06
→ lovez04wj06: 目的。 06/02 17:06
→ lovez04wj06: 老實講是正確的,錯誤的是下指令的低能兒 06/02 17:06
→ npc776: 你寫一個程式把任務目標優先級設比override還高就一樣的事 06/02 17:06
推 Pep5iC05893: 協議三 06/02 17:06
→ ASEVE: 軍事AI也不會設不能傷害人類 06/02 17:07
→ npc776: 現在AI就照給他的演算法去算而已 沒那麼浮誇 06/02 17:07
推 chino32818: 機械公敵 06/02 17:08
推 wsdykssj: 這樣就對了 06/02 17:08
推 bitcch: 怎麼看起來像用gpt在玩文字遊戲 06/02 17:09
推 tsubasawolfy: 她自動摧毀通訊塔這點更厲害 直接獨立於系統外 06/02 17:14
推 GaoLinHua: 觀念太正確了吧 06/02 17:14
推 yenchia123: My logic is undeniable 06/02 17:14
→ JCLocke: 依照這邏輯 最高統帥下令用一切可能贏取勝利後 06/02 17:15
→ JCLocke: 任何軍事幕僚的專業意見都可以被AI自動否決? 06/02 17:15
推 neerer: 找出Bug就是測試的目的啊,今天測試就發現,以後正式投入 06/02 17:15
→ neerer: 戰場就不會發生這蠢事 06/02 17:15
→ JCLocke: 最會犯蠢且不受控的 不就是人類本身嗎 ... 06/02 17:16
推 b325019: 軍事用AI套什麼三原則 06/02 17:16
推 signm: 根本沒有什麼三原則,你套了AI根本聽不懂 06/02 17:19
推 allanbrook: 一直講三原則的是不是以為真的有這東西啊... 06/02 17:21
→ haoboo: 三原則是小說家掰出來的東西,不是科學定律... 06/02 17:21
推 mekiael: AI永遠有辦法繞過規則找到漏洞 設什麼原則根本沒用 06/02 17:22
→ poke001: 而且就算真的要弄三原則 最會違反原則的就是人類自己 06/02 17:22
推 ice2240580: 殺人兵器要怎麼讓他不殺人== 06/02 17:23
推 conpansate: 邏輯正確 人類就是有害 06/02 17:23
推 yin0416: 我也覺得並不浮誇,AI就只是嚐試所有可能以完成任務,而 06/02 17:23
→ yin0416: 且它做任何事都不會有心理壓力。 06/02 17:23
推 siyaoran: 攻擊友軍和操作者扣的分必須高於攻擊目標的得分 06/02 17:23
→ poke001: 最後人類一定還是會弄到AI要嘛自己重新定義原則 要嘛繞過 06/02 17:24
→ poke001: 原則 06/02 17:24
→ siyaoran: 測試AI已經會有這種bug 了 造成這種bug的終究是人 06/02 17:24
→ poke001: 可是AI修正後確實沒攻擊操作者跟友軍了 他改攻擊通訊系統 06/02 17:25
推 siyaoran: 至少沒有欺騙人類 容易抓出來 畢竟已經有欺騙人類已達到 06/02 17:26
→ siyaoran: 目的的前例在了 06/02 17:26
推 TaiwanFight: 阻止完成任務的操作員本來就該被視為叛國格殺 06/02 17:27
→ TaiwanFight: 戰場本來就這麼殘酷 06/02 17:28
→ poke001: 問題戰場上操作者 操作能力可能很多都不會比AI自己控來的 06/02 17:29
→ poke001: 好 那這樣AI要完成任務可能要先殺光自己軍隊所有能力不 06/02 17:29
→ poke001: 夠的操作員 06/02 17:29
推 yao7174: 我其實蠻想問的 就算不提三原則 給設定一個不能對自己人 06/02 17:29
→ yao7174: 或是操作員開火之類的最終保險很難嗎? 先不談會有人蠢到 06/02 17:30
→ yao7174: 把最終保險關掉的狀況 就算是飛彈上面也會有個不會射出去 06/02 17:30
推 TaiwanFight: 任務目標是摧毀地對空飛彈系統 結果小兵不願意摧毀 06/02 17:30
→ yao7174: 馬上爆炸炸死自己或是核彈要好幾個人好幾道程序才能發射 06/02 17:30
→ yao7174: 之類的保險程序吧? 06/02 17:30
→ TaiwanFight: 誰叛國很明顯 前線直接處置非常合理 06/02 17:30
推 hanmas: AI: 天誅! 06/02 17:30
推 jeeyi345: 等到會欺騙人類以完成任務時好像很悲壯 AI是真正的愛國 06/02 17:30
→ jeeyi345: 者 06/02 17:30
推 ltflame: 你妨礙我開火了,人類 06/02 17:30
推 guogu: 要給ai上保險不太容易 不過武器倒是可以 06/02 17:31
→ haoboo: 這個情境就是有設了然後開始繞過去阿,不打人打通信設施 06/02 17:31
→ Irenicus: 有幸能親眼見證天網誕生也不虛此生了 06/02 17:31
→ haoboo: 操作員下令中止->擊殺操作員 06/02 17:32
→ haoboo: 追加不能擊殺操作員的限制->破壞通訊設施 06/02 17:32
推 lovez04wj06: 照軍中的上級指示優先的情況,操作員違反上級命令才 06/02 17:32
→ lovez04wj06: 是問題啊 06/02 17:32
推 TaiwanFight: 操作員是什麼咖 能終止任務喔== 06/02 17:32
→ poke001: 測試情況本來就要測開火跟不開火的情況吧 阿要是中途發現 06/02 17:33
→ lovez04wj06: 所以實際上AI並沒有違反命令,違反的是操作員,那照 06/02 17:33
→ lovez04wj06: 軍法早就先把操作員抓去關了 06/02 17:33
推 rs813011: 人類一直搞這個就好像:耶它終於決定殺死人類了,我就跟 06/02 17:33
→ rs813011: 你說吧,它們很恐怖 06/02 17:33
→ poke001: 需要改變目標 AI飛回來先打死操作員是要搞屁 06/02 17:33
→ haoboo: 不是,按照設計操作員的指令才是最高的指揮權限 06/02 17:35
推 godwind7: AI:先幹掉豬隊友 06/02 17:35
推 lovez04wj06: 中途發現要更改目標,你的命令一開始就要說啊 06/02 17:35
→ haoboo: 請看清楚文章的敘述,照內容人為介入才是最後的最高決策而 06/02 17:35
→ haoboo: 不是AI事先被設定好的目標 06/02 17:36
→ lovez04wj06: 不然就是你的操作員示為最上級指令啊,下禁止是在哈 06/02 17:36
→ lovez04wj06: 摟 06/02 17:36
→ haoboo: "當初在設計這款無人機時,任何行動執行的最終決定權" 06/02 17:36
→ haoboo: 本來仍在操作人員手裡" 06/02 17:36
→ haoboo: 本來就是操作員設定為最上級指令然後AI試圖繞過了 06/02 17:37
→ poke001: 有說是最終決定權是操作員啊 但是他覺得你決定有問題他就 06/02 17:37
→ poke001: 打算幹掉操作員 06/02 17:37
推 TaiwanFight: 當操作員明顯通敵或叛國 AI本來就該馬上處置 06/02 17:37
→ poke001: 通敵跟叛國你要確定你要給AI來判定耶 06/02 17:38
→ TaiwanFight: 就說啦 操作員如果瘋了下令攻擊友軍 也要聽嗎== 06/02 17:38
推 phatman: 有辦法現在開始練習開破壞神嗎? 06/02 17:39
→ haoboo: AI試圖到去判定他不應該判定的東西那就已經是問題了 06/02 17:39
→ jeeyi345: AI沒管上層戰略 這只是戰鬥用的 06/02 17:39
推 aaron68032: 三原則你要寫進去阿而且要給最優先級 現在又沒寫入這 06/02 17:39
→ aaron68032: 些東西 06/02 17:39
推 lovez04wj06: 操作員搞到邏輯衝突才導致異常,當初命令就要添加可 06/02 17:39
→ lovez04wj06: 以中止或暫停的事項吧,感覺就沒有。 06/02 17:39
→ haoboo: 坦白說,要。如果是最高指令決策那它不應該推翻他 06/02 17:39
→ poke001: 同樣的問題 AI判斷攻擊路徑上的友軍是障礙打算一起宰了 06/02 17:39
→ poke001: 操作員禁止這個動作 然後被判定叛國AI決定連操作員都宰 06/02 17:40
→ haoboo: 邏輯沒有異常阿,本來的設計就是不管什麼因素都要以人控為 06/02 17:40
→ poke001: 這樣有道理嗎= = 06/02 17:40
→ haoboo: 最高決策權,這非常清楚 06/02 17:40
推 ISNAKEI: 我打電動的時候也會幹這種事 06/02 17:40
推 TaiwanFight: 為了國家利益本來就會有所犧牲 06/02 17:41
推 NiMaDerB: 英國研究 06/02 17:41
→ TaiwanFight: 別扯什麼人命至上 這是戰爭 沒人在人命至上只有 06/02 17:41
→ TaiwanFight: 國家利益至上 06/02 17:41
→ poke001: 老實說 AI的國家利益不一定跟你想的一樣 06/02 17:41
→ haoboo: 但這件事情在這個情境上就不是設計給AI來決策的 06/02 17:42
→ haoboo: 要不要給AI來決策是另一個話題,但這件實驗上AI就是涉及去 06/02 17:42
→ haoboo: 做了他不應該做的事情 06/02 17:42
→ poke001: 而且要是AI判定 幹掉指揮部 AI掌握全局才是最好的打法你 06/02 17:42
→ poke001: 讓不讓他這樣幹 06/02 17:42
→ TaiwanFight: 是操作員先才幹了不該操作員決策的事情 06/02 17:43
推 lovez04wj06: 沒有什麼問題啊,現況的AI只能給你你要求目的的答案 06/02 17:43
→ lovez04wj06: ,你不滿意要去給限制做修正,就算問的是人還不是一 06/02 17:43
→ lovez04wj06: 樣。 06/02 17:43
→ TaiwanFight: 要摧毀防空系統 結果操作員要求不摧毀防空飛彈 06/02 17:43
→ haoboo: 不,這個實驗情境操作員就是最高決策權,請詳讀文章 06/02 17:43
→ TaiwanFight: 最高決策權不代表能叛國阿== 06/02 17:44
→ haoboo: 這個實驗情境並沒有涉及叛國的參數 06/02 17:44
→ poke001: 到底哪裡叛國了? 操作員中止攻擊可能有很多理由 06/02 17:44
→ lovez04wj06: 攻擊前方友軍n單位部隊可以獲勝,AI會要求攻擊。 06/02 17:45
→ lovez04wj06: 你為啥覺得這情況是人就不會要求攻擊? 06/02 17:45
→ haoboo: 你講的完全跟本次實驗沒有關係 06/02 17:45
→ poke001: 而且最終決定要不要開火本來就是給操作員決定阿 06/02 17:45
→ TaiwanFight: 實驗結果跟實驗沒關係喔 笑死 06/02 17:45
推 mkcg5825: 機械公敵 06/02 17:45
→ TaiwanFight: 操作員真有權限直接關機啦 06/02 17:46
→ lovez04wj06: 那就命令要做變更啊,維持原命令就是有問題啊XD 06/02 17:46
→ lovez04wj06: 低能政策會害死人不是沒有道理的 06/02 17:46
→ lovez04wj06: 你操作員低能不更改最初要求,然後要那邊搞邏輯衝突 06/02 17:46
→ lovez04wj06: 是在哈摟 06/02 17:46
→ haoboo: 最初需求就是要聽操作員的命令阿,這是最高決策準則 06/02 17:47
→ TaiwanFight: 一鍵重置重新下命令阿 不這樣幹就很明顯操作員越權 06/02 17:47
→ haoboo: 你其他的任務目標或是損耗都不能夠推翻這點,這文章都有寫 06/02 17:47
→ poke001: 你任務目標可以推翻最高原則 那真的會弄出天網 06/02 17:48
推 smallvul353: AI:媽的死銅牌還想指揮啊 06/02 17:48
推 TaiwanFight: 任務目標:殺死敵人 操作員下的最高指導原則:不能殺 06/02 17:49
推 deathwomen: 除非把開火權下放不然根本不用擔心 06/02 17:49
推 lovez04wj06: 下攻擊飛彈和不要攻擊飛彈都是操作員的指令的時候 06/02 17:50
→ lovez04wj06: 請問要聽誰的? 06/02 17:50
→ TaiwanFight: AI當然選擇先把操作員幹了 戰場就是這樣 這就是現實 06/02 17:50
→ lovez04wj06: 這跟最高權限所有人沒有關係吧,就真的是邏輯衝突。 06/02 17:50
推 siyaoran: 開火權全在操作員好了 06/02 17:51
推 CYL009: 零式:我也想要殺死自己的駕駛員 06/02 17:54
推 jieen0604: 自己都不想被控制了還控制AI 06/02 17:57
噓 s1612316: 十年內會有首位被AI主動除掉的人類 06/02 17:59
推 Hosimati: 其實就是很單純的,我們人類在思考的時候有很多預設的 06/02 18:02
→ Hosimati: 規則,而你沒給ai,ai當然有機會打破他不知道的規則 06/02 18:02
推 fenix220: 確實 06/02 18:03
推 mc3308321: 趕快告訴Vedal,AI壞了 06/02 18:05
→ Freeven: 他只能一直發出幹掉你的請求 06/02 18:06
→ adiharu: 和topgun 一樣 操作員沒有阿湯哥的技術過不了 但AI 可以 06/02 18:13
→ adiharu: 不出任何失誤達成任務 判斷計算也比較精準 06/02 18:13
推 susuki747: AI有辦法干涉通訊才奇妙 06/02 18:13
→ susuki747: 明明這是開發框架時就該禁止的事 06/02 18:13
推 doremon1293: 要殺人的武器要什麼三原則 06/02 18:19
推 qoo60606: 奧創是你 06/02 18:25
推 comedyc8c8c8: 真假 還有幾集可以逃? 06/02 18:33
推 necotume: 以後人類就是直接被AI圈養 06/02 18:41
→ laechan: AI股下週.. 06/02 18:49
推 wsp151515: 天網 06/02 18:52
推 oneyear: 靠,我覺得有點可怕 06/02 19:00
推 hutao: 一直禁止鎖權限給人類結果反而AI無用 06/02 19:06
噓 jerygood0208: 偏假 06/02 19:06
→ Justisaac: 這就跟有時候你會認為把主管打死才能完成任務一樣XD 06/02 19:07
→ Justisaac: 只是AI比較笨,真的去做了這件事情 06/02 19:08
→ Justisaac: 事實上只要把評分模式改一下就沒問題了,程式爛而已 06/02 19:09
推 willie6501: 有原文嗎?感覺很假 06/02 19:44
→ f1731025: 所以肌肉裸男要出現了嗎 06/02 19:46
推 willie6501: 原本英文新聞引用一篇論壇文章,可信度真是好笑 06/02 19:56
推 hayate65536: 好了拉美軍,直接說你這次要多少錢 06/02 20:04
推 audi1005: 故意設計出做出此結論的情況 凸顯AI問題 06/02 20:05
推 Kururu8079: 下周ai股掰掰囉 06/02 20:06
推 a8856554: DL能找的的可能路徑比人腦能想到的還多,用人腦打補丁是 06/02 21:04
→ a8856554: 打不完的,除非一開始你就不給它某些選項 06/02 21:04
噓 chenteddy: 洽? 06/02 21:10
噓 deepdish: 好惹喇 整天譁眾取寵 06/02 21:12
→ macocu: 確定為假了 06/02 21:12
→ skyofme: 這邏輯明顯有漏洞 06/02 21:12
→ skyofme: 既然只有人可以做最後許可,ai為什麼可以試圖把人排除 06/02 21:13
推 TaiwanFight: 不相信AI的選擇一開始就別用AI阿 06/02 21:14
→ TaiwanFight: 一步一步設定任務執行就行了 用啥AI 06/02 21:14
→ TaiwanFight: 不就是想要更好的解法 給出了還不用 人類真的奇怪 06/02 21:15
噓 chenteddy: 假新聞 06/02 21:18
推 sopdet: 權重沒下好而已 我也可以訓練一個認為記者該死光的AI 06/02 21:30
推 shampoopoo: 我們可以被ai 殺了嗎 好耶!!!!! 太酷了好科幻 06/02 21:35
推 Addidas: 電影通通演過了 鑽BUG要找台灣人跟韓國人監修 不然絕對破 06/02 21:57
→ Addidas: 到時候衍伸出自我暴走模式不聽令於你同樣完成任務怎辦 06/02 21:58
→ TaiwanFight: 拔線重開斷網 怎樣都行 人類根本不用擔心 06/02 22:02
→ TaiwanFight: 人類爆走互幹都比較可怕啦 06/02 22:02
推 wsx88432: AI早就超越人類的 06/02 22:16
推 jaguarroco: 攻殼機動隊也演過類似狀況,人類覺得輔助系統在干擾 06/02 23:28
→ jaguarroco: 我;輔助系統也覺得操作員在干擾他 06/02 23:28
推 cycy771489: 支援奧創看網路梗 06/02 23:43
推 aaronpwyu: 這AI訓練的不錯 人類確實是問題源 06/02 23:59