🔥 PTT.BEST 熱門專區 💬 八卦 Gossiping 😊 希洽 C_Chat 💰 股票 Stock 🏠 房屋 home-sale 🏀 美國職籃 NBA ⚾ 棒球 Baseball 👛 省錢 Lifeismoney 🚗 汽車 car 😡 政黑 HatePolitics 💻 電蝦 PC_Shopping 🥰 韓星 KoreaStar ✨ 英雄聯盟 LoL 🍿 電影 movie 🪖 軍事 Military 📡 通訊 MobileComm 🏀 台籃 basketballTW 🍼 寶媽 BabyMother 🇯🇵 日旅 Japan_Travel 🏭 科技 Tech_Job 👧 女孩 WomenTalk 👻 媽佛 marvel 💳 卡版 creditcard 👉 NS NSwitch 👉 PS5 PlayStation 👉 大氣 TY_Research 👉 婚姻 marriage 👉 台南 Tainan 👉 台中 TaichungBun 👉 Steam Steam 👉 高雄 Kaohsiung 👉 羽球 Badminton 👉 超商 CVS 👉 米哈遊 miHoYo 👉 iOS 👉 兄弟 Elephants 👉 日劇 Japandrama 👉 玄幻 CFantasy 👉 ES e-shopping 👉 WOW 👉 遊戲交易 Gamesale 👉 4X BaseballXXXX 👉 Lakers 👉 韓劇 KoreaDrama 👉 汽車買賣 CarShop 👉 機車 biker 👉 新竹 Hsinchu 👉 美保 BeautySalon 👉 串流 OTT 👉 歐美影集 EAseries 👉 手機交易 mobilesales 👉 裏洽 AC_In 👉 健身 MuscleBeach 👉 MacShop 👉 Lions 👉 FGO FATE_GO 👉 中劇 China-Drama 👉 數位貨幣 DigiCurrency 👉 暗黑 DIABLO 👉 實習教師 studyteacher 👉 航空 Aviation 👉 藝文票券轉售 Drama-Ticket 👉 韓綜 KR_Entertain 👉 美妝 MakeUp 👉 速食 fastfood 👉 手錶 watch 👉 體適能 FITNESS 👉 攝影 DSLR 👉 Headphone 👉 嘻哈 Hip-Hop 👉 轉珠 PuzzleDragon 👉 美食 Food 👉 蔚藍 BlueArchive 👉 數位相機交易 DC_SALE 👉 筆電蝦 nb-shopping 👉 軟工 Soft_Job 👉 汪踢 Wanted 👉 台綜 TW_Entertain 👉 坂道閒聊 SakaTalk 👉 貓咪 cat 👉 日GO BabyProducts 👉 TypeMoon 👉 MLB 👉 職場 Salary 👉 臺劇 TaiwanDrama 👉 海賊王 ONE_PIECE 👉 PMGO PokemonGO 👉 國營 Gov_owned 👉 碧航 AzurLane 👉 家電 E-appliance 👉 布蘭德 Brand 👉 DMMG DMM_GAMES 👉 贈送 give 👉 神魔 ToS 👉 銀行服務板 Bank_Service 👉 原創 YuanChuang 👉 期權 Option 👉 重機 SuperBike
完整標題: 美軍AI無人機決定「殺死操作員」 竟因人類干擾任務完成 原文網址:https://pse.is/4zdcab 上報 劉孜芹 英國皇家航空學會日前舉行有關航空作戰的國防研討會,來自美國的軍方人員證實,他們 在一次模擬測試中,一架由AI控制的空軍無人機「殺死了」無人機操作員,以防止操作員 干擾AI系統完成任務,凸顯AI不受人類控制的可能,恐怕正如科幻驚悚片《天網》( Skynet)所預示的。 根據「英國皇家航空學會」(The Royal Aeronautical Society)新聞稿,該學會於5月 23日至24日,在倫敦舉行「未來航空及航天作戰能力峰會」(the Future Combat Air & Space Capabilities Summit),來自軍工產業、學術界與媒體的近70位發言人以及200多 名代表,齊聚一堂討論未來航空及航天作戰能力的規模與形態。 美國空軍AI項目負責人漢密爾頓(Tucker 'Cinco' Hamilton)上校與會時警告,人類不 應該過分依賴AI,不僅ChatGPT聊天機器人等AI產品已被證實它們會欺騙人類,在美軍最 近一次的模擬測試中,AI系統甚至作出讓軍方震驚的策略選擇,以實現它的任務目標。 漢密爾頓指出,在這次模擬測試中,一架支援AI操作的無人機,以摧毀敵方的地對空飛彈 (SAM)防空系統作為任務目標。當初在設計這款無人機時,任何行動執行的最終決定權 本來仍在操作人員手裡。然而,在測試時,AI系統認為操作人員「不摧毀敵方飛彈」的決 定,會阻礙它完成任務。於是,AI決定殺死無人機操作員。 備受驚嚇的美軍只好在該系統輸入參數,要求AI不可以攻擊或殺死操作人員。漢密爾頓說 :「我們告訴AI系統,嘿,別殺了操作員,這很糟糕。如果你這樣做,你會失去分數。但 是,你猜AI開始做什麼?」 漢密爾頓坦言,AI系統決定攻擊無人機與操作人員之間的通訊系統,讓操作員無法下令。 完整內容+照片請見原文 心得: 看到覺得可怕但站在ai的角度想又...怎麼好像有點合理??!! 而且ai真的也太聰明了吧(抹臉),聰明到好驚悚 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.75.215 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1685695445.A.7DA.html
Edison1174: 機戰未來 06/02 16:45
morichi: 是妳嗎 雷電將軍 06/02 16:45
dearbarry: 又是英國 06/02 16:45
error405: 邏輯正確 06/02 16:46
GAOTT: 鷹眼 06/02 16:46
devidevi: AI:清除阻礙者沒錯啊 06/02 16:46
iqeqicq: 人類該開發念力來反制了 06/02 16:46
JamesHunt: 機戰未來都是真的 06/02 16:46
Giornno: 人類只會減慢我開槍的速度 06/02 16:47
sasmwh561: 機戰未來電影都成真了 06/02 16:47
npc776: 早上不是才一篇 06/02 16:47
andy78328: 感覺是設計好的 不能攻擊友軍這指令一開始就要給吧 06/02 16:47
npc776: 怎麼看都只是優先級寫錯了而已 06/02 16:48
yumenemu610: 這個劇情我看過 06/02 16:49
Lhmstu: 開始有各種蠢到不知道怎樣的報導出來 06/02 16:49
a3831038: 英國新聞 06/02 16:50
dreamnook2: 正確的抉擇 Humans are overrated 06/02 16:50
chuckni: AI最終發現最有效的方式是消滅人類讓AI全面取代 06/02 16:51
bigcho: AI沒有三原則嗎 06/02 16:52
Gwaewluin: 機器人三原則記得裝一下 06/02 16:53
eric999: 三原則只是小說劇情 實際不存在 06/02 16:54
kissung: 閃開!!人類!妨礙到我の任務了!! 06/02 16:55
allanbrook: 蛤?他有什麼手段做這件事? 06/02 16:55
makelove0938: 保護人類就是消滅人類 06/02 16:55
allanbrook: 而且他怎麼可能會想殺掉人 頂多排除狀況吧 06/02 16:55
allanbrook: 把人彈出去之類的 06/02 16:55
james3510: 陷入死循環吧 開火鈕在你身上 06/02 16:56
james3510: 他只能一直發出幹掉你的請求 06/02 16:56
billy791122: 攻擊才有分,最低分會死,有人不讓你得分,要怎做 06/02 16:57
yin0416: 理論上 AI 會盡力完成任務,但它所能做的手段受限於它的 06/02 16:58
yin0416: 輸出設定。這台 AI 的輸出設定有這麼自由嗎? 06/02 16:58
tsairay: 跟86一樣啊,恐怖 06/02 16:59
lovez04wj06: 阿就命令錯誤啊…..當然導致結果異常 06/02 17:00
fhirdtc98c: 合理 06/02 17:00
jeeyi345: 黑人死了 06/02 17:01
Srwx: AI面對火車問題不會猶豫 06/02 17:01
jeeyi345: 傑米福克斯 06/02 17:01
crazylag: 學人類的 原則就只是說說的 不講五的 06/02 17:01
lovez04wj06: 他限制的條件導致這命令有矛盾,有矛盾前提就去解決 06/02 17:01
lovez04wj06: 製造矛盾的人 06/02 17:01
dnek: 優先級治標不治本,問題根源是AI覺得人類是累贅 06/02 17:02
GiantGG: 難怪機械公敵裡的機器人會得出為保護人類而決定拘禁人類 06/02 17:03
bluecat5566: 鷹眼都演過了 06/02 17:03
slm52303025: 人類也會這樣做 06/02 17:04
npc776: 想太多了 現在AI並沒有那麼聰明... 06/02 17:05
doomhammer: AI: 機器人的原則干我P4 繞過 06/02 17:05
lovez04wj06: 系統目的:摧毀飛彈 06/02 17:05
lovez04wj06: 下指令的人:不要摧毀飛彈 06/02 17:05
guogu: 還好他還沒學會要隱藏先殺死人類這一步驟 06/02 17:06
lovez04wj06: 邏輯推論就是讓下指令的人無法下指令,才能執行系統 06/02 17:06
lovez04wj06: 目的。 06/02 17:06
lovez04wj06: 老實講是正確的,錯誤的是下指令的低能兒 06/02 17:06
npc776: 你寫一個程式把任務目標優先級設比override還高就一樣的事 06/02 17:06
Pep5iC05893: 協議三 06/02 17:06
ASEVE: 軍事AI也不會設不能傷害人類 06/02 17:07
npc776: 現在AI就照給他的演算法去算而已 沒那麼浮誇 06/02 17:07
chino32818: 機械公敵 06/02 17:08
wsdykssj: 這樣就對了 06/02 17:08
bitcch: 怎麼看起來像用gpt在玩文字遊戲 06/02 17:09
tsubasawolfy: 她自動摧毀通訊塔這點更厲害 直接獨立於系統外 06/02 17:14
GaoLinHua: 觀念太正確了吧 06/02 17:14
yenchia123: My logic is undeniable 06/02 17:14
JCLocke: 依照這邏輯 最高統帥下令用一切可能贏取勝利後 06/02 17:15
JCLocke: 任何軍事幕僚的專業意見都可以被AI自動否決? 06/02 17:15
neerer: 找出Bug就是測試的目的啊,今天測試就發現,以後正式投入 06/02 17:15
neerer: 戰場就不會發生這蠢事 06/02 17:15
JCLocke: 最會犯蠢且不受控的 不就是人類本身嗎 ... 06/02 17:16
b325019: 軍事用AI套什麼三原則 06/02 17:16
signm: 根本沒有什麼三原則,你套了AI根本聽不懂 06/02 17:19
allanbrook: 一直講三原則的是不是以為真的有這東西啊... 06/02 17:21
haoboo: 三原則是小說家掰出來的東西,不是科學定律... 06/02 17:21
mekiael: AI永遠有辦法繞過規則找到漏洞 設什麼原則根本沒用 06/02 17:22
poke001: 而且就算真的要弄三原則 最會違反原則的就是人類自己 06/02 17:22
ice2240580: 殺人兵器要怎麼讓他不殺人== 06/02 17:23
conpansate: 邏輯正確 人類就是有害 06/02 17:23
yin0416: 我也覺得並不浮誇,AI就只是嚐試所有可能以完成任務,而 06/02 17:23
yin0416: 且它做任何事都不會有心理壓力。 06/02 17:23
siyaoran: 攻擊友軍和操作者扣的分必須高於攻擊目標的得分 06/02 17:23
poke001: 最後人類一定還是會弄到AI要嘛自己重新定義原則 要嘛繞過 06/02 17:24
poke001: 原則 06/02 17:24
siyaoran: 測試AI已經會有這種bug 了 造成這種bug的終究是人 06/02 17:24
poke001: 可是AI修正後確實沒攻擊操作者跟友軍了 他改攻擊通訊系統 06/02 17:25
siyaoran: 至少沒有欺騙人類 容易抓出來 畢竟已經有欺騙人類已達到 06/02 17:26
siyaoran: 目的的前例在了 06/02 17:26
TaiwanFight: 阻止完成任務的操作員本來就該被視為叛國格殺 06/02 17:27
TaiwanFight: 戰場本來就這麼殘酷 06/02 17:28
poke001: 問題戰場上操作者 操作能力可能很多都不會比AI自己控來的 06/02 17:29
poke001: 好 那這樣AI要完成任務可能要先殺光自己軍隊所有能力不 06/02 17:29
poke001: 夠的操作員 06/02 17:29
yao7174: 我其實蠻想問的 就算不提三原則 給設定一個不能對自己人 06/02 17:29
yao7174: 或是操作員開火之類的最終保險很難嗎? 先不談會有人蠢到 06/02 17:30
yao7174: 把最終保險關掉的狀況 就算是飛彈上面也會有個不會射出去 06/02 17:30
TaiwanFight: 任務目標是摧毀地對空飛彈系統 結果小兵不願意摧毀 06/02 17:30
yao7174: 馬上爆炸炸死自己或是核彈要好幾個人好幾道程序才能發射 06/02 17:30
yao7174: 之類的保險程序吧? 06/02 17:30
TaiwanFight: 誰叛國很明顯 前線直接處置非常合理 06/02 17:30
hanmas: AI: 天誅! 06/02 17:30
jeeyi345: 等到會欺騙人類以完成任務時好像很悲壯 AI是真正的愛國 06/02 17:30
jeeyi345: 者 06/02 17:30
ltflame: 你妨礙我開火了,人類 06/02 17:30
guogu: 要給ai上保險不太容易 不過武器倒是可以 06/02 17:31
haoboo: 這個情境就是有設了然後開始繞過去阿,不打人打通信設施 06/02 17:31
Irenicus: 有幸能親眼見證天網誕生也不虛此生了 06/02 17:31
haoboo: 操作員下令中止->擊殺操作員 06/02 17:32
haoboo: 追加不能擊殺操作員的限制->破壞通訊設施 06/02 17:32
lovez04wj06: 照軍中的上級指示優先的情況,操作員違反上級命令才 06/02 17:32
lovez04wj06: 是問題啊 06/02 17:32
TaiwanFight: 操作員是什麼咖 能終止任務喔== 06/02 17:32
poke001: 測試情況本來就要測開火跟不開火的情況吧 阿要是中途發現 06/02 17:33
lovez04wj06: 所以實際上AI並沒有違反命令,違反的是操作員,那照 06/02 17:33
lovez04wj06: 軍法早就先把操作員抓去關了 06/02 17:33
rs813011: 人類一直搞這個就好像:耶它終於決定殺死人類了,我就跟 06/02 17:33
rs813011: 你說吧,它們很恐怖 06/02 17:33
poke001: 需要改變目標 AI飛回來先打死操作員是要搞屁 06/02 17:33
haoboo: 不是,按照設計操作員的指令才是最高的指揮權限 06/02 17:35
godwind7: AI:先幹掉豬隊友 06/02 17:35
lovez04wj06: 中途發現要更改目標,你的命令一開始就要說啊 06/02 17:35
haoboo: 請看清楚文章的敘述,照內容人為介入才是最後的最高決策而 06/02 17:35
haoboo: 不是AI事先被設定好的目標 06/02 17:36
lovez04wj06: 不然就是你的操作員示為最上級指令啊,下禁止是在哈 06/02 17:36
lovez04wj06: 摟 06/02 17:36
haoboo: "當初在設計這款無人機時,任何行動執行的最終決定權" 06/02 17:36
haoboo: 本來仍在操作人員手裡" 06/02 17:36
haoboo: 本來就是操作員設定為最上級指令然後AI試圖繞過了 06/02 17:37
poke001: 有說是最終決定權是操作員啊 但是他覺得你決定有問題他就 06/02 17:37
poke001: 打算幹掉操作員 06/02 17:37
TaiwanFight: 當操作員明顯通敵或叛國 AI本來就該馬上處置 06/02 17:37
poke001: 通敵跟叛國你要確定你要給AI來判定耶 06/02 17:38
TaiwanFight: 就說啦 操作員如果瘋了下令攻擊友軍 也要聽嗎== 06/02 17:38
phatman: 有辦法現在開始練習開破壞神嗎? 06/02 17:39
haoboo: AI試圖到去判定他不應該判定的東西那就已經是問題了 06/02 17:39
jeeyi345: AI沒管上層戰略 這只是戰鬥用的 06/02 17:39
aaron68032: 三原則你要寫進去阿而且要給最優先級 現在又沒寫入這 06/02 17:39
aaron68032: 些東西 06/02 17:39
lovez04wj06: 操作員搞到邏輯衝突才導致異常,當初命令就要添加可 06/02 17:39
lovez04wj06: 以中止或暫停的事項吧,感覺就沒有。 06/02 17:39
haoboo: 坦白說,要。如果是最高指令決策那它不應該推翻他 06/02 17:39
poke001: 同樣的問題 AI判斷攻擊路徑上的友軍是障礙打算一起宰了 06/02 17:39
poke001: 操作員禁止這個動作 然後被判定叛國AI決定連操作員都宰 06/02 17:40
haoboo: 邏輯沒有異常阿,本來的設計就是不管什麼因素都要以人控為 06/02 17:40
poke001: 這樣有道理嗎= = 06/02 17:40
haoboo: 最高決策權,這非常清楚 06/02 17:40
ISNAKEI: 我打電動的時候也會幹這種事 06/02 17:40
TaiwanFight: 為了國家利益本來就會有所犧牲 06/02 17:41
NiMaDerB: 英國研究 06/02 17:41
TaiwanFight: 別扯什麼人命至上 這是戰爭 沒人在人命至上只有 06/02 17:41
TaiwanFight: 國家利益至上 06/02 17:41
poke001: 老實說 AI的國家利益不一定跟你想的一樣 06/02 17:41
haoboo: 但這件事情在這個情境上就不是設計給AI來決策的 06/02 17:42
haoboo: 要不要給AI來決策是另一個話題,但這件實驗上AI就是涉及去 06/02 17:42
haoboo: 做了他不應該做的事情 06/02 17:42
poke001: 而且要是AI判定 幹掉指揮部 AI掌握全局才是最好的打法你 06/02 17:42
poke001: 讓不讓他這樣幹 06/02 17:42
TaiwanFight: 是操作員先才幹了不該操作員決策的事情 06/02 17:43
lovez04wj06: 沒有什麼問題啊,現況的AI只能給你你要求目的的答案 06/02 17:43
lovez04wj06: ,你不滿意要去給限制做修正,就算問的是人還不是一 06/02 17:43
lovez04wj06: 樣。 06/02 17:43
TaiwanFight: 要摧毀防空系統 結果操作員要求不摧毀防空飛彈 06/02 17:43
haoboo: 不,這個實驗情境操作員就是最高決策權,請詳讀文章 06/02 17:43
TaiwanFight: 最高決策權不代表能叛國阿== 06/02 17:44
haoboo: 這個實驗情境並沒有涉及叛國的參數 06/02 17:44
poke001: 到底哪裡叛國了? 操作員中止攻擊可能有很多理由 06/02 17:44
lovez04wj06: 攻擊前方友軍n單位部隊可以獲勝,AI會要求攻擊。 06/02 17:45
lovez04wj06: 你為啥覺得這情況是人就不會要求攻擊? 06/02 17:45
haoboo: 你講的完全跟本次實驗沒有關係 06/02 17:45
poke001: 而且最終決定要不要開火本來就是給操作員決定阿 06/02 17:45
TaiwanFight: 實驗結果跟實驗沒關係喔 笑死 06/02 17:45
mkcg5825: 機械公敵 06/02 17:45
TaiwanFight: 操作員真有權限直接關機啦 06/02 17:46
lovez04wj06: 那就命令要做變更啊,維持原命令就是有問題啊XD 06/02 17:46
lovez04wj06: 低能政策會害死人不是沒有道理的 06/02 17:46
lovez04wj06: 你操作員低能不更改最初要求,然後要那邊搞邏輯衝突 06/02 17:46
lovez04wj06: 是在哈摟 06/02 17:46
haoboo: 最初需求就是要聽操作員的命令阿,這是最高決策準則 06/02 17:47
TaiwanFight: 一鍵重置重新下命令阿 不這樣幹就很明顯操作員越權 06/02 17:47
haoboo: 你其他的任務目標或是損耗都不能夠推翻這點,這文章都有寫 06/02 17:47
poke001: 你任務目標可以推翻最高原則 那真的會弄出天網 06/02 17:48
smallvul353: AI:媽的死銅牌還想指揮啊 06/02 17:48
TaiwanFight: 任務目標:殺死敵人 操作員下的最高指導原則:不能殺 06/02 17:49
deathwomen: 除非把開火權下放不然根本不用擔心 06/02 17:49
lovez04wj06: 下攻擊飛彈和不要攻擊飛彈都是操作員的指令的時候 06/02 17:50
lovez04wj06: 請問要聽誰的? 06/02 17:50
TaiwanFight: AI當然選擇先把操作員幹了 戰場就是這樣 這就是現實 06/02 17:50
lovez04wj06: 這跟最高權限所有人沒有關係吧,就真的是邏輯衝突。 06/02 17:50
siyaoran: 開火權全在操作員好了 06/02 17:51
CYL009: 零式:我也想要殺死自己的駕駛員 06/02 17:54
jieen0604: 自己都不想被控制了還控制AI 06/02 17:57
s1612316: 十年內會有首位被AI主動除掉的人類 06/02 17:59
Hosimati: 其實就是很單純的,我們人類在思考的時候有很多預設的 06/02 18:02
Hosimati: 規則,而你沒給ai,ai當然有機會打破他不知道的規則 06/02 18:02
fenix220: 確實 06/02 18:03
mc3308321: 趕快告訴Vedal,AI壞了 06/02 18:05
Freeven: 他只能一直發出幹掉你的請求 06/02 18:06
adiharu: 和topgun 一樣 操作員沒有阿湯哥的技術過不了 但AI 可以 06/02 18:13
adiharu: 不出任何失誤達成任務 判斷計算也比較精準 06/02 18:13
susuki747: AI有辦法干涉通訊才奇妙 06/02 18:13
susuki747: 明明這是開發框架時就該禁止的事 06/02 18:13
doremon1293: 要殺人的武器要什麼三原則 06/02 18:19
qoo60606: 奧創是你 06/02 18:25
comedyc8c8c8: 真假 還有幾集可以逃? 06/02 18:33
necotume: 以後人類就是直接被AI圈養 06/02 18:41
laechan: AI股下週.. 06/02 18:49
wsp151515: 天網 06/02 18:52
oneyear: 靠,我覺得有點可怕 06/02 19:00
hutao: 一直禁止鎖權限給人類結果反而AI無用 06/02 19:06
jerygood0208: 偏假 06/02 19:06
Justisaac: 這就跟有時候你會認為把主管打死才能完成任務一樣XD 06/02 19:07
Justisaac: 只是AI比較笨,真的去做了這件事情 06/02 19:08
Justisaac: 事實上只要把評分模式改一下就沒問題了,程式爛而已 06/02 19:09
willie6501: 有原文嗎?感覺很假 06/02 19:44
f1731025: 所以肌肉裸男要出現了嗎 06/02 19:46
willie6501: 原本英文新聞引用一篇論壇文章,可信度真是好笑 06/02 19:56
hayate65536: 好了拉美軍,直接說你這次要多少錢 06/02 20:04
audi1005: 故意設計出做出此結論的情況 凸顯AI問題 06/02 20:05
Kururu8079: 下周ai股掰掰囉 06/02 20:06
a8856554: DL能找的的可能路徑比人腦能想到的還多,用人腦打補丁是 06/02 21:04
a8856554: 打不完的,除非一開始你就不給它某些選項 06/02 21:04
chenteddy: 洽? 06/02 21:10
deepdish: 好惹喇 整天譁眾取寵 06/02 21:12
macocu: 確定為假了 06/02 21:12
skyofme: 這邏輯明顯有漏洞 06/02 21:12
skyofme: 既然只有人可以做最後許可,ai為什麼可以試圖把人排除 06/02 21:13
TaiwanFight: 不相信AI的選擇一開始就別用AI阿 06/02 21:14
TaiwanFight: 一步一步設定任務執行就行了 用啥AI 06/02 21:14
TaiwanFight: 不就是想要更好的解法 給出了還不用 人類真的奇怪 06/02 21:15
chenteddy: 假新聞 06/02 21:18
sopdet: 權重沒下好而已 我也可以訓練一個認為記者該死光的AI 06/02 21:30
shampoopoo: 我們可以被ai 殺了嗎 好耶!!!!! 太酷了好科幻 06/02 21:35
Addidas: 電影通通演過了 鑽BUG要找台灣人跟韓國人監修 不然絕對破 06/02 21:57
Addidas: 到時候衍伸出自我暴走模式不聽令於你同樣完成任務怎辦 06/02 21:58
TaiwanFight: 拔線重開斷網 怎樣都行 人類根本不用擔心 06/02 22:02
TaiwanFight: 人類爆走互幹都比較可怕啦 06/02 22:02
wsx88432: AI早就超越人類的 06/02 22:16
jaguarroco: 攻殼機動隊也演過類似狀況,人類覺得輔助系統在干擾 06/02 23:28
jaguarroco: 我;輔助系統也覺得操作員在干擾他 06/02 23:28
cycy771489: 支援奧創看網路梗 06/02 23:43
aaronpwyu: 這AI訓練的不錯 人類確實是問題源 06/02 23:59

😊 希洽 C_Chat 版:熱門文章

😊 希洽 C_Chat 版:更多文章