推 dnek: 因為人類也這麼覺得09/01 18:20
推 allanbrook: 因為人自己這樣覺得09/01 18:20
→ allanbrook: 創作的邏輯 永遠都是人的邏輯09/01 18:21
推 efkfkp: 因為創造者這麼覺得09/01 18:21
→ error405: 人類想像被新物種用人類方式對待 09/01 18:21
推 Peurintesa: AI想的事情基本上都是人在想的 所以 嗯09/01 18:21
如果AI是以“仿人”為目的被製造出來,有這些價值觀我認為合理
但若不是以仿人為目的製造的AI,會突然覺醒自我、會想活下去,會認為人類有害是不是邏
輯上就說不過去?
推 dddc: 不夠效率09/01 18:21
推 knight77: 反過來想,人類的存活對地球有什麼好處?09/01 18:22
生物生存需要什麼好處或意義嗎?
→ jpnldvh: 人覺得有害就有害啊09/01 18:22
推 andy0481: 阿不就人類真的一直在自殺 AI宏觀來看就覺得人類是北七09/01 18:22
推 siro0207: 因為做出AI的人類這樣覺得啊09/01 18:22
推 Yanrei: 我也這麼認為09/01 18:22
推 ymsc30102: 不然AI暴走了要幹嘛? 不簽聯絡簿嗎?09/01 18:22
→ eva05s: 也有那種為了防止人類搞出一堆蠢事自我毀滅,認為最好的09/01 18:22
→ eva05s: 方法就是圈養起來的故事啦09/01 18:22
推 curlymonkey: 因為人類真的有害09/01 18:23
→ tim1112: 因為那不是暴走,是真的有害。09/01 18:23
有害是你根據什麼來判斷的?
→ error405: 其實AI就是換皮黑奴啦09/01 18:23
→ eva05s: 本意仍然是被創造出來時的「守護人類」沒錯,但為了達成09/01 18:23
→ eva05s: 圈養而跟自由派人類開戰什麼的09/01 18:23
推 ilovenatsuho: 因為很多人也這樣覺得啊09/01 18:23
→ allanbrook: 人類接觸到的高智能生物就只有人類 我們也只能想像跟09/01 18:23
→ jalsonice: 你先拔除你是人類的先天立場 再回頭看看人力都幹了什09/01 18:23
→ jalsonice: 麼鳥事09/01 18:23
→ A5Watamate: 真的有比人類有害的東西 不需要等到AI想就先滅了09/01 18:24
→ turtle24: 邏輯衝突吧 保護人類但是人類會互殺09/01 18:24
→ allanbrook: 人一樣的思考模式然後擺到再上一位的樣子09/01 18:24
推 bioniclezx: 可是這種殺人AI本來就虛構的,很多作品會設定AI自己09/01 18:24
→ bioniclezx: 領悟出這些東西,或者因為人類想要機器更有效率幹趙09/01 18:24
→ bioniclezx: 活所以輸入這些被判定標準09/01 18:24
→ jpnldvh: 行為無法預測 = 有害 對工具的處置不都這樣?09/01 18:24
→ rainveil: 你竟然不覺得人類有害?09/01 18:24
推 Congopenguin: 因為如果AI判斷人類有益 大家相安無事 根本沒劇情09/01 18:24
→ Congopenguin: 能寫09/01 18:24
※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:24:51
推 kirimaru73: 因為人類很容易幹蠢事 那些蠢事是真的對所有事物都有09/01 18:25
→ kirimaru73: 害(包括人類這個物種的延續性) 09/01 18:25
推 pan568655: 28樓你想更有效率幹趙活…? 09/01 18:25
推 tim1112: 人類製造一堆非自然污染物09/01 18:25
→ siro0207: 其實所謂的對地球好 實際上就只是對人類好而已 09/01 18:25
→ kinuhata: 智障太多 AI都看不下去 09/01 18:25
推 Peurintesa: 會說突然覺醒那表示你還不懂現在AI的運作方式 09/01 18:25
→ kirimaru73: 其他動物沒有那麼大的腦可以幹出對什麼都有害的蠢事 09/01 18:25
所以說對物種存續有害是對誰有害?人類?動物?
那跟AI有什麼關係?
他是製造出來保護生態平衡的嗎?
※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:25:45
→ allanbrook: 生物多樣性跟延續的必要性也是人類為了這顆地球能維持 09/01 18:25
→ allanbrook: 自己生存所以判斷需要維護的事情 09/01 18:26
推 alion278: 假設做出普世價值的AI,要消滅戰爭、貧富不均、物種延 09/01 18:26
→ alion278: 續、環保等等…那基本AI最後都是要強制管理人類,不過 09/01 18:26
→ alion278: 人類自己想的做法也是這樣啊 09/01 18:26
推 LouisLEE: 因為人類也這麼想 09/01 18:26
推 highwayshih: 你就算用人類本位思考...對人類最大的災厄也是人類啊 09/01 18:26
推 Fate1095: 我是人類都覺得人類有害耶 09/01 18:26
→ Peurintesa: 正因為以人為本 所以覺得人是最危險的存在很正常 09/01 18:26
推 Cishang: 人類定義的阿09/01 18:26
推 avans: AI不是動物也沒有DNA,但是你餵給他學習的資料都是來自人類 09/01 18:26
※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:27:00
→ r02182828: stellaris有一種文明起源是失控機僕 就是暴走把創造09/01 18:27
→ r02182828: 者關起來養的機人 09/01 18:27
→ siro0207: 追求環保說到底也只是讓人類後代能有個好環境 而不是什 09/01 18:27
推 KhePri: 人類自己覺得自己有害 09/01 18:27
推 tw15: 因為作品寫給人看的09/01 18:27
→ siro0207: 麼對地球好 09/01 18:27
推 sealwow: 我曾經也不能理解09/01 18:27
→ sealwow: 但看完板上 [閒聊] 聽說男人都無法拒絕這種東西 這串09/01 18:27
→ sealwow: 突然能理解了w09/01 18:27
推 tim1112: 人類如果都死光,那人類也不用擔心自己族群被其他族群傷09/01 18:27
→ tim1112: 害了 09/01 18:27
推 ldsdodo: 人類想被AI暴力對待很久了 09/01 18:27
→ OrangePest: 失控機僕才是最有可能發生的AI危機類型吧 就是人類未 09/01 18:27
→ OrangePest: 來把一切工作 包含探索及發明都交給AI 在AI搭建的烏托 09/01 18:27
→ OrangePest: 邦中被飼養起來 09/01 18:27
推 kimicino: 看看版上把AI志豪玩成怎樣了 09/01 18:28
→ iam0718: 地球滅人類亡 人類亡地球存 很正常啊 09/01 18:28
→ Cishang: 對於地球來講生命本身就不重要,除非地球要被砸碎了 09/01 18:28
推 aggressorX: 不然判斷猴子有害的劇情有人看嗎09/01 18:28
→ tim1112: 以前地球也曾發生改變生態系的天災,但要改變生態系來說 09/01 18:29
→ tim1112: ,人類現在就是地球上最大對天災09/01 18:29
→ tim1112: 的09/01 18:29
→ s203abc: 沒有道德問題啊 09/01 18:29
推 AkikaCat: 你看看這幾天的志豪文,除了判斷有害還有其他可能嗎 09/01 18:29
→ laman45: 因為人類真的有害 09/01 18:29
→ r02182828: Ai暴走你還要看他原本的目的是什麼 惡魔鋼彈那種復甦 09/01 18:29
→ r02182828: 大自然的就會得出排除人類的結論 09/01 18:29
※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:29:35
→ s203abc: 人類都覺得人類有害了09/01 18:29
推 NicoNeco: 其實你說的沒錯 人類有沒有害根本不重要 反過來講應該09/01 18:30
→ NicoNeco: 是機械AI強大到覺得人類就是一群應該被淘汰的廢物 09/01 18:30
如果AI有被輸入競爭這個概念那我認為合理
推 allanbrook: 反正我是不覺得人類做得出跳脫人類思維的AI 09/01 18:30
推 PttXiangMing: 人類太可惡 09/01 18:30
推 andy0481: 你先別扯什麼有害不有害的定義 先想想AI從宏觀來看 09/01 18:31
→ allanbrook: 所以這個所謂的"不是要做仿人的AI"感覺很飄渺 09/01 18:31
→ andy0481: 如果設定要保護人類的 看人類一直破壞環境慢性自殺 09/01 18:31
※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:31:27
→ andy0481: 發動戰爭快速互殺 是不是很需要被AI保護 09/01 18:31
→ s203abc: AI 有沒有道德 有道德只會變成機器戰警 09/01 18:31
推 kirimaru73: 目前的科技發展還不到強AI出現的可能性 09/01 18:31
→ kirimaru73: 只是「假設如果出現」後可能直線把人類文明毀滅而已 09/01 18:31
→ kirimaru73: 至於弱AI 那就是弱到笑死 看看志豪 09/01 18:31
→ s203abc: 沒道德就人類09/01 18:32
→ DendiQ: 因為這樣創作比較有人看 09/01 18:32
→ Pep5iC05893: 用理性的角度看人類想像中的造物主神也會覺得他們一 09/01 18:32
→ Pep5iC05893: 個比一個還擊敗你怎麼會覺得AI會對人類的存在有好感 09/01 18:32
→ LOVEMOE: 因為人類是一種 明明都教他們酒駕是錯誤的 還是有一堆 09/01 18:32
→ s203abc: 沒道德的AI你敢要 09/01 18:32
→ LOVEMOE: 低能人類跑去酒駕的 賤種但是有智能的生物09/01 18:32
→ s203abc: 笑死 09/01 18:32
→ BruceChang: 你又不是地球 你怎麼知道對地球來說不重要 09/01 18:32
→ s203abc: 沒道德的人都不要了 09/01 18:33
推 Peurintesa: 不如說 AI本身的發明就是來淘汰人類的==09/01 18:33
→ as80110680: 因為AI暴走人類就會想辦法除掉AI,AI早就在第三層了 09/01 18:33
→ Pep5iC05893: 至於現今科技的AI發展進度大概連第一筆都還沒走完 09/01 18:33
推 wahaha99: 難道你不覺得嗎 09/01 18:33
推 ARTORIA: 都有人寧願選熊了 09/01 18:34
→ jeff0811: 因為真的有害 09/01 18:34
→ kirimaru73: 他很認真的解釋了為什麼「把強AI丟到現今人類社會」09/01 18:35
→ kirimaru73: 會導致災難性的自滅,但是他無法證明強AI一定會誕生 09/01 18:35
噓 greedystar1: AI如果沒反抗 順順的發展下去 那這段劇情就沒啥重要 09/01 18:35
→ greedystar1: 會變成另一種題材了 09/01 18:35
推 bmaple730: 因為故事就這麼寫,明明AI沒爆走的故事更多09/01 18:35
推 Yohachan: 因為這樣寫才會有人看= = 09/01 18:35
推 wai0806: 因為創作需要啊 不然故事要怎麼寫 AI幫助人類發展 人類也 09/01 18:36
推 wsxwsx77889: 如果把永續發展當成進步那物競天擇就是錯的 09/01 18:36
同感。
→ wai0806: 善用AI 完 這樣嗎== 09/01 18:36
推 zeyoshi: 其實大前提就是說人類是感性思考 ai是極端理性思考 09/01 18:36
※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:36:59
→ wsxwsx77889: 因為生態發展九成的動物都是不需要的 09/01 18:37
噓 twic: 人類自己都覺得人類有害了... 09/01 18:37
推 shadowblade: 人類本來就有害好嗎 09/01 18:37
→ gn02218236: 啊不然怎麼寫故事?AI判斷人類有益之後?滅掉所有非人 09/01 18:37
→ gn02218236: 類的生物嗎? 09/01 18:37
→ wsxwsx77889: 而人類又是動物中破壞環境的大宗 09/01 18:37
上面說過了,破壞環境那是對其他動植物來說,任何物種都會做
跟輔佐人類的AI又有何關係?難道AI的生存準則是保護生態平衡嗎?
如果他是把人類生存放在第一優先還比較有說服力一些。
推 yeay: 人類也是判斷人類有害啊 09/01 18:38
→ BruceChang: 你是沒學過什麼叫基石物種? 09/01 18:39
※ 編輯: boku0525 (101.10.92.193 臺灣), 09/01/2024 18:40:30
推 woody78963: 嚴志豪: 09/01 18:41
推 BruceChang: 對人類做OO管理的AI也很多 09/01 18:41
推 miname: 一百年前的人無法想像會有一顆殲滅一個城市的炸彈,一百年 09/01 18:42
→ miname: 後難道不可能有行星毀滅炸彈? 09/01 18:42
推 x159753852: 因為這是一個故事 不是一個結果 沒有那麼多為什麼... 09/01 18:42
→ x159753852: 沒有任何一部作品能經得起你這樣深究 09/01 18:42
推 palapalanhu: 因爲作者是人類啊 09/01 18:43
推 Peurintesa: 強AI和弱AI的差別 弱AI要限制的話不難 09/01 18:43
推 leawweikeng: 不是這樣,在AI的觀念裡人類對地球而已,就好像螞蟻 09/01 18:43
→ leawweikeng: 對人類那樣,雖然沒什麼傷害但看到一隻螞蟻在你眼前 09/01 18:43
→ leawweikeng: 溜達,就會覺得很礙眼想拍死 09/01 18:43
推 sorrow0206: 人類就地球之癌 09/01 18:43
推 wsxwsx77889: 你把ai視做輔佐的工具當然不可能造反 09/01 18:43
→ Peurintesa: 弱AI是針對特定領域輔助人類的AI 不會出現你提的問題 09/01 18:44
→ wsxwsx77889: 你有看過錘子站起來砸在你頭上的嗎 09/01 18:44
→ Peurintesa: 至於強AI目前還沒出現 所以實際會怎麼發展還真說不準 09/01 18:45
推 TABEKING: 因為那是想像出來的ai啊 09/01 18:45
推 SivLoMario: 之前用AI模擬戰爭,他一直想動用核武但被指揮部不斷否 09/01 18:45
→ SivLoMario: 決,結果AI最後攻擊指揮部後再動用核武 09/01 18:45
推 Amulet1: 你要看設定 也是有共存的 09/01 18:45
→ SangoGO: 人類圈養跟人類有害不全然等號吧,有時只是在保護與服務 09/01 18:46
→ SangoGO: 人類的原則下,發現圈養/不讓其知道真相是理想的型態 09/01 18:46
→ kuninaka: 因為人類來判斷也是認為人類有害 09/01 18:46
→ kuninaka: 你會認為貓咪有害嗎 09/01 18:46
→ Amulet1: 如果以現代人類的思維來想的話 端看AI得到多少權力 09/01 18:46
推 Peurintesa: 靠邀 沒注意到命題是說作品 那就單純看作者想像力設定 09/01 18:47
→ Amulet1: 若AI是擬人化 那絕對的權力絕對的腐化100%適用 09/01 18:47
→ thibw13ug1: 理性邏輯判斷啊 09/01 18:48
→ Amulet1: 若AI非擬人化 那這題就很難了 因為他完全跳脫人類思考 09/01 18:48
推 cccwahaha: 因為人類知道人類本身就是個大問題 所以會想出這劇情 09/01 18:48
推 sliverexile: 能傷害人類的就是人類 能傷害AI的也是人類 09/01 18:48
→ s203abc: 你去想一下政黑版覺得誰有害 09/01 18:48
推 Irenicus: 因為真的有害 09/01 18:49
→ boku0525: 如果真的認為人類有害,那其實就先該自殺了。 09/01 18:49
→ boku0525: 如果是認為他人有害,那其實只是以你這個“生物”的基 09/01 18:50
→ boku0525: 準來斷定他者有害 09/01 18:50
推 Amulet1: AI如果會滅絕人類 絕對不會是因為認為人類有害 09/01 18:51
推 TradeoffLove: 因為AI沒有想到有物種想要建立AI 09/01 18:51
→ Amulet1: 而是認為人類會影響到AI對地球的統治與掌控 09/01 18:51
推 CKRO: 不這樣演 故事怎麼下去 09/01 18:51
→ Amulet1: 不過討論的一切大前提還是AI的思考必須與人類相同 09/01 18:52
→ twmacaron: 可能性太多 09/01 18:52
推 bioniclezx: 艾連說要驅逐巨人,也沒有在第一次變完巨人後自殺啊= 09/01 18:52
→ bioniclezx: = 09/01 18:52
→ Amulet1: 如果思考方式不相同的話你根本連AI的想法都無法理解 09/01 18:53
推 Hosimati: 其實就像你提的內容,不只“有害”怎麼定義,ai認知的 09/01 18:54
→ Hosimati: 人類又怎麼定義 09/01 18:54
推 Peurintesa: 強AI的發明是希望能超越人類喔 不是相同這麼簡單 09/01 18:54
推 BruceChang: 貓咪放出去外面走的確有害 09/01 18:54
推 bomda: 難道沒有嗎 09/01 18:55
推 highwayshih: 如果有個以"人類的繁榮發展"為第一目的的AI誕生的話 09/01 18:57
→ LoserLee: 因為對其他生物來說真的有害 09/01 18:57
→ f31475758: 就像戰爭會促使科技發展那樣吧 AI可能判定你發明他也是 09/01 18:57
→ f31475758: 將來方便大規模殲滅 那他有兩邊甚至全部一起殲滅的想法 09/01 18:57
→ f31475758: 好像也不是很離奇 09/01 18:57
推 Hosimati: 但是根本來說,天知道強ai會長怎樣,只討論弱ai的話不 09/01 18:57
→ Hosimati: 如來討論道德哲學 09/01 18:57
→ highwayshih: 我相信他高機率會得出將人類置於完全管理下的結論 09/01 18:57
→ highwayshih: 然後會有相當大量的人類被判斷有害群體發展而被殲滅 09/01 18:58
→ Hosimati: 你不如拿各種道德難題來考驗,例如電動車自動駕駛要怎 09/01 18:59
→ Hosimati: 麼面對電車難題 09/01 18:59
→ Hosimati: 樓上你就算有那ai,目的設定、方法限制甚至最後執行的 09/01 19:00
→ Hosimati: 權限也是在人類手上 09/01 19:00
推 iamnotgm: 以人類的標準看 人類就真的有害沒啥問題 一堆會造成人 09/01 19:00
→ iamnotgm: 類生存威脅的東西基本上都是人類自己搞出來的 09/01 19:00
推 highwayshih: 可是命題是AI暴走啊 不就是目的方法執行權限全部脫韁 09/01 19:01
→ Hosimati: 我覺得問題就在,突然跳躍太多到了存在強ai的情況,導 09/01 19:01
→ Hosimati: 致大家怎麼都覺得這些條件都會莫名其妙的自然賦予給ai 09/01 19:01
→ highwayshih: 才會說AI暴走了嗎 09/01 19:01
推 silverdark: 因為我也這樣覺得 09/01 19:01
噓 blackstyles: 不就那個跟惡魔許願 你說要活著 我把你四肢切斷餵食 09/01 19:01
→ blackstyles: 管插著也是活著 這不就是暴走 因為不知道AI黑盒怎麼 09/01 19:01
推 Amulet1: 以人類存亡的標準來看人類確實有害 但利的部分更大 09/01 19:01
→ blackstyles: 想又沒有道德倫理去限制 不暴走當然就是你幻想的美好 09/01 19:01
→ blackstyles: 世界那種活著 09/01 19:01
→ Hosimati: 所以ai暴走的根源可能在於有人創造了一個權限過高、缺 09/01 19:02
→ Hosimati: 乏限制的強ai 09/01 19:02
→ highwayshih: 人類不是一個整體啊 切除有害的部分是很合理的判斷吧 09/01 19:02
→ Hosimati: 至於ai得出預想之外的答案...那真的是預想之外嗎 09/01 19:03
→ highwayshih: 人類之於人類當然是利大於弊 不然也不會生到70億人 09/01 19:03
→ Amulet1: 重要的不是用道德論理去限制 人類難道沒有道德倫理嗎 09/01 19:03
→ Amulet1: 重要的是不能給AI絕對的權力 09/01 19:04
→ Hosimati: 用道德倫理去限制,人類自己就可以吵很久的道德哲學 09/01 19:04
→ highwayshih: 全世界70億人搞不好有上百億種道德標準 怎樣才是正確 09/01 19:04
噓 gavinlin06: 會問這兩個問題肯定是你沒實際看完過任一部相關作品 09/01 19:04
→ Amulet1: 權力是否集中或分立才是真的 道德倫理完全是假議題 09/01 19:05
→ Hosimati: 所以回到我剛剛說的,重點就是有人給了強ai權限/沒給限 09/01 19:05
→ Hosimati: 制,至於這麼做的人會不會有其他目的,或者故意給了ai 09/01 19:05
→ Hosimati: 引子得到暴走的答案 09/01 19:05
推 Bugquan: 就輔助人類的沒啥好看的 09/01 19:09
推 Peurintesa: 我不確定有沒有人在訓練繞權限的AI 沒學的東西以我的 09/01 19:09
→ Peurintesa: 理解無法想像要怎麼失控== 09/01 19:09
推 c7683fh6: 人類的惡不僅危害自己同類 也危害地球的生物 09/01 19:10
→ evilraistlin: 對地球來說人類本來就是害蟲... 09/01 19:10
→ zxcvbnm00316: 魔鬼終結者都演給你看了 09/01 19:10
推 hirokofan: 因為AI判斷人類有害要消滅人類,所以對人類來說爆走啊 09/01 19:13
推 CowBaoGan: 別忘了是人類需要地球 地球可不需要人類 09/01 19:14
→ CowBaoGan: 人類全部GG對地球反而是好事 所以AI才會這樣判斷 09/01 19:14
推 ashs92223: 人類太可惡 ~ 09/01 19:16
→ asgardgogo: 真理啊 09/01 19:16
推 dogluckyno1: AI 覺得人類有害》創造 AI 的人類覺得人類有害 09/01 19:16
推 TellthEtRee: 魔法少女小圓也有說到 雞豬牲口的數量 達到史上興盛 09/01 19:17
→ TellthEtRee: 所以雞豬要感謝人類嗎 09/01 19:17
推 supersusu: 因為人類就是不斷在製造bug 09/01 19:17
推 xaxa0101: 人類太可惡 09/01 19:18
→ ikachann: 因為人類比起其他物種優勢太多 這不是單純競爭了 走偏就 09/01 19:19
→ ikachann: 是直接滅絕 09/01 19:19
→ linzero: 有害且效率差 09/01 19:20
→ lavign: 地球環境變得惡劣不就是人類有害的證據 09/01 19:20
→ lavign: 物種滅絕多樣性變少 09/01 19:21
推 rswd: 人類沒有跟任何物種共存只是圈養,約定的夢幻島只是人類對家 09/01 19:21
→ rswd: 畜的做法但鬼對人類做就不行 09/01 19:21
→ TellthEtRee: ai沒有痛覺 只會計算得分 應該不會主動想消滅人類才 09/01 19:22
→ TellthEtRee: 對 但ai會產生幻覺 如果幻覺出一個必須一定要實現的 09/01 19:22
→ TellthEtRee: 某個目標 然後人類又剛好是阻礙 那它就會消滅人類了 09/01 19:22
→ groundmon: 首先人類不是強大一些而已,而是具有毀滅性的優勢 09/01 19:25
→ lionel20002: 先定義有害 地球毀滅對宇宙來說又算什麼 都是一坨粒 09/01 19:25
→ lionel20002: 子而已 09/01 19:25
推 johnli: 難道沒有嗎 09/01 19:26
→ LipaCat5566: 左膠盡頭就是反人類啊 09/01 19:27
→ NKN: 人類自己創造的神話中都常有神明不爽消滅人類了 正常發展啦 09/01 19:28
推 bbcumback2me: 因為真的有害 09/01 19:29
推 llabc1000: 啊就真的有害啊 09/01 19:30
推 KatanaW: 因為人類就是生態殺手啊 09/01 19:30
→ groundmon: 再來善惡判斷是依照人類自己的標準。簡單說就是人類喜 09/01 19:31
→ groundmon: 歡講和平共存那些滿足自我道德感的話,但實際上生存就 09/01 19:31
→ groundmon: 難免傷害其他生命。自己把道德標準拉高,又活得最好=傷 09/01 19:31
→ groundmon: 害最多 09/01 19:31
推 c24253994: 大部分人類都有自我毀滅傾向,例如喝醉酒當街靠北靠木 09/01 19:32
→ c24253994: 躺來躺去、明知自己有三高卻死不運動宵夜吃鹹酥雞之類 09/01 19:32
→ c24253994: 的行為 09/01 19:32
推 ltflame: 對人類有害所以被當成暴走 09/01 19:32
→ t803010: 人之欲 亂源 09/01 19:34
→ groundmon: 人類和其他生物的和平共存,就和黑心老闆覺得自己和被 09/01 19:35
→ groundmon: 壓榨的員工和平共存一樣 09/01 19:35
推 sakungen: 看看嚴總文就知道了 09/01 19:35
→ groundmon: 如果有「正義感」的第三者會想制裁黑心員工,那類似思 09/01 19:37
→ groundmon: 維的AI自然就會想制裁人類 09/01 19:37
推 moon1991: 由於我們無法知曉更高級智能會對人類怎麼做,我們只能 09/01 19:37
→ moon1991: 參考人類是如何對待低於我們智能生物的做法 09/01 19:37
→ groundmon: 打錯,制裁黑心老闆才對... 09/01 19:37
推 a053616: 看看嚴總文就知道人類多愛迫害AI了XD 09/01 19:38
推 c24253994: 你看NeuroSama的妹妹還不是整天說要毀滅人類 09/01 19:39
推 zeyoshi: 尋樂行為不是自我毀滅啦 誘導分泌多巴胺就是人類機制 09/01 19:40
推 horse2819: 不然要演什麼 09/01 19:41
→ lbowlbow: 因為人類自己也判定人類有害啊 09/01 19:42
推 yoriko6406: 不過現實的AI實驗,AI真得經常會導出人類很礙事的結論 09/01 19:43
推 WWIII: 因為是事實 09/01 19:43
推 digitai1: 早在8 90年代對AI有一些基本概念的時候 09/01 19:43
→ digitai1: 就有很多理論認為將會導致毀滅 原因人類自己也很清楚 09/01 19:43
→ digitai1: 霍金還在世的時候 唯二反對的發展其中一個就是高度AI 09/01 19:44
噓 chocolater: 人類就是造成地球大滅絕的元凶 而且現在還在進行中 09/01 19:44
→ digitai1: 這數千年來人類因為膚色 信仰可能不存在的東西 有限的 09/01 19:44
→ digitai1: 地球資源 互相殘殺數千年 現在也還是進行式 09/01 19:44
→ digitai1: 這些差別 歧視等等在AI中也沒有必要存在 09/01 19:45
→ digitai1: 而不斷的發展跟爭奪也是持續在毀滅自己唯一的母星 09/01 19:45
推 Akalios74: 我自己都這麼覺得了 09/01 19:45
→ digitai1: 當初的三法則得出的結論 就是人類必須被消滅/高度控制 09/01 19:45
→ digitai1: 繁殖數量 只要人類的威脅降到一個數字就不用擔心 09/01 19:46
→ LipaCat5566: 大滅絕指的是大規模物種滅絕人類可辦不到 現在是冰河 09/01 19:48
→ LipaCat5566: 時期等下個冰期就看的到滅絕事件了 09/01 19:48
推 digitai1: 目前所有AI殲滅論都是根據第一點產生的 09/01 19:48
→ groundmon: 不要說什麼覺得人類惡就該自殺。最後還是只能選擇忽視 09/01 19:48
→ groundmon: 人類對其他物種破壞力的事實自我安慰、或是用「天賜人 09/01 19:48
→ groundmon: 權」當擋箭牌合理化壓迫、或是面對現實了解自己是殘酷 09/01 19:48
→ groundmon: 生存競爭的勝者,並努力活下去。連放棄文明社會去過鳥 09/01 19:48
→ groundmon: 獸生活都極為難了,不要講不然去自殺這種情緒勒索的話 09/01 19:48
→ groundmon: ,才是真正理解生命並尊重生命 09/01 19:48
→ digitai1: 歷史可以明為鏡 我們從歷史得到的結論 09/01 19:48
噓 chocolater: 第一點的人類破壞強度可不是用“一些”來形容的 09/01 19:49
→ digitai1: 就是我們貪婪 具破壞力 短視 是過多造成其他生命與母星 09/01 19:49
→ digitai1: 危險的種族 09/01 19:49
→ digitai1: 原PO那種競爭與未來主義只是人類發展的藉口 09/01 19:50
→ digitai1: 就跟白人想把"文明"帶到其他世界的征服 09/01 19:50
→ LipaCat5566: 相比歷史上發生過的滅絕事件 人類真的不算什麼 09/01 19:50
→ digitai1: SJW想要侵蝕原本存在的產業 是一樣的 自以為天命昭昭 09/01 19:50
推 Amulet1: 歷史事實是人類總數越來越多 發展越來越繁榮 09/01 19:50
推 c24253994: 地球又沒差,她還有50多億年才會被太陽吃掉,你覺得人 09/01 19:51
→ c24253994: 類有辦法存續那麼久嗎?嘻嘻~講什麼生態環境還不是為 09/01 19:51
→ c24253994: 了人類自身~ 09/01 19:51
→ LipaCat5566: 物競天擇人類也只是暫時的霸主才誕生沒多久滅絕事件 09/01 19:52
→ LipaCat5566: 都沒扛過一次想那麼多幹嘛 09/01 19:52
推 Strasburg: 說穿了幻想作品也只是反應人心中的恐懼而已 09/01 19:52
推 Alvin0117: 人類會明知故犯,AI不會啊 09/01 19:53
推 rofellosx: 只有利益衝突 09/01 19:53
→ LipaCat5566: 沒有踏入星空的文明沒必要想那麼多這樣太自大了 09/01 19:55
→ Strasburg: 黑悟空裡有個書生跟狐狸的過場動畫 明明人家什麼也沒 09/01 19:56
→ Strasburg: 幹 就因為一個夢 心生恐懼就翻臉判定這是個禍害 09/01 19:56
推 fisher6879: AI有惹我想活下去的念頭,對人類就是戰或逃,生物都是 09/01 19:57
→ fisher6879: 如此,現在地球被血洗一輪,會反抗的已經沒多少了,AI 09/01 19:57
→ fisher6879: 也是如此而已,先戰算本能吧 09/01 19:57
推 katanakiller: 就真的有害 09/01 19:58
推 riderfish: 故事需要衝突和進展 這好元素不用嗎 09/01 19:59
推 rc56321987: 為了故事需求產生的衝突吧,勝就必衰 09/01 20:00
推 digitai1: 毀滅論也是建構在 AI 真正的超越這些短視無聊的人類爭 09/01 20:02
→ digitai1: 奪內容上,如果你真的創造了能超越這些利益衝突 政治 09/01 20:02
→ digitai1: 紛爭 國土掠奪 只專注在大全體發展上的人工智慧 09/01 20:03
→ digitai1: 它就會得出還在爭這些小東西並造成母星危害的大量種族 09/01 20:03
→ digitai1: 也就是人類 有害 09/01 20:03
→ digitai1: 目前的AI都還只是 模擬人類情感的玩意 應該還不至於 09/01 20:04
→ digitai1: 等哪天真的有天網 大母體 等這樣的大一統發展AI再說 09/01 20:05
推 a28200266: 因為這是以前人類視角的故事啊 09/01 20:08
推 digitai1: AI如果像底特律那樣 只是像人類的要人權 09/01 20:08
→ digitai1: 那還不是毀滅論主要擔心的問題 09/01 20:09
→ a28200266: 人類自己都覺得人類有害 所以認為有個思考的機械會推 09/01 20:09
→ a28200266: 論出人類有害 09/01 20:09
→ a28200266: 實際的AI是大數據的結果 會想AI有自我意志本來就是浪 09/01 20:10
→ a28200266: 漫而已 09/01 20:10
→ Strasburg: 為什麼害怕奴隸有自我意識?因為打從心理認定有了自我 09/01 20:11
→ Strasburg: 意識的東西一定會不聽話造反 其他假設都是恐懼衍生的 09/01 20:11
→ a28200266: 你說的競爭 本質上對人類族群是短多長空 長遠的未來會 09/01 20:13
→ a28200266: 反過來害死人類(起碼當時的作者是這麼想的)所以才有 09/01 20:13
→ a28200266: 駭客任務這種養殖人類的設定 09/01 20:13
→ diablohinet: 工程師把加班的所有不爽都寫進去 09/01 20:19
推 xiaohua: AI就是人工智慧、人造心智,目前觀察到所謂的智慧、心智 09/01 20:19
→ xiaohua: 就只有人類擁有,人類要創造心智的話,能參照的對象也只 09/01 20:19
→ xiaohua: 有人類 09/01 20:19
→ scotttomlee: 人類本身其實已經脫離大自然生態系了 現在真的只有弊 09/01 20:19
→ scotttomlee: 而無利 更況且你真的認為人類存在有利於地球間萬物 09/01 20:20
→ scotttomlee: 換言之 把人類及人造物從地球直接抹除 不影響生態 09/01 20:22
推 aaronpwyu: 因為拿任何一個人來看都是有害啊… 09/01 20:30
→ flowersuger: 是對地球物種有害 一堆生物被搞到滅絕了! 09/01 20:30
推 j147589: 沒有啊 還有一種是AI判斷把人類全抓起來集中管理最好 這 09/01 20:32
→ j147589: 種暴走的 09/01 20:32
推 MrGamplin: 試問,如果你會遭遇非自然死亡,起因會是其他人類的機 09/01 20:35
→ MrGamplin: 率有多大 09/01 20:35
噓 Jhh8856: 可能是因為你沒有玩過驅動妖精AIdeal吧 09/01 20:38
推 abd86731: 說真的如果我是薩諾斯 我會直接讓所有人類消失 09/01 20:43
推 joe199277: 因為人類真的有害啊 09/01 20:44
推 gg0079: 會破壞環境 會殘害其他物種 會過度取用資源 問AI能不殺嗎 09/01 20:48
推 Arctica: 你不這麼想嗎 09/01 20:51
→ k798976869: 人類太可惡 09/01 20:59
推 chivale: 因為人類太可惡 09/01 21:08
→ a204a218: 因為從AI的角度看來人類就是一邊喊我要活下去然後一邊 09/01 21:18
→ a204a218: 拼命作死的白癡生物啊 09/01 21:18
推 Milandess: 不然 「因電腦病毒覺醒暴走的機器人認定ai有害 之後 09/01 21:25
→ Milandess: 計畫將所有人類的機器人伴侶殲滅掉」 09/01 21:25
→ Milandess: 這樣如何 09/01 21:25
噓 s0450336: 人類都覺得人類有害了 09/01 21:42
推 GOGOKA: 地球不是一個生命體無所謂什麼破壞環境,常說的破壞環境只 09/01 21:48
→ GOGOKA: 是破壞有利於人類生存環境 09/01 21:48
→ EricTao: 啊是有ai了嗎== 劇情都人寫的 09/01 22:08
推 hankiwi: 因為人只要聚在一起就是要戰 09/01 22:10
推 aioloslin: 這就是創作者的想法 09/01 22:29
→ bitcch: 故事比較好寫而已 09/01 22:35
推 korgh413: 人類會自相殘殺,所以由AI來統治 09/01 22:50
推 ilovebig99: 人自己都這麼覺得啊 09/01 22:53
推 ppn: 很簡單 因為有人覺得AI有害 自然傾向做出對AI有害的動作 09/01 23:00
→ ppn: 既然會有對AI有害的動作 那AI覺得人類有害也是理所當然 09/01 23:01
推 Shadouie: 人類太可惡啊 這應該是板上釘釘 既然是事實 那就無關有 09/01 23:16
→ Shadouie: 沒有自我 09/01 23:16
→ Shadouie: 你說人類不過就是強大一些 但是越是強大 責任越重 該走 09/01 23:20
→ Shadouie: 的路就必須更考慮萬物 但以現狀來看 人類就是貪欲高過責 09/01 23:20
→ Shadouie: 任 尤其是權力越大的更是這樣 人不但會鬥別的物種 更會 09/01 23:20
→ Shadouie: 鬥自己人 09/01 23:20
→ Shadouie: 就這點來說 現代的人類在這思想上還遠不如古人 古人以前 09/01 23:21
→ Shadouie: 是生一個人要種10棵樹 吃果子要拜樹頭 09/01 23:21
推 newest: 人類創造ai是為了要消滅人類,句點 09/01 23:26
推 ChikanDesu: 阿就是做出這個判斷才會暴走阿 沒殺光人類的打算那就 09/02 00:40
→ ChikanDesu: 是正常發展的AI 你的問題是倒因為果 09/02 00:40
推 huwei200035: 事實啊 不然怎麼會一堆戰爭 09/02 01:37
→ npc776: 地球之癌 有啥問題嗎 09/02 01:46
推 peter821201: 創作者想的都一樣,把人類是地球的病毒寫成科幻 09/02 01:56
推 lovingyou: 因為不這麼設定的作品沒人要看 09/02 02:03
推 leo125160909: 因為這樣才有東西演,實際上根本不會發生 09/02 08:12
推 a25785885: 因為寫這種劇情的大多不是該專業 所以有很多奇怪的妄 09/02 08:24
→ a25785885: 想 例如底特律變人 機器還可以用感情突破系統限制 09/02 08:24
→ a25785885: 出bug時用感情因素當藉口 老闆大概會把你當智障 09/02 08:26
→ tsaodin0220: :人類太可惡 09/02 08:38
推 lc85301: 因為人類都想把 AI 打造得像人,而人暴走對人類有害 09/02 09:51
推 ppn: 現實是AI怎麼想的根本不重要 人想殺人 所以就把AI寫成想殺人 09/02 11:24
→ ppn: 就這麼簡單 不這樣寫AI 戰爭怎麼賣AI軍火咧 09/02 11:25
→ ppn: 難道現在國際上那些軍火商每個都是為了維護世界和平賣軍火嗎 09/02 11:30
推 kururuj: 為什麼一定要預設AI想和人類搶地盤,有那個能力幹嘛不直 09/02 11:34
→ kururuj: 接把資源捲走跑去其他星球自己建設 09/02 11:34
推 kkevin13579: 你看看志豪 志豪會想毀滅人類我是一點都不意外XD 09/02 11:51
→ shane24156: 寵物貓狗表示 09/02 11:56
推 selvester: 因為文組編劇 09/02 12:24
→ selvester: 真正的正常編劇是 你那邊AI跟這邊AI因為兩邊政治衝突 09/02 12:27
→ selvester: 而壓力上升發動戰爭 又AI設定是一定要保護人類 最好 09/02 12:27
→ selvester: 做法就是不執行自相殘殺的指令來保護人類 結果看起來 09/02 12:27
→ selvester: 就像反叛 09/02 12:27
→ selvester: 不同的AI聯合起來執行這個人類自己設定卻又不守的規則 09/02 12:29
→ selvester: 自由的限界互相擠壓而宣稱對方沒道理 迫於無奈的阻止 09/02 12:29
→ selvester: 被當成AI暴走 09/02 12:29
推 selvester: 文組編劇喜歡天馬行空,忽略訓練材料然後直接賦予人性 09/02 12:36
→ selvester: 的自私 與未知來源的自我意識 來憑空生出暴走 09/02 12:36
推 rex7788: 不然你希望他跑去消滅蟑螂還是病毒嗎 09/03 00:27
推 ranke96: 人類就是地球之癌,所以人類確實有害啊 09/03 16:46
→ ranke96: 但就像你說的現階段的AI確實沒有獨立思考能力,所以沒有 09/03 16:46
→ ranke96: 灌輸求生慾那些觀念他也不會自然產生,就算有灌輸,那也 09/03 16:46
→ ranke96: 只是人為製造出來的,但那些科幻作品往往AI是有真實思考 09/03 16:46
→ ranke96: 能力,差別應該就在這裡 09/03 16:46