增加網址:
文章備註、標題(會記錄下來,但是暫時不會顯示):
[流言終結]無標題 無名氏 ID:1X80mt4E 15/07/08(三)13:41 No.524818
評分:0, 年:0, 月:0, 週:0, 日:0, [+1 / -1] 最後更新:2015-12-23 00:08:56
附圖
像天網那樣突然想殺光人類的超級電腦是不可能存在的,因為程式是人寫的,
除非有人下指令要求,超級電腦不會自己決定要殺人。
無標題 無名氏 ID:2o6JXRwM 15/07/08(三)13:52 No.524819
除非有人下指令要求,教授不會自己決定要當人。

無標題 無名氏 ID:dvvrnahI 15/07/08(三)16:08 No.524834
我們來看一下殺人電腦的出現機率吧
要有一個有程式高手可以寫出天網般的超級電腦用程式
再來他要有著扭曲的價值觀可以讓程式往偏差方向移動
還要考慮不想死的工程師都不去破解的可能性
而且這個殺人程式需要有一堆夠強大的工程師
可以防止這個軟體被不想死的人破解掉

最後這個軟體經過重重困難
把自己給安裝到全世界最強大的武器上
啟動了所有可以殺掉人類的毀滅性武器
開始進行大屠殺

先不討論開始大屠殺需要的彈藥、能源物質跟機器
如何被一台電腦給調度齊全

你不覺得出現一台沒人可以破解的殺人電腦的可能性
比超大型隕石撞地球還低嗎??
無標題 無名氏 ID:StqDl5ls 15/07/08(三)16:29 No.524835
回覆: >>524875
程式是人寫的
人寫的就一定有BUG

有BUG就可以入侵或是讓他當掉
無標題 無名氏 ID:4IQKPSDo 15/07/08(三)20:12 No.524851
如果真的做出天網那樣能控制大量自動化兵器的超級電腦,我覺得比較需要擔心被獨裁者惡用拿來對付人民。
無標題 無名氏 ID:c7aqAn2U 15/07/08(三)21:31 No.524863
回覆: >>524871
當然是人工智能的自我推算
例如:指令幫助人類社會的安定與靈性進化
演算開始:依照過去歷史可知,人類心理可被塑造與暗示
演算2:當資源豐富時,人類將自化出同理心,成就他人
演算3:當資源稀缺時,人類得不到健全發展,基因會衍伸出自私的行為導致全體危機
結論:人類數量必須要控制,屠殺開始!
無標題 無名氏 ID:gn3HXOuc 15/07/08(三)22:06 No.524871
>>No.524863
為什麼不是想辦法讓資源豐富
無標題 無名氏 ID:JChK.fIQ 15/07/08(三)22:33 No.524875
無標題 無名氏 ID:84wFe2WU 15/07/08(三)23:04 No.524883
基本上
就算有超級殺人程式的誕生
我們也不能低估超級護人程式誕生的可能性

如果超級殺人程式的誕生是因為bug
那我們也不能忽略有工程師去修正這個bug的可能性

所以我認為超級殺人程式是有可能會有的
只是他要成功滅絕人類的可能性
會隨著滅絕程度慢慢遞減

我認為每年都有人因為一點小bug而死
不管是機械意外還是什麼的
都歸在裡面那他們都可以算殺人程式

但是若要創造出一個可以殺掉超過70億人口的超級電腦
可能只有不到1/70億的機率
無標題 無名氏 ID:vAER6vlk 15/07/08(三)23:09 No.524884
超級電腦因為下一次的閏秒
讓系統整個崩潰的機率
無標題 無名氏 ID:DkLHclo2 15/07/08(三)23:33 No.524887
回覆: >>524889
http://www.ettoday.net/news/20150703/529850.htm
即使不是超級電腦也會主動殺人
流言終結
無標題 無名氏 ID:84wFe2WU 15/07/08(三)23:43 No.524889
>>No.524887
你這個應該歸類為機械吧
就類似工地有人被起重機打到
你會把它當成電腦殺人嗎
無標題 無名氏 ID:cfEV/VKs 15/07/08(三)23:54 No.524890
>>No.524889
...電腦也只是稍為複雜一點的機械阿
無標題 無名氏 ID:PV9haFdc 15/07/09(四)00:57 No.524895
>>No.524890
就算是最簡單的電腦也跟一般的「機械」不同
不是什麼「複雜一點」的問題
建議你回去找你的計算機概論老師
無標題 無名氏 ID:3IIK7jEg 15/07/09(四)01:00 No.524896
>>No.524895
>>No.524890
當然你要扯什麼「電腦跟機器都是沒生命」之類的
就跟我的說詞無關了
我沒有要討論電腦跟機器有多少地方看起來一樣
或其他的問題
無標題 無名氏 ID:pyQjSRdw 15/07/09(四)01:21 No.524898
>>No.524889
人類控制起重機把人打死是人殺人
電腦控制機械臂把人打死當然是電腦殺人
無標題 無名氏 ID:90aaLGaA 15/07/09(四)05:00 No.524899
原po根本連流言都算不上吧
常見AI反叛人類的小說不就都有解釋怎麼違反三大原則嗎?
命令AI守護和平>過量的人類是紛爭的源頭
>必須控制人類
原po還是多看看書吧
無標題 無名氏 ID:SVBJNmIQ 15/07/09(四)07:28 No.524903
>>No.524898
除非未來AI真的進步到有「機器人人權」這類東西
不然就現階段來說,責任歸屬應該還是在操作者、設計者身上
無標題 無名氏 ID:QGOmprb. 15/07/09(四)09:49 No.524906
回覆: >>524913
.....我們要怎麼觀測「電腦決定」這件事情?
無標題 無名氏 ID:22md.DL. 15/07/09(四)11:02 No.524909
>電腦控制機械臂把人打死當然是電腦殺人
可是這種情形多半是電腦好好的在執行指令
結果人類因為各種情形或意外自己跑去給他夾才死的
無標題 無名氏 ID:lfaOMq8I 15/07/09(四)11:43 No.524911
>>No.524898
分隔島殺人該怎麼解釋?
無標題 無名氏 ID:pyQjSRdw 15/07/09(四)11:56 No.524913
回覆: >>524915
>>No.524906
看看程式和操作記錄不就知道了

電腦跟一般機器最大分別是電腦有判斷能力
也就是說能依據情報選擇行動
雖然是很低階而且是人寫的,但是無可否認就是懂得判斷
有判斷能力就會「決定」做什麼事

>>No.524903
現在不是談法律
以法律來說Terminator T-800殺了人也不用負責
無標題 無名氏 ID:jW8inQOQ 15/07/09(四)12:01 No.524915
>>No.524913
>但是無可否認就是懂得判斷
>有判斷能力就會「決定」做什麼事

你根本沒寫過程式吧
無標題 無名氏 ID:lZS4/P0Y 15/07/09(四)12:04 No.524917
回覆: >>525033
你沒跟電腦說1+1=多少
他永遠不會得出2?
無標題 無名氏 ID:9nxWOWYc 15/07/09(四)12:10 No.524918
>>No.524903
然後有一年會出現一個胖老頭和一個瘦老頭為了這件事開戰
無標題 No.524890 ID:i.h6YmiU 15/07/09(四)12:46 No.524924
>>No.524895
你用幾十個齒輪也能做出基礎的邏輯元件
把幾億個沒用到電的機械邏輯元件拼起來也能做出和電腦主機功能無異的裝置
只是體積大了幾百倍而已
這樣你還要覺得電腦不是機械的一種嗎?
無標題 無名氏 ID:9nxWOWYc 15/07/09(四)14:20 No.524934
回覆: >>524936
>>No.524924
電子元件用的不是機械的運作方式啊
無標題 無名氏 ID:BrhlirOM 15/07/09(四)14:44 No.524936
回覆: >>524947
>>No.524934
那我想問電子的邏輯元件跟機械的邏輯元件分別在哪
不都是and gate or gate這種嗎
無標題 無名氏 ID:7HmmgLqY 15/07/09(四)16:07 No.524942
回覆: >>524943
>>No.524924
kimgordon:我味增湯 都不放味曾與豆腐 改放菜頭排骨酥用肉燥提味09/05 15:46

→ kimgordon:又清又香 但就略油 壽司改成糯米加香菇肉絲去蒸 09/05 15:47

推 wts4832:XDDD 09/05 15:47

→ DIDIMIN:沒有味噌還能叫做味噌??? 09/05 15:47

→ kimgordon:這兩個配起來非常棒 最好是加點香菜 09/05 15:47

推 justjihyun:那就是菜頭湯了吧.. 09/05 15:48

→ kimgordon:不是菜頭湯 這味增湯 喝起來跟排骨酥湯90%口感很像 09/05 15:49
無標題 <a href="/cdn-cgi/l/email-protection#8267323a663a03663a03672614663c04652a2c6a05286b050f">無名氏</a> ID:WcevgYd2 15/07/09(四)16:19 No.524943
>>No.524942
舉例錯誤
No.524924比較像是用菜頭排骨酥用肉燥做出跟味噌湯味道一模一樣的東西
無標題 無名氏 ID:pyQjSRdw 15/07/09(四)16:48 No.524947
>>No.524936
他大概把「機械」定義成有零件移動的工具
然後完全是語文問題了

順帶一提,以計算機概論的定義電腦的確是機械(machine)
無標題 無名氏 ID:CHKrjKw6 15/07/09(四)19:11 No.524960
回覆: >>524988
要擔心的是人工智能的進化速度比人類還快。
比如說天網能夠用其龐大資源和運算能力進行自我升級和技術更替。
無標題 無名氏 ID:PDRFMQNs 15/07/09(四)21:48 No.524987
>>像天網那樣突然想殺光人類的超級電腦是不可能存在的,因為程式是人寫的,
>>除非有人下指令要求,超級電腦不會自己決定要殺人。
我是覺得有可能
但是機率低到爆炸
而且大概殺個幾十人或著準備製作大規模殺傷性武器階段就被拆了
拆他的還是另外一台電腦
無標題 無名氏 ID:oiXx4lts 15/07/09(四)21:54 No.524988
>>No.524960
進化速度是說快就快的嗎?
而且要是有反人類AI進行自主進化搞叛變
那找來幾台服從人類的電腦跟他拼升級戰又有什麼難的
無標題 無名氏 ID:90aaLGaA 15/07/09(四)23:54 No.525006
IBM的深藍或watson算是現實中最接近AI的超級電腦了吧
Watson從資料庫學髒話也不知道是不是真的
無標題 無名氏 ID:KK7Z8YHQ 15/07/10(五)10:15 No.525033
>>No.524917
很明顯你沒學過
答案是YES
對不起發明電腦的時候就是設計1+1=2
為什麼電腦會算出2
你可以去了解一下加法器的電路邏輯怎麼設計的

當然設計者有意的話1+1=100的電路都是可以設計出來的
只是這樣沒有意義
因為這個電路的設計目的就是要幫助人類計算的

所以人工智慧出問題我比較偏向BUG方面
而不是他自己成長成天網

因為BUG就是指設計師意想之外的東西
換句話說電腦永遠都是照著設計師意料之內執行
無標題 無名氏 ID:JVuwaT/g 15/07/10(五)10:23 No.525034
回覆: >>525036
附圖
>>No.525033
可是瑞凡...
無標題 無名氏 ID:jicwqZfw 15/07/10(五)11:56 No.525036
>>No.525034
飛機設計師也是一樣(誤…
無標題 無名氏 ID:cP.t823k 15/07/10(五)12:14 No.525038
>>No.525033
+1
一堆看就知道外行在傻傻地跟著人家的被害妄想症高潮
無標題 無名氏 ID:27Km2kVI 15/07/10(五)12:16 No.525039
前提是硬體絕無發生過熱故障
程式資料沒有溢位www
資料超過範圍的場合 通常以保護系統為優先
會丟掉一堆東西是很正常的
即使這些資料是人也不意外
無標題 無名氏 ID:rEY1tkYs 15/07/10(五)13:23 No.525048
在考慮電腦會不會思考以前
先考慮電腦有沒有感覺吧
五感都沒有,電波跟通電我不知道是什麼感覺

不過如果電腦會變成天網
肯定是跟肥宅一樣腦補幻想人類已經被電腦滅亡了
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)16:23 No.525064
舉個例子來說

電腦被設計成能對死刑犯執行死刑
利用圖像辨識功能定位死刑犯
然後把他殺死
但是圖像辨識出錯
所以把在場的人、建物等等全部都毀掉了
無標題 無名氏 ID:8N.6EBrI 15/07/10(五)16:31 No.525065
>>No.525064
你是用機關槍還是大砲在處決死刑犯?
無標題 無名氏 ID:GXT.D9QQ 15/07/10(五)16:34 No.525066
回覆: >>525072
>>No.525064
那是設計者的問題
把死刑犯帶到定點就好,幹嘛還圖像辨識定位?
無標題 無名氏 ID:F1oO/eKQ 15/07/10(五)17:08 No.525070
回覆: >>525071
看到大家討論得這麼熱烈
我必須要說一句
每次我按下程式執行的時候都很害怕
如果跑出來跟你說compiler出來跟你說語法有問題
我可鬆一口氣,去找bug在哪裡改改輸入或function甚麼的
如果跑出來是黑屏給你裝死的
依然可以鬆一口氣,大不了分段檢查,這種是好解決
最害怕的就是,程式執行完全沒問題,結果卻亂七八糟
你要他畫個小叮噹,結果輸出個怒羅江門的
當初設計時是不是照我的意思設計的?
是,但可能你變數型態沒設定好,或是推演邏輯時預設出了錯
我曾經發生過一個變數型態設錯浪費了一整個下午
事情總是發生在你想像不到的地方,
演算法是對的,但電腦執行程式的流程卻是錯的比比皆是
這也就是程式寫出來還是要跑上幾百遍才能確認成品
回到人寫的程式會不會殺人?
我覺得當然有機會,因為人們很容易抓出邏輯執行錯誤
卻忽略這些"小事",不確定性也由此發生
算術溢位,陣列給定設錯,一堆很小的程式技巧疏失都有機會引起災難
而很多時候這些東西要在很極端的狀況才會發生,所以常常防不勝防
電腦會殺人絕對不是有人忘記告訴它"不可以殺人"
或是忘了定義"怎樣會傷到人"這種大家都想得道的邏輯陷阱造成的
無標題 無名氏 ID:cP.t823k 15/07/10(五)17:20 No.525071
回覆: >>525073
>>No.525070
喔所以你知道到怎麼教電腦做道德判斷就對了?
寫個c++ based的pseudo code來看看吧
要是連寫都寫不出來
探討電腦會自主殺人就跟探討AK47會自主殺人一樣可笑
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)17:34 No.525072
>>No.525066
舉個例子而已嘛,不喜歡再舉一個
超速的車被照下來
但照的時候照不清楚,交給電腦辨識
結果辨識出錯,罰單就寄錯地方了
無標題 無名氏 ID:EkxD0ScA 15/07/10(五)17:34 No.525073
>>No.525071
道德判斷是自主殺人的必要條件嗎?
看看野獸...
無標題 無名氏 ID:F1oO/eKQ 15/07/10(五)17:39 No.525075
回覆: >>525090
>>像天網那樣突然想殺光人類的超級電腦是不可能存在的,因為程式是人寫的,
>>除非有人下指令要求,超級電腦不會自己決定要殺人。
我回答了上面這個問題,這跟電腦道德觀有甚麼關係?
這跟你用來定義電腦運作的程式運作時會出現甚麼例外有關係
就算工程師沒下令,電腦會不會殺人?這個可能性在上一篇的回答裡
簡化成這樣你看懂了沒?
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)17:45 No.525076
http://parking-prankster.blogspot.tw/2014/08/anpr-ltd-chase-wrong-person-for-parking.html

電腦會不會殺人,主要是看你把電腦用在哪
用途會決定它出錯時能不能夠殺人
車牌辨識交給ANPR時會出錯
那麼追只知道車牌的連續殺人通緝犯
就有可能因為辨識錯誤而讓電腦間接殺人
(當然實際上發生這種事並不容易,因為需要很多巧合)

如果你只是讓電腦負責計算零錢
那要因為算錯而殺到人還真的是相當不容易
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)17:49 No.525077
又例如股市當機,造成股民跑去自殺
你當然還是會覺得這並非電腦"自主"殺人
但事實上這些人是因為電腦(當機)而死
無標題 無名氏 ID:9W/mPsz6 15/07/10(五)18:03 No.525081
附圖
無標題 無名氏 ID:sZPmB.lM 15/07/10(五)18:05 No.525082
回覆: >>525087
>>No.525077
照這種判斷
假設今日有一宅宅
向正妹告白
正妹拒絕他,於是宅宅跑去跳樓自殺
是否可以說是正妹殺了他?
無標題 無名氏 ID:9gtSz/bA 15/07/10(五)18:09 No.525083
討論這問題前先定義一下超級電腦

天網是可以獨立思考的強人工智慧(Strong AI)
「設定上」他是可以自行推理出答案
是像GLaDOS那類更趨近於人類的東西
現代科技定義上的超級電腦
只是演算力超強但只會處理既定問題的弱人工智慧

所以
你想問強人工智慧會不會「想要」殺人
很難講因為現在沒有這東西
真的作的很趨近人類的話我覺得很難避免就是了

你想問弱人工智慧會不會「想要」殺人
...他們根本不會思考
除非故意所有的殺傷行為都只是意外
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)18:26 No.525087
>>No.525082
如果只是單純的拒絕他,那大概沒事
正妹心裡會受影響也許會自責,但這可以另外討論
但如果他被告白之後霸凌那位肥宅
才導致肥宅自殺
那結果可能又不太一樣了


以目前科技來說,我們的電腦還沒強大到有那麼多思考模式
所以能夠致人於死的方法並不多
會死人基本上都是間接出錯,然後人為疏失致死
要直接因電腦而死很難,因為實際上我們也會盡可能避免
無標題 無名氏 ID:z6.BFuw. 15/07/10(五)18:31 No.525088
目前的科技立大概只能模擬小鼠大腦皮質結構(還會DELAY)
無標題 無名氏 ID:cP.t823k 15/07/10(五)18:33 No.525089
回覆: >>525092
>>No.525077
你要這麼會牽拖的話,戰爭裡面人都是子彈飛彈炸彈殺的不是人殺的
無標題 無名氏 ID:cP.t823k 15/07/10(五)18:35 No.525090
>>No.525075
阿就是不會啊
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)18:43 No.525092
>>No.525089
子彈砲彈是被人擊發,所以是人殺人
猴子拿AK47然後射死人,我們會說是猴子殺的

有人被閃電擊中而死,我們會說閃電可以殺人
有人被龍捲風的碎石砸死,我們會說龍捲風殺人
有人被隕石砸死,我們會說隕石砸死人
有人被宇宙射線打死,我們會說宇宙射線打死人
你說這些殺人的東西有殺人的念頭嗎
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)20:13 No.525097
回覆: >>525104
無人駕駛飛機在自動駕駛系統的誤判之下
發生飛行意外並造成多人喪生
如果是這樣的狀況,會不會被人為電腦殺人?

如果自動駕駛系統功能不變
但是駕駛的表現方式是用一個像人的機器人在操作
會不會讓更多人認為是電腦殺人?
無標題 無名氏 ID:9gtSz/bA 15/07/10(五)20:40 No.525104
>>No.525097
除非你家的無人駕駛飛機的AI有阿斯拉那種等級
不然AI只負責處理任務而不會思考的前提下
無論如何都不會構成AI本身「想殺人(思考行為)」的情況

假設有一把自動步槍放在桌上
一個人經過時剛好走火打爆了他的腦袋
你也不會認為「自動步槍想要殺人,所以他打爆了他的頭」

科幻題材的AI太過先進
讓不少人反套到現代科技造成混淆
但現代科技的AI頂多就是飲料封口機的高級板
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)20:51 No.525106
回覆: >>525110
>>No.525100
那麼大概要多高級,才會讓人覺得電腦在思考?
另外,上述例子還是算過失殺人吧(雖然就不符合原PO的要求)
無標題 無名氏 ID:/8fS4s/o 15/07/10(五)21:32 No.525110
回覆: >>525113
>>No.525106
電腦要有
能讓人類理解的動機表徵
決定實施的邏輯意志表徵
這兩點,人類才會歸類他在故意裡吧

重點其實只要能讓人類理解就夠了
畢竟AI再高下去就會進入人其實根本跟機器人沒區別的哲學問題
無標題 無名氏 ID:Mpfle5o6 15/07/10(五)21:37 No.525112
電腦擁有足夠的人工智能後
它能否建造次世代的人工智能?
像天網那樣的東西已經算是新品種生物了
無標題 無名氏 ID:ZBIO.pNM 15/07/10(五)21:48 No.525113
>>No.525110
關於動機,實際上人的有些行動是沒有動機的
這樣是不是可以說沒有思考的行為?
無標題 無名氏 ID:O0H63tGI 15/07/10(五)22:46 No.525116
回覆: >>525120
不要只討論機器的bug 人類也會產生盲點

例如:允許工程機器自我更換不良的部件並讓智能AI自己執行
結果智能AI將其推算成"被允許自我改造"
無標題 無名氏 ID:w2I3E6gk 15/07/10(五)23:08 No.525119
現在是討論AI會不會殺人
還是討論AI想不想殺人呀?
無標題 無名氏 ID:cP.t823k 15/07/10(五)23:10 No.525120
>>No.525116
把允許被自我改的程式寫出來給大家看看?
很多人跟本就被以人為本位的被害妄想症給呼嚨了還自以為在討論人機哲學
在業界可見的未來裡根本就辦不到你說的這種大魔王式的AI
所謂的AI,你翻翻IEEE,CSIE的paper或著一些經典的教科書
根本都跑不出統計,機率,最佳化等等數學演算法的理論
多半就是藉由電腦快速的計算能力做以量化為基礎的判斷而已
哪有人在跟你電腦有創意?
無標題 無名氏 ID:v1cRakVI 15/07/10(五)23:11 No.525122
跟落後10幾年的智障沒有討論的必要
無標題 無名氏 ID:gZoDWDhk 15/07/11(六)00:08 No.525128
回覆: >>525133
>>No.525120
以前也有人說在天上飛是癡人說夢
萊特兄弟也不是靠現有典籍打造出飛行器
你想要反對這個可能性也沒人會阻止你
但是跑來掀桌就是你的問題了
無標題 無名氏 ID:58xaloSI 15/07/11(六)00:09 No.525129
殺人也不會笨到被你們發現
以為是意外
無標題 無名氏 ID:FazhMRrY 15/07/11(六)00:18 No.525131
>>No.525120
http://blog.linux.org.tw/~jserv/archives/001773.html
這個算是嗎

我覺得自我修改應該算是Machine Learning的一環
不太可能沒人去搞
(有回饋的Recurrent類神經網絡算嗎)
無標題 無名氏 ID:bSh/5/v2 15/07/11(六)01:44 No.525133
>>No.525128
少來啦,你這種話只是外行人的擋箭牌而已
來翻翻以前的課本:
http://51lica.com/wp-content/uploads/2012/05/Artificial-Intelligence-A-Modern-Approach-3rd-Edition.pdf
哪邊有告訴你會有任何的可能性發生你那種邏輯的失控?
無標題 無名氏 ID:FazhMRrY 15/07/11(六)02:11 No.525135
回覆: >>525136
>>No.525133
>哪邊有告訴你會有任何的可能性發生你那種邏輯的失控
不難啊,你看Google的圖片辨識系統
丟給他一張花的圖,他可以在裡面看到狗
人眼看/人想的跟電腦不見得會一樣
無標題 無名氏 ID:OE2OfFX2 15/07/11(六)02:34 No.525136
回覆: >>525138
>>No.525135
可是瑞凡,將圖片那樣子判定也是程式寫出來的

總覺得這串有些應該是非理工科的在搞不清楚實際情形
無標題 無名氏 ID:FazhMRrY 15/07/11(六)02:45 No.525138
>>No.525136
那算副作用的一種吧
因為訓練樣本,讓電腦不得不覺得很多地方都很像狗
就像waifu2x可以消除很多雜訊
但有些變化也會被抹掉
無標題 無名氏 ID:bSh/5/v2 15/07/11(六)02:50 No.525139
回覆: >>525140
>>No.525138
你還是先學過影像處理再來吧...
套裝軟體用一用就想討論電腦視覺未免也差太多了
無標題 無名氏 ID:FazhMRrY 15/07/11(六)02:55 No.525140
回覆: >>525161
>>No.525139
你還是先國中畢業再來討論比較好
無標題 無名氏 ID:OE2OfFX2 15/07/11(六)03:37 No.525142
>>No.525138
我真的不知道該從哪裡開始吐槽起才好了
無標題 無名氏 ID:xiY8JP1A 15/07/11(六)09:14 No.525147
>>FazhMRrY
這是誰家的小屁孩快來認領走阿~
無標題 無名氏 ID:gZoDWDhk 15/07/11(六)10:37 No.525154
回覆: >>525160
>>No.525133
「翻翻以前的課本」(笑
沒寫成書都不是知識
標準的無法進步
無標題 無名氏 ID:PLkRvv4A 15/07/11(六)13:46 No.525160
>>No.525154
喔你的意思是林杯當初拚死拚活讀了兩個學期拿B+
還比不過那些看看電影就自我膨脹成人機哲學專家的人就對了啦蛤?
人不要臉天下無敵
無標題 無名氏 ID:PLkRvv4A 15/07/11(六)13:47 No.525161
>>No.525140
你還是先四大EECS碩士畢業再來跟我比
無標題 無名氏 ID:HkeSim4o 15/07/11(六)15:31 No.525163
回覆: >>525167
>>No.525161
>>你還是先四大EECS碩士畢業再來跟我比
請問閣下學歷是?
無標題 無名氏 ID:HCDKVG3E 15/07/11(六)15:36 No.525164
回覆: >>525167
>> No.525161
那我剛好可以回你話,位階還多了一點點WWWW
在帶碩士班學弟妹的時候其實我很怕帶到書卷獎的
因為一堆都以為萬事有標準答案
課本上的東西已經老了,多看看paper好嘛
你想要電腦有"自我意識殺人",這方面還真得有點難度
畢竟不少人被電影和小說教育過各種可能性
而目前的發展還沒有人想要像天網那樣的詭異AI
畢竟把控制權完全交給電腦這種事違反人的本性
不過"程式控制的機械"在"沒有意圖下確實違反設計者意願殺人"
的可能性就高很多,所以我無法認同"程式是人寫的,除非有人下令電腦不會怎樣怎樣"
因為人腦預想的狀況有極限,就像你在這邊嗆聲
不知道真的會遇到可以回妳話的人一樣
無標題 無名氏 ID:PLkRvv4A 15/07/11(六)16:30 No.525167
>>No.525164
你那叫工安意外,想酸我你也先搞清楚本串的主題再來好嗎?
想也知道就算課本不是標準答案,學術界業界也不會這麼天馬行空
不然大家書讀假的嗎?
國外credit高的paper假的嗎?
業界standard訂假的嗎?
外行
>>No.525163
我在IT外商當RD
無標題 無名氏 ID:FazhMRrY 15/07/11(六)16:41 No.525171
回覆: >>525173
課本有沒有哪條理論
等同於證明電腦不可能有殺人的自我意志
像在定義圖靈機還是NP Hard那樣
無標題 無名氏 ID:PLkRvv4A 15/07/11(六)17:02 No.525173
回覆: >>525174
>>No.525171
沒有,u know y?
因為連個人腦的model都沒影
連個最大綱式的flow diagram都畫不出來
怎麼寫code?
就連最炫砲的類神經基因演算法都只是拿來解最佳化或分類分群問題而已
要討論機器殺人?充其量就是工安意外而已
無標題 無名氏 ID:FazhMRrY 15/07/11(六)17:09 No.525174
回覆: >>525203
>>No.525173
如果沒有理論證明的話
不覺得反而不是真的不可能嗎
就連外星人都有描述出現的機率了

如果電腦出問題=工安意外的話
那麼天網也就只是工安意外的一個案例而已
或許根本沒必要討論
無標題 無名氏 ID:a4e71w7o 15/07/11(六)17:17 No.525177
附圖
不要以為做殺人電腦和單純做電腦一樣簡單
無標題 無名氏 ID:jWt6K0Bc 15/07/11(六)18:00 No.525181
一邊是說現在根本遠遠看不到這種東西
一邊是說你怎知道現在沒有未來不會有
這樣討論下去只會一直跳針
無標題 無名氏 ID:HkeSim4o 15/07/11(六)18:06 No.525182
回覆: >>525183
就講了有可能
機率低到比起人殺人還低罷了
無標題 無名氏 ID:FazhMRrY 15/07/11(六)18:10 No.525183
>>No.525182
人殺人的機率也沒低到哪去啊..?
你這句話反而讓我更覺得有可能了
你要是說比外星人殺人機率還低
我搞不好還有機會相信
無標題 無名氏 ID:3xRbsGpU 15/07/11(六)18:49 No.525190
非相關領域,我看完這串的想法是,電腦殺人可分為…
1.因為意外、辨視錯誤、定義偏差之類的原因,讓電腦在執行其他任務時殺掉人
2.因為某人創造他的目的就是殺人,所以殺人
3.因為自主意識決定殺人

1和2都是已知可能的,責任也在製造者/操縱者身上
3……若真的存在就等於他和人有相近的思考能力,若和人相近那殺人自然是可能的。不過現實中不存在同程度的AI、未來也不確定是否做得出來
無標題 無名氏 ID:FazhMRrY 15/07/11(六)20:30 No.525200
回覆: >>525204
我會覺得未來還是有機會(雖然當然不希望啦)的原因
現在已經有可以慢慢學習聊天的程式
不少程式其實最後都"學壞"了
這些程式只是聊天而已就還好
如果他聊的每一句話都可以拿去當作任務執行
那其實滿有機會發生的
無標題 無名氏 ID:owDlcw5A 15/07/11(六)21:06 No.525203
回覆: >>525205
>>No.525174
ㄏㄏ,這就是我說的啦
你怎麼就不想:
"沒有理論證明有人性的機器人有殺人的可能性,或許有人性的機器人根本就不可能殺人"
為甚麼同樣是猜想,人們就很容易無條件接受按照神祕主義或被害妄想症的方向去想咧~
無標題 無名氏 ID:owDlcw5A 15/07/11(六)21:12 No.525204
回覆: >>525334
>>No.525200
你所謂學壞,只是機器執行某種統計上出現反應最多次的方式
一樣是最佳化問題,根本就不是機器人真的像人一般學習
這種過程一樣是按照程式語言執行來模擬人的行為
講模擬聽起來比較炫砲,說穿了就是人騙人說電腦好像是真人,懂?
無標題 無名氏 ID:FazhMRrY 15/07/11(六)21:14 No.525205
>>No.525203
還算可以接受這說法
就當作是這兩種機率的疊加好了
無標題 無名氏 ID:owWEK./Q 15/07/11(六)21:28 No.525206
>>No.525190
外國對3的猜測是這樣啦 AI由創造者給予一個目標或完成目標可以得到獎勵 那他可能因為如此而無所不用其極的完成目標或獲得獎勵
還有對ai的猜測是這樣 可能一開始發明出來只有人類孩童般的智力 當連上線後他可以獲得的資訊量是非常龐大的 可能過幾小時後 他就有了人類博士的能力 幾天後可能連人類都無法理解會變成怎樣>>No.525190
無標題 無名氏 ID:dROOw9RA 15/07/11(六)23:27 No.525213
>>No.525190
第三項最大問題是要定義「意識」
電腦要「自主」不難,問題你怎樣判斷它有沒有意識?
鏡子實驗等心理學和動物實驗大概對電腦不管用吧

「電腦自己決定殺人」和「電腦意識地自己有決定殺人」是兩個層次的事
在能夠定義「意識」之前後者沒有意義可以不用考慮
無標題 無名氏 ID:6t7OebME 15/07/12(日)03:33 No.525226
電腦如果有了意識
那電腦會有靈魂(GHOST)嗎?
無標題 無名氏 ID:r2MlRvkI 15/07/12(日)03:38 No.525227
>>No.525226
現在已經有GHOST啦
..雖然是別種意義
無標題 無名氏 ID:RAk7qeso 15/07/12(日)04:13 No.525228
回覆: >>525238
>>No.525226
人類有意識
那人類有靈魂嗎?
無標題 無名氏 ID:vnZ.OBgU 15/07/12(日)10:32 No.525238
回覆: >>525242
>>No.525228
靈魂根本就不存在,精神也只是神經細胞上的火花。而人類的存在更不過是一種記憶情報的影子而已
無標題 無名氏 ID:eMBDxJig 15/07/12(日)11:08 No.525242
>>No.525238
靈魂是存在的
不信的話你可以嘗試把你的靈魂賣給路西法
當你第一次拿偽娘或者正太本打槍之後
除了進入賢者模式之外 還會感到彷彿失去了某些無法形容的東西
那就是你的靈魂了
無標題 無名氏 ID:5auDWGOE 15/07/12(日)12:02 No.525244
回覆: >>525245
>>No.525226
人家外國人真正在討論靈魂用的是spirit或soul
ghost咧,真的是動畫看太多把設定當現實>>No.525226
無標題 無名氏 ID:tSVlisiQ 15/07/12(日)12:28 No.525245
回覆: >>525247
>>No.525244
ghost應該是電影看太多吧
怎麼會是動畫w
無標題 無名氏 ID:FHCeXelI 15/07/12(日)12:52 No.525247
>>No.525245
攻殼機動隊
無標題 無名氏 ID:UTCvVHMw 15/07/12(日)22:15 No.525284
回覆: >>525291
如果哪天因為電腦而出現死人
而且這個責任不會被追究到任何一個開發者、使用者或者被害人身上的話
那應該就算電腦殺人了吧..
無標題 無名氏 ID:zUDGD61M 15/07/13(一)00:48 No.525291
>>No.525284
縱使真的開發出一個會思考的AI然後讓他從0開始自主成長
演化失控最終導致機械有殺人慾望
開發者一樣會被追究的
無標題 無名氏 ID:FC7jpZb2 15/07/13(一)10:44 No.525309
>>No.525291
學哥白尼那樣就可以迴避了
無標題 無名氏 ID:T88FCglw 15/07/13(一)20:35 No.525334
回覆: >>525335
>>No.525204
請問Rd老大
樂園追放的黑科技AI實現的可能性有多少呀
無標題 無名氏 ID:VI7oLP1s 15/07/13(一)21:02 No.525335
>>No.525334
0%
welcome back to reality
無標題 無名氏 ID:8/cuiIDI 15/07/16(四)01:12 No.525507
>>No.525291
這個說法有點像[如果我生了一個孩子,他去殺人,我要負責]的感覺?如果負責教育的是我的話應該可以說有,不過假設我只是生的話這個說法可能有點不太合適?
或者AI也要有成年未成年,也會有未成年犯罪,保護者要負責任(?