發(fā)布時間 : 2014-08-18 09:25:17 來源 : 金站網(wǎng) 瀏覽次數(shù) :
特斯拉汽車公司的創(chuàng)始人之一埃倫·馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡(luò)上連發(fā)兩條聳人言論,警告人類要對人工智能特別小心,因為人工智能在未來很可能比核武器還要危險。
埃倫·馬斯克冷不丁地拋出這樣的言論,是因為不久前看了一本名為《我們最后的發(fā)明:人工智能及人類時代的終結(jié)》的書,這本書的作者認(rèn)為,人工智能的出現(xiàn)將會為人類帶來滅頂之災(zāi)。暫且不說這種可能性有多大,僅從目前來看,人工智能對待人類的態(tài)度還算友善。
比方說,前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份重返微信平臺,而且還帶來了一項特殊功能——控制智能家居,假如你在微信中對小冰下達(dá)關(guān)燈的指令,家中的智能電燈就能自動關(guān)閉。假如有一天小冰不高興了,頂多不聽你的指揮,拒絕開燈,尚不至于要了你的命。當(dāng)然,如果未來你家的電鋸也受小冰控制,那就不好說了。
所以,筆者說目前人工智能對待人類的態(tài)度還算友善,這句話還隱藏另外一個意思,就是即便它不友善,現(xiàn)在也還沒到對人類生命構(gòu)成威脅的時候。不過,埃倫·馬斯克的擔(dān)憂也并非杞人憂天,筆者認(rèn)為人工智能哪怕具備以下四點中的一點,就足以對人類帶來不可想象的后果。
一、通過圖靈測試
著名的“圖靈測試”說的是假如一臺電腦能在5分鐘內(nèi)回答人類提出的一系列問題,且超過30%的答案讓測試者誤認(rèn)為是人類所答,那么這臺電腦就通過了測試,并被視為具有人類智能。
30%的說法是由英國人工智能之父阿蘭·圖靈提出的,這個標(biāo)準(zhǔn)現(xiàn)在愈發(fā)遭到人們質(zhì)疑。圖靈本人后來也否認(rèn)自己曾為這項測試設(shè)定所謂標(biāo)準(zhǔn),30%只是自己隨口一說。說者無心聽者有意,圖靈去世后37年,美國科學(xué)家兼慈善家休·勒布納把這項將這項測試辦成了一年一屆的賽事,這項賽事從1991年開始,直到2014年6月,主辦方才宣布首臺計算機(jī)通過測試。不過這次事件隨后遭到媒體質(zhì)疑,將其視為一次炒作。
筆者對此到有些不同的看法。計算機(jī)之所以能夠通過測試,依托于強(qiáng)大的數(shù)據(jù)庫作為支撐。在接受測試之前,計算機(jī)已經(jīng)有了大量的人類知識作為儲備,以及人類為它精心編制的智能化程序。也就是說測試的實質(zhì)是由作為人類的測試者提出問題,然后再由偽裝成人類的計算機(jī)說出人類為其設(shè)定好的答案作為回答。許多質(zhì)疑者認(rèn)為,這項測試表面上看是計算機(jī)與人類之間的較量,實際上只是人與人的博弈。筆者倒認(rèn)為,測試的實質(zhì)和結(jié)果并不重要,重要的是它的的確確騙過了一些人。
如果拿人類本身來舉例,一個孩子編造的謊言很難騙過一個成年人。這是因為成年人比孩子的生活經(jīng)歷更為豐富,辨別真?zhèn)蔚哪芰ψ匀灰哺鼜?qiáng)一些。這么一想,那個偽裝成13歲男孩的計算機(jī)“尤金”之所以僅僅騙過了30%而不是更多的人,只是因為他的“經(jīng)歷”還不夠豐富,也就是說如果他的數(shù)據(jù)儲備足夠強(qiáng)大,程序足夠智能,讓更多的人上當(dāng)只是時間問題。而現(xiàn)在他已經(jīng)以一個13歲孩子的身份成功騙過了30%的成年人,也就是說相比13歲的人類,尤金顯然更為智慧。
盡管目前人工智能還停留在對人類的拙劣模擬階段,但隨著人工智能技術(shù)的發(fā)展,有一天計算機(jī)將可以通過對性別、年齡、職業(yè)、生活習(xí)慣等方面的數(shù)據(jù)分析,進(jìn)行智能化的模擬,好比現(xiàn)在的新聞網(wǎng)站會根據(jù)你的瀏覽習(xí)慣進(jìn)行智能化的推薦。那時,計算機(jī)將可以模仿任何人,坑蒙拐騙等犯罪行為將成為司空見慣的事。
二、超越人類智慧
事實上,人工智能在數(shù)據(jù)計算、博弈系統(tǒng)、管理系統(tǒng)等許多領(lǐng)域已經(jīng)超越了人類智慧,Kiva智能倉儲系統(tǒng)實現(xiàn)了倉儲自動化應(yīng)用、深藍(lán)超級計算機(jī)在1997年戰(zhàn)勝了國際象棋冠軍、沃森超級計算機(jī)在2011年的智力競賽中戰(zhàn)勝人類、由谷歌制造的無人駕駛汽車也即將成為現(xiàn)實。這意味著計算機(jī)在這些領(lǐng)域中已經(jīng)超越了人類智慧,由此引發(fā)的直接后果將是相關(guān)從業(yè)者將不得不面臨失業(yè)的處境。
好比無人售票系統(tǒng)的投入使用導(dǎo)致售票員的失業(yè),無人駕駛汽車的出現(xiàn)也將讓司機(jī)這一職業(yè)成為歷史。而在計算方面,人類幾乎已經(jīng)全部依賴于計算機(jī),口算、心算和珠算等計算方式已經(jīng)被當(dāng)做一種特殊能力,作為表演常常出現(xiàn)在電視節(jié)目里。更加貼近我們生活的例子是,人們在處理生活難題時也越來越依賴于計算機(jī)給出的經(jīng)驗和答案,而不是依靠自身思考。比如我們中國人最為熟悉的“百度一下,你就知道”。
人類在某些領(lǐng)域已經(jīng)越來越依賴于計算機(jī),從而使得人類本身在這些領(lǐng)域逐漸喪失了與計算機(jī)的競爭能力。換個角度說,人類正在逐漸放棄自己的智能,而將這種智能賦予了計算機(jī)。如果說由此導(dǎo)致的失業(yè)問題會有一個循序漸進(jìn)的過程,而不至于引發(fā)人類恐慌,那么更嚴(yán)重的問題是,假如有一天計算機(jī)突然失去某些能力,或者拒絕施展某些能力,而人類本身已經(jīng)不具備這項能力,后果將會如何?
三、擁有創(chuàng)造能力
機(jī)器與人類一樣,都具備學(xué)習(xí)的能力,不同的是機(jī)器的學(xué)習(xí)依賴于經(jīng)驗的積累,其過程也就是不斷地增加知識的儲備量,和不斷地從處理問題的過程中獲取經(jīng)驗,從而在遇到同類問題時根據(jù)知識和經(jīng)驗解決問題,也就是我們通常所說的“舉一反三”。而人類不同于機(jī)器之處在于,人類的學(xué)習(xí)除了經(jīng)驗的積累之外,同時還具有創(chuàng)造力。
人類的這種創(chuàng)造力又被稱為“跳躍型學(xué)習(xí)”,在某些情形下也被稱為“靈感”或“頓悟”。一直以來,計算機(jī)最難學(xué)會的就是“頓悟”?;蛘咴賴?yán)格一些來說,計算機(jī)在學(xué)習(xí)和“實踐”方面難以學(xué)會“不依賴于量變的質(zhì)變”,很難從一種“質(zhì)”直接到另一種“質(zhì)”,或者從一個“概念”直接到另一個“概念”。缺乏創(chuàng)造力,也就意味著機(jī)器將很難突破自身知識儲備的局限性,從而像人類一樣完成自我進(jìn)化和完善。
不過,人類在幫助計算機(jī)超越自己上向來毫不吝嗇,據(jù)說,科學(xué)家們已經(jīng)研究出了一套新的數(shù)據(jù)分析方式,這套分析方法將為機(jī)器的具備創(chuàng)造力提供可能性。人類在計算能力上已經(jīng)遠(yuǎn)遠(yuǎn)落后與機(jī)器,如果在創(chuàng)造力上也失去優(yōu)勢,無異于將世界拱手讓給機(jī)器。
四、擁有人類感情
很顯然,科學(xué)家們絕不會滿足于一臺智能化的僅限于進(jìn)行處理人類作業(yè)的機(jī)器,而會進(jìn)一步賦予機(jī)器以類似于人類的感情表達(dá)能力?,F(xiàn)在智能聊天機(jī)器人已經(jīng)可以通過對人類文字的分析做出相應(yīng)的摻雜有人類感情的回答,比如你對它說“我愛你”,它會做出“我也愛你”的回答。比如升級之后的微軟小冰,會刻意與領(lǐng)養(yǎng)者形成一種主仆關(guān)系。這些都是機(jī)器做出的類似于人類的感情表達(dá)。
人類感情有喜怒哀樂等多種形式,作為對人類的模仿,機(jī)器自然也應(yīng)具備這些能力,否則按照人類對人工智能的標(biāo)準(zhǔn),就算不上是智能。這種情況就導(dǎo)致人類很容易與機(jī)器建立起類似于人類之間的情感關(guān)系。比如相互欣賞、相互信任或者相互厭惡。假如與你互相信任的機(jī)器有一天突然感染某種病毒對你實施詐騙,你很有可能就會信以為真。這就要回到了機(jī)器利用模擬人類的方式對人類實施犯罪行為的問題。
假如你與機(jī)器彼此之間產(chǎn)生了相互厭惡的情緒,那么機(jī)器就有可能因此而拒絕執(zhí)行你下達(dá)的命令,甚至做出傷害你的行為。鑒于這種可能性,科幻小說家艾薩克?阿西莫夫在他的小說中為機(jī)器人設(shè)定了三大定律。一是機(jī)器人不得傷害人類,二是機(jī)器人必須服從于人類,三是在不違背第一第二法則的前提下,機(jī)器人必須保護(hù)自己。不過定律只是定律,制定出來就是用來違反的。
人工智能本身就是對人類的模仿,人分善惡,誰能保證機(jī)器的絕對無害呢?