中文字幕视频在线免费_日韩在线精品_日韩视频免费看_中文字幕在线三区_午夜免费视频_日韩在线大片

五個人工智能認知誤區 小心煙霧彈

來源:解放日報

點擊:1117

A+ A-

所屬頻道:新聞中心

關鍵詞:機器人,人工智能,智能化

        人工智能的話題,最近因谷歌公司一場商業炒作“圍棋人機大戰”而再次大熱起來。各種不同的看法紛紛表達,其中既有天真糊涂的想法,也有居心難測的說法。為了厘清思路,有必要就下面五點進行認真思考。

                                五個人工智能認知誤區 小心煙霧彈
      一、“老虎還小”不構成養虎的理由

      當人們表達對人工智能將來失控或危害人類的擔憂時,經常見到人工智能業界人士,或是對科學技術盲目崇拜、盲目樂觀的科學主義人士出來說:人工智能目前還很初級很弱小,所以不必憂慮云云。這種說法常見于媒體,其實背后暗含著荒謬的邏輯。

      我們擔心老虎吃人,所以有“養虎遺患”的成語,怎么能用“老虎還小”作為養虎的理由呢?要說服人們同意養虎,必須論證“老虎不會吃人”。人們擔憂的是人工智能未來對人類的危害,要打消這個擔憂,就必須論證“人工智能不會危害人類”,而不能將“人工智能還很初級”作為理由。

      先不忙取笑這條荒謬的理由,因為許多人工智能的業界大佬和知名人物,都曾向公眾說過這條理由。當史蒂芬·霍金、比爾·蓋茨和伊隆·馬斯克這樣的智者領銜呼吁世人警惕人工智能的盲目研發時,一名業界知名人物就拿這條理由來反駁,還說這三人是“愚蠢的”。這就有點蠻橫了。

      如果我們無法論證“人工智能不會危害人類”,那就有必要重新考慮目前是否應該發展人工智能。

      二、“人造的東西不可能超過人”是盲目信念

      當然,人工智能通常都是智商比較高的人玩的。智力上的榮譽感,會使他們中的許多人羞于用“老虎還小”來說服人們同意養虎,他們知道應該論證“老虎不會吃人”,就是論證“人工智能不會危害人類”。而進行這樣的論證時常用的理由之一,就是“人造的東西不可能超過人”。盡管這條理由其實也不能帶來多少智力上的榮譽,因為很多非專業的公眾也是這么想的。

      但是,有誰給出過關于“人造的東西不可能超過人”這一論斷令人信服的論證嗎?從來沒有。事實上,這一論斷只是一個盲目的信念。這個信念實際上是在堅信:造物主一定比所造之物高明。這樣的信念顯然和宗教情懷有關。但是到了人工智能的爭議中,那些理應最具無神論精神的科學主義者,卻不假思索地從宗教信念中尋求思想資源。

      而且,這個信念明顯違背常識。一個簡單的常識是,父母可不可以視為孩子的造物主?如果可以(至少在相當程度上可以),那孩子超過父母的情形,難道我們沒見過嗎?

      三、“人工智能未必服從人類設定的道德標準”,沒有足夠的論證

      比起前面兩條理由來,“人類可以設定人工智能的道德標準”這條理由看起來相對比較專業,至少不會給玩人工智能的高智商人士直接帶來羞愧感。這一條也是論證“人工智能不會危害人類”時常用的理由。

      但是,有誰給出過關于“人工智能必然會服從人類設定的道德標準”這一論斷令人信服的論證嗎?同樣從來沒有。

      更不幸的是,這一條也明顯違背常識。一個明顯的常識是:人類無法避免自己的一部分后代學壞。這樣的例子日常生活中天天都在上演:父母從孩子記事起就灌輸誠信、仁愛、友好、慷慨、勇敢等美德。這些難道不等于對人工智能的“記憶植入”和道德設定嗎?可是,仍然有孩子無可救藥地學壞了。在這一過程中,父母設定的道德標準、學校進行的規訓矯正,都無法制止他。

      學壞的孩子當然已經嚴重危害過一部分人類,比如這些壞人的刑事犯罪。但是,為何他們尚未統治全人類或危害人類整體呢?那是因為他們畢竟只是凡人,能力有限。然而,人工智能追求的是什么境界?不弄出“超人”來,個別科學家肯罷手嗎?

      四、“拔掉電源”未來未必可行

      有的專業人士將人工智能分為四個級別:1、沒有學習能力(智能程度也可以相當高);2、具有固定的學習能力,而且習得的技能會趨于一個定值;3、具有固定的學習能力,技能增長沒有極限,但因為它的學習能力是事先設定的,所以被認為不會成長為超級人工智能;4、具有無限的學習能力,可以成長為超級人工智能。

      專業人士安慰說,此次與李世石對戰的“阿爾法圍棋”只是第2級的人工智能,第4級的人工智能還遠遠沒有問世。其實,這里除了前面已經討論過的“老虎還小”之謬,還有更大的危險存在。

      專業人士在試圖打消公眾對人工智能的憂慮時,經常提到一個說法:我們可以拔掉電源。這個說法,當對人工智能的想象停留在個體機器人階段時,也許是成立的。更一般的說法可以是,只要人工智能還依賴有形的伺服機構才能實施行動,那我們也許還可以拔掉電源。但現實情形是,人工智能一旦與互聯網結合,借用高度發達的定制、物流、快遞等社會服務,幾乎可以完全擺脫對所有伺服機構的依賴。這一點不僅在大量幻想作品中已經反復上演,而且在現實生活中也可以順利實施了。當人工智能只是一個網上幽靈時,沒有機體,沒有形態,還談什么拔掉電源呢?

      以前阿西莫夫——提出“機器人三定律”的人——曾論證過個體機器人智能的物理極限,那有一定道理,但他那個時代沒有互聯網。如今,我們必須特別關注人工智能和互聯網的結合,即使就個體機器人而言,這種結合也將快速突破智能的物理極限。就無形的人工智能而言,還有更大的危險性,一旦和互聯網結合,上述1、2、3、4級人工智能之間的界限還能不能存在?如果居心叵測的人工智能研發者,有意突破這些界限,社會如何監控?人工智能進化成超級人工智能可能只需彈指一揮間,到時人類將措手不及,完全無法掌控。

      五、“發展科學”也可能“喚出惡魔”

      這是一個帶有終極性質的問題。我們必須想清楚:究竟為什么需要人工智能?

      工廠生產線需要更多工人嗎?社會服務需要更多人手嗎?需要人工智能為我們開車嗎?需要人工智能為我們做手術嗎?這些都是在想象人工智能應用前景時經常被提到的,但是都沒有仔細推敲過。對于這些工作而言,人工智能真是必不可少的嗎?

      科學技術和資本結合之后的特征之一,就是為資本增值服務。科學家很少會坦白地說出來這一點。他們總是對公眾說,是為了“發展科學”。仿佛“發展科學”就是終極目的,為了“發展科學”,一切別的事情,哪怕是人類的安危,都不必考慮了。

      當然,還有另外的需求,如利用人工智能打贏戰爭,這就和利用核武器打贏戰爭一樣。馬斯克認為人工智能會“喚出惡魔”,比核武器對人類的威脅還大;霍金則斷言:“徹底開發人工智能可能導致人類滅亡。”他們的話值得深思。田松教授有名言曰:“警惕科學!警惕科學家!”在人工智能問題上,真該三復斯言。

      今天,我們即使不得不研發人工智能,也應該抱著和美國當年搞“曼哈頓工程”,或我們當年搞“兩彈一星”類似的心態來進行。更理想的局面,則是各大國坐下來談判,簽署一個禁止或至少限制研發人工智能的國際協議,這才是人類之福。


    (審核編輯: 智慧羽毛)

    聲明:除特別說明之外,新聞內容及圖片均來自網絡及各大主流媒體。版權歸原作者所有。如認為內容侵權,請聯系我們刪除。

    主站蜘蛛池模板: 久久日韩| 欧美a级成人淫片免费看 | 激情国产 | 日韩亚洲 | av在线中文 | 四虎影院在线 | 色亚洲成人 | 91网在线观看 | 日韩第一区 | 精品久久久久久亚洲综合网 | 精品无码久久久久国产 | 蜜桃精品在线 | 波多野结衣中文字幕一区二区三区 | 综合精品久久久 | 国产精品久久久久久久久 | 午夜视频在线播放 | 一级欧美 | 久久久久高清 | 亚洲精品一二三 | 国产精品久久国产精品 | 91精品日韩| 欧美福利二区 | 午夜色电影 | 91免费在线视频 | 免费黄色在线看 | 亚洲国产精品久久久久 | 成人精品视频在线观看 | 另类sb东北妇女av | 日本a级片网站 | 综合久久久久 | 久久国产精品久久久久久电车 | 国产欧美中文字幕 | 中国黄色一级视频 | 中文字幕精品一区 | 欧洲亚洲一区 | 日韩三级视频 | 99久久影院 | 午夜激情视频在线观看 | 日韩国产中文字幕 | 亚洲一区二区三区四区的 | 日韩毛片一区二区三区 |