本文系網(wǎng)易智能工作室(公眾號(hào) smartman163)出品。聚焦AI,讀懂下一個(gè)大時(shí)代!
鮮為人知的是:著名科幻小說作家艾薩克·阿西莫夫一開始并沒有在《I, Robot》這部小說中寫出著名的“機(jī)器人三大定律”。
實(shí)際上,機(jī)器人三定律第一次出現(xiàn)是在1942年的短篇小說《Runaround》中。三定律寫道:
1、機(jī)器人不能傷人,或見到傷人事件無作為;
2、機(jī)器人不能違背人類的命令,除非違反第一條定律;
3、機(jī)器人必須保護(hù)自己,除非違反第一第二條定律。
75年過去了,我們?nèi)匀辉谔接懓⑽髂蛐≌f中的未來。阿西莫夫的三定律似乎更專注于“強(qiáng)人工智能”,你可以在《2001:太空漫游》中人工智能哈爾(HAL)身上發(fā)現(xiàn)這樣的特質(zhì),但這并不能適用于亞馬遜新型人工智能Echo。
強(qiáng)人工智能模仿人類的大腦,就像一個(gè)不斷進(jìn)化的孩子,直到它變得有知覺,并能處理你扔給它的任何問題,就像人類一樣。要想實(shí)現(xiàn)這一目標(biāo),還有很長(zhǎng)的路要走,但今天我們要處理的是狹義的人工智能,在這種情況下,算法可以處理有限的任務(wù)。它識(shí)別人臉,理解你對(duì)它發(fā)出的“明天天氣怎樣”的問題,或者試圖預(yù)測(cè)你是否應(yīng)該給某人一筆貸款。
不過,JonathanM.Smith說,為這種人工智能制定規(guī)則已經(jīng)相當(dāng)困難了。Jonathan是計(jì)算機(jī)機(jī)械協(xié)會(huì)組織的一員,也是賓夕法尼亞大學(xué)的計(jì)算機(jī)科學(xué)教授,他說,即便是在目前弱人工智能的水準(zhǔn)上,也仍有大量的倫理問題需要解開?!岸唐趩栴}非常重要,因?yàn)槿斯ぶ悄芴幱诩夹g(shù)和政策的邊界,”他說,“你肯定不希望有人利用人工智能來鉆法律的空子,逃避或轉(zhuǎn)移我們努力在做出的社會(huì)政治決策。”
無論是真實(shí)的還是想象的,人工智能在倫理上已經(jīng)出現(xiàn)了一些棘手的難題。其中一個(gè)是著名的電車問題,這是《蘇菲的抉擇》這部電影中的場(chǎng)景:一列進(jìn)行中的火車將在兩組人身上駛過。如果你什么都不做,火車會(huì)駛過,然后殺死5個(gè)人。如果你主動(dòng)拉動(dòng)一個(gè)閘刀,改變火車軌跡,火車就會(huì)壓死另外一行軌道上的一個(gè)人。你必須做出選擇。
因此,人工智能的批評(píng)者經(jīng)常會(huì)把這個(gè)應(yīng)用到自動(dòng)駕駛汽車上。一個(gè)孩子跑到馬路上,汽車沒有時(shí)間停下來,但是自動(dòng)駕駛可以選擇轉(zhuǎn)向,并撞到一個(gè)老人。AI該怎么做,誰來做這個(gè)決定?
這一主題有很多不同之處在于,麻省理工學(xué)院甚至將其中的一部分收集到了一個(gè)在線游戲中。有一個(gè)經(jīng)典的反駁觀點(diǎn)是:自動(dòng)駕駛汽車不會(huì)在學(xué)校里超速行駛,所以不太可能發(fā)生上述的情形。
功利主義者可能會(huì)爭(zhēng)辯說,通過消除注意力分散、醉酒或疲勞的司機(jī),全球范圍內(nèi)的死亡人數(shù)將會(huì)減少,這意味著整個(gè)社會(huì)贏了,即使一個(gè)人死亡。你可能會(huì)指出,就算是人類可能也會(huì)在這個(gè)場(chǎng)景中選擇殺死其中一個(gè)人,那么,我們?yōu)槭裁催€要進(jìn)行這樣的對(duì)話呢?
YaseminErden是瑪麗女王大學(xué)的哲學(xué)高級(jí)講師,她對(duì)此有一個(gè)答案。她指出,她花了大量的時(shí)間考慮倫理和計(jì)算機(jī)在人工智能和行為模擬方面的研究,事情沒有發(fā)生之前模擬做出的決定表明了人的道德取向,并會(huì)招致他人的評(píng)判,但現(xiàn)場(chǎng)做出的決策則沒有。
她說:“有道德判斷的自動(dòng)駕駛編程,知道風(fēng)險(xiǎn)是什么,這意味著公眾可能不太愿意把事情看成是事故。”或者換句話說,只要你在駕駛中足夠負(fù)責(zé)任,你就可以在撞了任何人之后說:“是那個(gè)人自己突然跳出來的?!?,你的任何行為都可以被原諒。但是人工智能算法在道德上并沒有獲得這么奢侈的諒解。如果計(jì)算機(jī)在某些情況下比我們更快速、更能判斷,那么它們的編程方式就很重要了。
專家們?cè)诤粲踟?zé)任,但指望算法能夠得出電子倫理這件事合適嗎?
凱菲特-巴特菲爾德說:“我需要對(duì)我的算法進(jìn)行交叉檢查,或者至少知道如何找出事故發(fā)生時(shí)的情況?!彼且幻麑9ト斯ぶ悄軉栴}的律師,同時(shí)也是艾奧斯汀的執(zhí)行董事。她說,今年3月成立的非營(yíng)利人工智能智庫“道德顧問委員會(huì)”是由人工智能公司露西建立的倫理委員會(huì)。
”我們需要一種方法來理解人工智能算法在做事情時(shí)“思考”的方式。你怎么能對(duì)一個(gè)病人的家人說,他們因?yàn)椤覀儾恢朗窃趺窗l(fā)生的’AI干預(yù)而死亡?”因此,問責(zé)和透明度是很重要的。讓你困惑的是為什么你的車會(huì)因?yàn)楸茏屢恢回埻蝗晦D(zhuǎn)向了一條狗,這并不是唯一需要提高透明度的人工智能問題。
有偏見的人工智能算法會(huì)導(dǎo)致各種各樣的問題。例如,面部識(shí)別系統(tǒng)可能會(huì)忽略有色人種,因?yàn)锳I的訓(xùn)練數(shù)據(jù)庫中沒有關(guān)于有色人種的足夠的面部特征,又比如:帶有偏見的人工智能可能會(huì)自我強(qiáng)化,從而損害社會(huì)。如果社交媒體知道你喜歡看到一種政見的新聞,并且只向你展示這樣的新聞,那么隨著時(shí)間的推移,我們可能會(huì)失去批判性辯論的能力。
'J.S穆勒提出了一個(gè)論點(diǎn),如果想法沒有受到挑戰(zhàn),那么它們就有可能成為教條?!盓rden回憶道,很好地總結(jié)了她所說的“過濾泡沫”問題。(穆勒是一位19世紀(jì)的功利主義哲學(xué)家,他強(qiáng)烈支持基于經(jīng)驗(yàn)證據(jù)的邏輯和推理,所以他很可能不會(huì)喜歡和Facebook上的人爭(zhēng)論。)因此,如果人工智能創(chuàng)造出了數(shù)十億人,他們不愿意,甚至沒有能力分辨彼此的想法,這難道不是一個(gè)需要解決的道德問題嗎?
另一個(gè)問題是與機(jī)器人的情感關(guān)系的形成。菲爾德-巴特菲爾德感興趣的是兩種不同的范圍——兒童和老年人。孩子們喜歡把自己不信任的東西放在身邊,這使得他們與人工智能交流變得更容易接受。她擔(dān)心人工智能機(jī)器人可能會(huì)讓孩子們成為他們產(chǎn)品的理想客戶。同樣,另一方面,她也在思考人工智能機(jī)器人如何為老年人提供照顧和陪伴。
“這是否會(huì)讓人類沒有與人類互動(dòng)的權(quán)利,而只是被機(jī)器人照顧?”她說,“我認(rèn)為這將是我們這個(gè)時(shí)代最重大的決定之一?!?/p>
這凸顯了人工智能的一個(gè)區(qū)別,即算法是如何做到的,以及我們想用它來實(shí)現(xiàn)什么。亞歷克斯倫敦是卡內(nèi)基梅隆大學(xué)道德與政策中心的哲學(xué)教授和主任,他說,推動(dòng)問題的本質(zhì)是機(jī)器想要做什么。這可能是最根本的問題之一。
“如果機(jī)器出了問題,這是有問題的,那么道德編程(即它如何能在道德上提高這一目標(biāo))聽起來是錯(cuò)誤的,”他說,“這很棘手,因?yàn)楹芏喽际浅鲇谌祟愖陨淼囊鈭D?!?/p>
如果它能提高老年人的生活質(zhì)量,作為頻繁拜訪和與家人通話的補(bǔ)充,機(jī)器人可能會(huì)很棒。但同樣,以機(jī)器人作為借口忽視年長(zhǎng)的親戚,將會(huì)帶來相反的后果。
就像從廚房刀到核聚變的任何技術(shù)一樣,這個(gè)工具本身不是好是壞,取決于使用它的人的意圖。即使是這樣,亞歷克斯倫敦也指出,如果有人認(rèn)為他們用這個(gè)工具做得很好,而其他人則不好,又是什么樣的情況呢?
對(duì)于這些道德問題,我們自己又是清醒的嗎?隨著人工智能的發(fā)展,這些問題已經(jīng)開始顯現(xiàn)出來。我們離智能機(jī)器人不遠(yuǎn)了,目前正在和那些愿意停止懷疑的人進(jìn)行可行性的對(duì)話。
自動(dòng)汽車廠商正在將狹義的人工智能技術(shù)結(jié)合起來,生產(chǎn)出能夠解決復(fù)雜問題的產(chǎn)品。然而,專家警告說,大多數(shù)人所認(rèn)為的強(qiáng)人工智能,即具有模仿人類大腦功能的人工智能,離我們還遠(yuǎn)。
SteveTorrance是蘇塞克斯大學(xué)信息學(xué)院認(rèn)知科學(xué)研究中心的高級(jí)研究員,他花了幾十年的時(shí)間來思考一個(gè)強(qiáng)大的人工智能會(huì)產(chǎn)生的問題。什么是意識(shí),而強(qiáng)大的人工智能會(huì)有嗎?我們是否應(yīng)該建立強(qiáng)大的人工智能,如果有的話,它會(huì)有情感嗎?它應(yīng)該擁有人權(quán)嗎?
谷歌工程負(fù)責(zé)人RayKurzweil甚至提出,你能不能創(chuàng)造出許多你自己的意識(shí)副本?“
我認(rèn)為這引發(fā)了可怕的問題,”Torrance說?!安恢挂淮危乔f次,你可以創(chuàng)作出很多個(gè)自我。”并且每個(gè)自我都可以獲得投票的權(quán)利。
算法解放!政治人士對(duì)這一點(diǎn)很感興趣。今年1月,歐洲議會(huì)投票通過了一項(xiàng)關(guān)于人工智能研究和使用監(jiān)管框架的提案。在許多情況中,它解決了機(jī)器人的治療問題。這一提議,雖然僅為人工智能的一個(gè)可能的法律框架,但也可能會(huì)帶來一些法規(guī),讓機(jī)器人擁有一種類似企業(yè)人格的地位。
(審核編輯: 林靜)
分享