
硅谷崇尚快速試錯的文化,但這可能不是我們想要的對待個(gè)人信息的方式。硅谷崇尚快速試錯的文化,但這可能不是我們想要的對待個(gè)人信息的方式。
導語(yǔ):美國科學(xué)雜志nautil.us《鸚鵡螺》作者ChristinaLeuker&WouterVanDenBos近日發(fā)表了針對人工智能時(shí)代下如何保護人類(lèi)的“不知情權”的深度報道。人工智能的出現能以無(wú)法預知的方式改變了現實(shí)生活中需要在選擇知道和不知道的平衡,同時(shí)讓我們在決定什么時(shí)候保持不知情的問(wèn)題上變得復雜,研究故意不知情的心理將有助于設計適用于人工智能的不知情權法律,不過(guò),這一嚴謹的科學(xué)研究話(huà)題長(cháng)期以來(lái)一直被忽略。
以下為文章全文:
柏林墻倒塌后,東德公民終于有機會(huì )閱讀到斯塔西(Stasi,東德的國家安全機構,被認為是當時(shí)世界上最有效率的情報和秘密警察機構之一)保存的關(guān)于他們的資料。然而迄今為止,只有大約10%的人真的去查閱了這些資料。
2007年,脫氧核糖核酸(DNA)結構的發(fā)現者之一詹姆斯·沃森(JamesWatson)表示,他并不想知道自己的載脂蛋白E(ApoE)基因信息。該等位基因被認為是阿爾茨海默癥的風(fēng)險因子。
民意調查顯示,如果有選擇的話(huà),大多數人寧愿不知道自己的死亡日期——甚至是快樂(lè )事件的發(fā)生日期也不想知道。
以上這些都是故意選擇不知道的例子。蘇格拉底可能會(huì )提出,未經(jīng)審視的生活不值得過(guò);而霍布斯則會(huì )爭論稱(chēng),好奇心是人類(lèi)最主要的激情;但還有許多古老的故事向我們描述了知道太多也會(huì )帶來(lái)危險。從亞當、夏娃和智慧樹(shù),到盜取取火秘密的普羅米修斯,這些故事告訴我們,現實(shí)生活中需要在選擇知道和不知道之間達成微妙的平衡。
然而,如果出現一種技術(shù),能以無(wú)法預知的方式改變這種平衡,同時(shí)讓我們在決定什么時(shí)候保持不知情的問(wèn)題上變得復雜的話(huà),又會(huì )帶來(lái)什么后果?這種技術(shù)其實(shí)已經(jīng)出現了,那就是人工智能。
人工智能可以利用相對較少的數據來(lái)找到模式并做出推論。例如,只需要幾個(gè)Facebook上的點(diǎn)贊就可以預測出你的個(gè)性、種族和性別。還有一種計算機算法聲稱(chēng),只需根據人們的照片,就能以81%的準確率區分同性戀和異性戀男性,而區分同性戀和異性戀女性的準確率為71%。另一種名為“替代性制裁的懲罰性罪犯管理分析”(CorrectionalOffenderManagementProfilingforAlternativeSanctions,COMPAS)的算法則可以通過(guò)青少年被捕記錄、家庭犯罪記錄、教育、社會(huì )隔離和休閑活動(dòng)等數據,來(lái)預測犯罪者再犯的可能性,準確率達到65%。
在這些例子中,結論和所用的數據可能在本質(zhì)上存在著(zhù)驚人的偏差(即使某些結果的有效性仍在爭論中)。這使得控制我們所知道的內容十分困難,而且也沒(méi)有什么法規來(lái)幫助我們保持不知道的狀態(tài):不存在受保護的“不知情權”。
于是,這就創(chuàng )造了一種氛圍,用Facebook的早期座右銘來(lái)說(shuō),我們很容易“快速行動(dòng),破除陳規”(movefastandbreakthings)。但是,當涉及到我們私人生活的細節時(shí),“破除陳規”是否就是我們想要的呢?
幾十年來(lái),政府和立法者都知道“潘多拉的盒子”有時(shí)候最好還是不要打開(kāi)。至少在20世紀90年代,保護個(gè)人不知情權利的法律就已經(jīng)出臺。例如,1997年的“歐洲人權和生物醫學(xué)公約”(EuropeanConventiononHumanRightsandBiomedicine)規定:“每個(gè)人都有權了解其被收集的有關(guān)健康狀況的任何信息。但是,應當遵從個(gè)人不希望被告知的意愿。”類(lèi)似的,1995年世界醫學(xué)協(xié)會(huì )的“患者權利宣言”(RightsofthePatient)中指出:“患者有權利明確要求不被告知(醫療數據),除非是為了保護其他人的生命。”
然而,為人工智能制定“不知情權”法規是完全不同的問(wèn)題。雖然醫療數據受到嚴格管制,但人工智能所使用的數據往往掌握在名聲不佳的盈利性科技公司手中。人工智能處理的數據類(lèi)型也更廣泛,因此任何相應的法律都需要對什么是“不知情權”有更深入的理解。研究故意不知情的心理將有助于設計適用于人工智能的不知情權法律。不過(guò),令人驚訝的是,這一嚴謹的科學(xué)研究話(huà)題長(cháng)期以來(lái)一直被忽略,或許是因為某種隱含的假設,即故意忽略信息是不理性的。
心理學(xué)家拉爾夫·赫特維格(RalphHertwig)和法律學(xué)者克里斯托弗·恩格爾(ChristophEngel)近期發(fā)表了一篇文章,對故意選擇不知情的動(dòng)機進(jìn)行了細致分類(lèi)。在他們識別出的動(dòng)機中,有兩組尤其與面對人工智能時(shí)對不知情的需求密切相關(guān)。
第一組動(dòng)機圍繞公正和公平展開(kāi)。簡(jiǎn)而言之,知識有時(shí)會(huì )破壞判斷力,而我們往往選擇以故意不知情作為回應。例如,學(xué)術(shù)論文的同行評議通常是匿名的。大多數國家的保險公司在登記之前不得獲取有關(guān)客戶(hù)健康狀況的細節;他們只能知道一般的健康風(fēng)險因素。這種考慮尤其與人工智能關(guān)系密切,因為人工智能可以產(chǎn)生極具偏見(jiàn)的信息。
第二組相關(guān)的動(dòng)機是情緒調節和避免遺憾。赫特維格和恩格爾寫(xiě)道,刻意的不知情可以幫助人們維持“珍視的信仰”,并避免“精神不適、恐懼和認知失調”。故意不知情其實(shí)非常盛行。調查中大約90%的德國人希望避免可能由于“預知諸如死亡和離婚等負面事件”而產(chǎn)生的負面情緒,40%到70%的人也不想知道正面事件,以幫助保持“對驚喜和懸念的積極感受”,比如不知道未出生孩子的性別。
這兩組動(dòng)機能幫助我們理解在人工智能面前保護不知情權的必要性。舉例來(lái)說(shuō),人工智能“同志雷達”(gaydar)算法的潛在收益似乎接近于零,但是在公正性和公平性方面的潛在成本卻很高。正如《經(jīng)濟學(xué)人》(TheEconomist)所說(shuō)的那樣,“在世界上同性戀社交不被接受或被認為非法的部分地區,這樣的算法可能對安全構成嚴重威脅。”同樣的,NtechLab目前正在開(kāi)發(fā)的種族識別人工智能系統所能帶來(lái)的潛在收益,與其對公正性和公平性的負面影響相比顯得蒼白許多。COMPAS累犯預測軟件具有比人類(lèi)更高的準確性,但正如Dressel和Farid所寫(xiě),這“并不像我們想要的那種準確,尤其是從未來(lái)還懸而未決的被告者的角度來(lái)看”。預測個(gè)人預期壽命的算法,比如AspireHealth正在開(kāi)發(fā)的算法,并不一定會(huì )讓人們的情緒調節變得更容易。
這些例子說(shuō)明了識別個(gè)體不知情動(dòng)機的影響,并且展示了知識和無(wú)知的問(wèn)題可以有多復雜,特別是在涉及人工智能的時(shí)候。關(guān)于集體不知情在什么時(shí)候有益處,或者在道德上合理的問(wèn)題,沒(méi)有現成的答案。理想的做法是單獨考慮每個(gè)案例,進(jìn)行風(fēng)險收益分析。理想情況下,鑒于爭論的復雜性和后果的重要性,這一分析將公開(kāi)進(jìn)行,考慮各種利益相關(guān)者和專(zhuān)家意見(jiàn),并考慮所有可能的未來(lái)結果,包括最壞的情況。
這其中涉及的問(wèn)題太多了……事實(shí)上,理想做法在大多數情況下都是行不通的。那么,我們又該如何做呢?
一種方法是控制和限制機器根據已采集數據進(jìn)行的推理。例如,我們可以“禁止”使用種族作為預測變量的司法算法,或者從潛在求職者的預測分析中排除性別。但是,這種方法也存在問(wèn)題。
首先,限制大公司使用信息的成本太高,技術(shù)難度也很大。這需要這些公司將算法開(kāi)源,同時(shí)要求大型政府機構不斷對其審查。另一方面,一旦采集到大量的數據集,總是會(huì )有很多迂回的方法來(lái)推理出“禁止的知識”。假設政府宣布使用性別信息來(lái)預測學(xué)術(shù)成功是非法的,那就可能出現使用“擁有汽車(chē)類(lèi)型”和“最喜歡的音樂(lè )流派”作為性別替代指標,直接進(jìn)行替代指標的二級推理。有時(shí)候,盡管一家公司的意圖是好的,但有關(guān)性別的推理也可能意外地嵌入到算法中。這些二級推理導致對算法的審查更加困難。一個(gè)分析中包含的變量越多,發(fā)生二級推理的可能性就越大。

麻省理工學(xué)院的研究者在網(wǎng)站(moralmachine.mit.edu)上根據人們自己選擇的數據類(lèi)型,測試他們在機器即將做出決定的情況下表現出的道德直覺(jué)。麻省理工學(xué)院的研究者在網(wǎng)站(moralmachine.mit.edu)上根據人們自己選擇的數據類(lèi)型,測試他們在機器即將做出決定的情況下表現出的道德直覺(jué)。
保護不知情權權更激進(jìn)——也可能更有效——的方法是第一時(shí)間防止數據被收集。2017年,德國做出了一項開(kāi)創(chuàng )性的舉措,立法禁止自動(dòng)駕駛汽車(chē)通過(guò)種族、年齡和性別來(lái)識別道路上的人。這意味著(zhù)汽車(chē)將無(wú)法通過(guò)這些類(lèi)別的數據來(lái)做出駕駛決策,尤其是在事故不可避免時(shí)需要做出的決策。
基于相同的思維方式,歐盟推出了新的《通用數據保護條例》(GeneralDataProtectionRegulation,GDPR),并于2018年5月生效。該條例規定,只允許公司在提供明確的指定服務(wù)時(shí),收集和存儲必需的最少量數據,并且獲得客戶(hù)對其數據使用方式的同意。這種對數據獲取的限制可能也會(huì )阻止二級推理。但《通用數據保護條例》的一個(gè)重要局限是,公司可以為自己設定非常寬泛的目標。例如,如今已經(jīng)關(guān)門(mén)的劍橋分析(CambridgeAnalytica)公司的明確目標是評估用戶(hù)的個(gè)性,因此在技術(shù)上,它對Facebook數據的收集符合《通用數據保護條例》的規定。同樣的,只要用戶(hù)同意——許多人即使在獎勵相當微薄的情況下也會(huì )同意分享自己的數據——《通用數據保護條例》對數據和給定服務(wù)之間一致性的關(guān)注就無(wú)法排除道德上有問(wèn)題的數據類(lèi)別,也不能完全阻止公司從數據中介那里購買(mǎi)被排除的數據。研究人員發(fā)現,麻省理工學(xué)院的一些學(xué)生會(huì )分享他們朋友的聯(lián)系數據,只為了獲得一小片披薩。顯然,我們還需要更多的限制手段,但究竟需要多少呢?
美國程序員、自由軟件活動(dòng)家理查德·斯托曼(RichardStallman)說(shuō):“利用數據來(lái)害人的方法太多了,以至于唯一安全的數據庫就是從未被收集過(guò)的數據庫。”然而,如果對數據采集的限制過(guò)于嚴厲,又可能會(huì )阻礙人工智能的發(fā)展,并減少我們從中獲得的收益。
誰(shuí)應該權衡其中的利弊?首先應該是我們自己。
在大多數情況下,我們談?wù)摰钠鋵?shí)是你我作為個(gè)人所擁有的數據。我們一直都很粗心大意,將這些數據拱手讓給各種閃亮的app,絲毫不考慮后果。事實(shí)上,我們一直在放棄我們的數據,以至于忘記了一開(kāi)始它就是屬于我們的。收回數據將使我們每個(gè)人都能決定哪些事情想知道,哪些不想知道。讓數據回到合適的人——也就是我們自己——手中,就可以巧妙地解決我們討論的許多艱巨問(wèn)題。我們不再需要制定通用的預見(jiàn)性指導規范,相反的,數以百萬(wàn)計的個(gè)體將根據自己的是非觀(guān)來(lái)決定自身數據的用途。我們可以對公司如何使用數據做出實(shí)時(shí)反應,根據他們對待數據的方式來(lái)進(jìn)行懲罰或獎勵。
關(guān)于把數據放回人們手中,計算機科學(xué)哲學(xué)家杰倫·拉尼爾(JaronLanier)提出了一個(gè)經(jīng)濟學(xué)上的論據。他指出,通過(guò)將我們自己的個(gè)人數據賣(mài)給大公司,我們應該都能從中受益。這種方法存在著(zhù)兩個(gè)問(wèn)題。首先,它混淆了數據使用和所有權的道德規范。在回答數據應該如何被使用的問(wèn)題時(shí),免費提供數據的意愿在道德完整性上是很好的試金石。一個(gè)小眾群體中有多少人會(huì )愿意免費提供數據,以創(chuàng )建一個(gè)像“同志雷達”這樣的面部識別應用程序?又有多少人會(huì )愿意為此付費?另一方面,大多數人會(huì )很樂(lè )意貢獻他們的數據來(lái)尋找治療癌癥的方法。第二個(gè)問(wèn)題是,賦予個(gè)人數據(較高的)經(jīng)濟價(jià)值可能會(huì )迫使人們分享他們的數據,并使數據隱私成為富人的特權。
這并不是說(shuō)個(gè)人的單獨行動(dòng)就足夠了,社會(huì )機構的集體行動(dòng)也是必需的。即使只有小部分人口分享他們的敏感數據,其結果也可能具有大多數人反對的高預測準確性。并不是所有人都明白這一點(diǎn)。為了防止不必要的后果,我們需要更多的法律和公共討論。
《經(jīng)濟學(xué)人》曾寫(xiě)道,世界上最寶貴的資源不再是石油,而是數據。然而,數據與石油有著(zhù)很大不同。數據是無(wú)限的資源,由個(gè)人所有,并且通常是在沒(méi)有交易價(jià)值的情況下進(jìn)行交換。從石油中獲利便殺死了石油市場(chǎng)。作為第一步,從數據中獲取利潤將為我們提供空間,用于創(chuàng )造和維持能在人工智能到來(lái)之后延續的道德標準,并為管理集體的不知情權鋪平道路。換句話(huà)說(shuō),在數據成為現代世界最有用的商品之一的同時(shí),它也需要成為最便宜的商品之一。(任天)
(責任編輯:蘇玉梅)