“人工智能+” 理性正視挑戰
語(yǔ)音識別、文本識別、視頻識別……數字經(jīng)濟時(shí)代,人工智能技術(shù)已走近你我身邊,被視為經(jīng)濟增長(cháng)的新引擎、國際競爭的新陣地和推動(dòng)智慧社會(huì )建設的有效工具。而加快“人工智能+”產(chǎn)業(yè)融合、賦能更多行業(yè)應用落地,更成為社會(huì )各界共同的期待。
然而,不久前在由中國人工智能學(xué)會(huì )主辦的2020中國人工智能產(chǎn)業(yè)年會(huì )上,最新發(fā)布的報告指出,目前已成熟應用的人工智能技術(shù)僅為語(yǔ)音識別,機器學(xué)習、計算機視覺(jué)、自然語(yǔ)言處理、知識圖譜、智能機器人等技術(shù)距離生長(cháng)成熟尚需數年時(shí)間,而無(wú)人駕駛汽車(chē)在未來(lái)10年內都不太可能出現。
從實(shí)驗室走向大規模商用,人工智能還需要多久?尚存在哪些“堵點(diǎn)”“痛點(diǎn)”?在許多業(yè)內專(zhuān)家看來(lái),正視人工智能尚存在的諸多挑戰,對技術(shù)賦能抱有理性期待,方能讓其回歸技術(shù)本質(zhì),成為更多產(chǎn)業(yè)變革創(chuàng )新的動(dòng)力源泉。
算法不透明導致的不可解釋
2016年,谷歌人工智能系統AlphaGo擊敗世界圍棋冠軍李世石,令世人大為震動(dòng)。依靠人工智能深度學(xué)習理論的突破,計算機可以模仿人類(lèi)作出決策,然而,這僅基于大量的數據學(xué)習,而非因果或規則推理,整個(gè)決策過(guò)程仍是一個(gè)“黑箱”,人類(lèi)難以理解,導致追責難。
復旦大學(xué)計算機科學(xué)技術(shù)學(xué)院院長(cháng)姜育剛舉例,此前,美國IBM公司研發(fā)了人工智能系統“沃森”幫助醫生進(jìn)行診療決策。然而,許多醫生很快發(fā)現在使用“沃森”時(shí),系統給出了多個(gè)不安全、不正確的治療意見(jiàn),甚至在極端的診斷案例中,“沃森”給有出血癥狀的癌癥病人開(kāi)出了容易導致出血的藥物,嚴重時(shí)可致患者死亡。然而,醫生卻并不知道為什么“沃森”給出了這樣的意見(jiàn)。決策步驟的不可解釋?zhuān)瑤?lái)諸多不確定性。
近年來(lái),人工智能應用于新藥研發(fā)被寄予厚望。然而,算法的不可解釋性卻橫亙在前。相關(guān)研發(fā)和監管部門(mén)需要清楚地知道藥物開(kāi)發(fā)中使用的算法,從而理解人工智能主導的決策背后的邏輯。如果不對監管實(shí)現算法透明化,人工智能將會(huì )是一個(gè)無(wú)法進(jìn)行嚴謹的科學(xué)評價(jià)及驗證的“黑匣子”.這可能會(huì )導致在藥物審批過(guò)程中出現種種無(wú)法預料的問(wèn)題,比如對人工智能“發(fā)現”的生物標記物的接受度不明。此外,對于智能政務(wù)、無(wú)人駕駛這樣安全性要求極高的行業(yè),人工智能的引入自然更為謹慎。
“深度學(xué)習的算法和核心模型需要能夠真正展開(kāi),讓公眾知曉它的機理模型”,上海人工智能研究院有限公司總經(jīng)理宋海濤建議。中科院軟件研究所研究員薛云志則指出,人工智能面向不同知識背景的用戶(hù),要能以簡(jiǎn)單、清晰的方式,對決策過(guò)程的根據和原因進(jìn)行說(shuō)明,并能對系統決策過(guò)程關(guān)鍵節點(diǎn)的數據加以追溯并能夠審計,這在未來(lái)人工智能應用大規模落地時(shí),是特別需要關(guān)注的特性,也是實(shí)施監管的必要。
易受欺騙引發(fā)安全性質(zhì)疑
作為人工智能技術(shù)的“大熱選手”,深度學(xué)習可以通過(guò)對大量已知樣本的訓練,制作自己的樣本,這是深度學(xué)習的特點(diǎn),同樣也是痛點(diǎn)。
京東人工智能研究院院長(cháng)周伯文坦言,人工智能目前在面向產(chǎn)業(yè)化落地時(shí),遇到的巨大挑戰正是真實(shí)環(huán)境的開(kāi)放邊界和規則模糊,數據的“噪音”非常多,使得智能模型的部分結果和使用情況難以讓人信賴(lài)。
姜育剛指出,人工智能目前的智能判別模式存在缺陷,容易被對抗樣本所欺騙。比如圖像識別,在一張人像圖片上加入一些非常少量的干擾,人為視覺(jué)看上去基本沒(méi)有區別,但人工智能模型就會(huì )產(chǎn)生識別錯誤;再如自動(dòng)駕駛,一張“限速80碼”的交通標牌,加入一些干擾后,就可能被機器識別成“禁止通行”.顯然,存在很大的安全隱患。
語(yǔ)音識別領(lǐng)域也存在這種問(wèn)題。技術(shù)人員在語(yǔ)音上任意加入非常微小的干擾,語(yǔ)音識別系統就可能會(huì )識別錯誤。同樣,在文本識別領(lǐng)域,改變一個(gè)字母就可以使得文本內容被錯誤分類(lèi)。
此外,若深度學(xué)習的數據集中存在隱藏的偏見(jiàn),人工智能系統無(wú)法發(fā)現,也不會(huì )否定。缺少反饋機制的“照單全收”,最終可能導致生成的結果并不客觀(guān)。
例如在行業(yè)內已經(jīng)出現的,人工智能在深度學(xué)習后對女性、少數族裔、非主流文化群體產(chǎn)生“歧視”:亞馬遜通過(guò)人工智能篩選簡(jiǎn)歷,卻發(fā)現了系統對女性存在偏見(jiàn)導致最終關(guān)閉。更為常見(jiàn)的是手機軟件利用人工智能算法導致的大數據“殺熟”,如根據手機類(lèi)型的不同,可能會(huì )推薦不同類(lèi)型的商品,甚至打車(chē)時(shí)推薦不同價(jià)格、檔次的車(chē)輛。
目前,“AI+金融”的發(fā)展如火如荼。但當金融機構均采用人工智能進(jìn)行決策時(shí),其市場(chǎng)信號解讀就可能趨同與不斷強化,導致形成偏離正常市場(chǎng)規律的結果。而這些不正常的市場(chǎng)變化也會(huì )成為人工智能的學(xué)習基礎,將人工智能的決策邏輯進(jìn)一步畸化,容易造成惡劣的后果。
以上這些問(wèn)題,影響著(zhù)人工智能賦能實(shí)體經(jīng)濟的安全性,凸顯產(chǎn)業(yè)對技術(shù)可信賴(lài)性的呼喚。“從AI到可信賴(lài)AI,意味著(zhù)我們需要在技術(shù)層面上解決魯棒性(穩定性)、可解釋性和可復制性這些核心技術(shù)挑戰。同時(shí)為了大規模產(chǎn)業(yè)化應用,我們必須考慮到人工智能的公平性和負責任。這幾個(gè)維度是人工智能必須要解決的問(wèn)題。”周伯文說(shuō)。
法律規制和倫理問(wèn)題待完善
“目前的智能算法還存在給出的決策不符合倫理道德要求的問(wèn)題。”姜育剛指出,在應用中已發(fā)現,智能算法的決策沒(méi)有從改善人類(lèi)生活、服務(wù)人類(lèi)社會(huì )的角度來(lái)進(jìn)行。如智能音響在對話(huà)中出現“勸主人自殺”的內容,聊天機器人學(xué)會(huì )了罵臟話(huà)和種族歧視等。而這些不友好的決策都是模型從數據中學(xué)來(lái)的,并不是研發(fā)者對人工智能模型設置的目標。
同時(shí),人工智能算法需要海量的數據驅動(dòng),訓練數據可以被算法恢復,個(gè)人隱私存在泄露和被侵犯的風(fēng)險,而大量的數據也存在共享壁壘。在人工智能賦能金融的過(guò)程中,這一問(wèn)題尤被關(guān)注。最新報告顯示,近年來(lái),每年發(fā)生金融隱私泄露事件以大約35%的速度在增長(cháng)。加之近年來(lái)人工智能技術(shù)在金融行業(yè)的廣泛應用,由此帶來(lái)的銀行數據、保險數據、網(wǎng)貸業(yè)務(wù)及大數據等個(gè)人信息保護問(wèn)題日益凸顯。
在2020年抗擊新冠肺炎疫情期間,人工智能技術(shù)在我國響應速度快、介入力度大,幫助推出了CT影像的輔助診斷系統,提升了醫生診斷的速度和信心。然而,醫療影像智能診斷發(fā)展也面臨著(zhù)法律規制問(wèn)題。與其他人工智能賦能行業(yè)的大數據相比,獲取高質(zhì)量的醫療影像數據相對困難。不同醫療機構的數據,目前還很少互通、共享。而單個(gè)醫療機構積累的數據往往不足以訓練出有效的深度學(xué)習模型。此外,使用醫療影像數據進(jìn)行人工智能算法的訓練還涉及保護病人隱私等非技術(shù)問(wèn)題。
此外,近年來(lái),隨著(zhù)人工智能技術(shù)的深入探索,科學(xué)界有人提出研發(fā)“人工生命”,成為又一個(gè)倫理話(huà)題。對此,中國工程院院士李德毅表示,生命不僅有智能,更要有意識。從倫理角度上,生命是人類(lèi)的底線(xiàn),觸碰底線(xiàn)要慎之又慎。“所以,我們可以通過(guò)計算機技術(shù)繼續研發(fā)沒(méi)有意識、但有智能的高階機器。讓人類(lèi)的智能在體外延伸,保持它的工具性,而非人工創(chuàng )造意識。”
深圳云天勵飛技術(shù)股份有限公司副總裁鄭文先同時(shí)提醒,“人工智能的技術(shù)進(jìn)步可以給社會(huì )帶來(lái)非常正向的效益,不應因為對隱私保護機制等方面的憂(yōu)慮而將人工智能的問(wèn)題妖魔化。”他認為,當前人工智能的法律法規尚不健全,亟待有關(guān)部門(mén)進(jìn)一步科學(xué)制定和完善,這樣才能引導公眾更加健康地看待這一新技術(shù)應用于產(chǎn)業(yè)。
亟待技術(shù)進(jìn)步 發(fā)展新一代人工智能
面對技術(shù)落地所遇到的種種“痛點(diǎn)”,許多專(zhuān)家給出了這樣的比喻:“人工智能相當于一個(gè)錘子,不能哪一個(gè)釘子都能砸。”
“我覺(jué)得,人工智能發(fā)展的第一步是輔助,讓重復復雜的勞動(dòng)量由機器完成,在這個(gè)基礎上,我們再創(chuàng )造條件逐漸向智能決策的方向發(fā)展。”鄭州大學(xué)教授蔣慧琴表示,對于業(yè)界有人提出“人工智能超越甚至取代人類(lèi)”的期待和預計,應保持冷靜,“只有沿著(zhù)這樣的方向堅持下來(lái),才有可能達到我們的目標”.
中國科學(xué)技術(shù)發(fā)展戰略研究院研究員李修全認為,在重復性操作的生產(chǎn)環(huán)節和基于海量數據的高強度計算優(yōu)化求解上,人工智能具有明顯優(yōu)勢,應當是當前應用于產(chǎn)業(yè)的主要方向。
華為云人工智能領(lǐng)域首席科學(xué)家田奇則認為,加速人工智能賦能產(chǎn)業(yè)落地,其與科學(xué)計算的深度融合應是顯著(zhù)趨勢,在工業(yè)、氣象、能源、生物、醫學(xué)等領(lǐng)域,需要大量科學(xué)計算,人工智能技術(shù)能為傳統科學(xué)計算帶來(lái)新的思路、方法和工具,同時(shí)由于傳統科學(xué)計算具有嚴密性,人工智能也可以提高它本身的可解釋性。
“推動(dòng)人工智能進(jìn)入新的階段,有賴(lài)于與數學(xué)、腦科學(xué)等結合實(shí)現底層理論的突破。”中國科學(xué)院院士、清華大學(xué)人工智能研究院院長(cháng)張鈸說(shuō),未來(lái)所需要的第三代人工智能應是實(shí)現可解釋的、魯棒的、可信安全的智能系統,依靠知識、數據、算法和算力四個(gè)要素,將實(shí)現從不帶認知的人工智能轉變?yōu)閹дJ知的人工智能。
如何解釋新一代人工智能?李德毅認為,傳統人工智能是計算機智能,屬于封閉型人工智能。新一代人工智能應該是開(kāi)放性人工智能。當前,所有的計算機都是對軟件工程師的智能編程代碼進(jìn)行一次又一次簡(jiǎn)單執行,“但我們希望這個(gè)機器在學(xué)習過(guò)程中能夠解決新的問(wèn)題,學(xué)習應成為新一代人工智能解決現實(shí)問(wèn)題的基礎”.
清華大學(xué)智能技術(shù)與系統國家重點(diǎn)實(shí)驗室教授鄧志東建議,數據和算力的增加總有天花板,要推動(dòng)人工智能技術(shù)深度賦能更多行業(yè),需要的是核心關(guān)鍵技術(shù)突破,特別是認知智能的進(jìn)步,同時(shí),還要依靠智能高端芯片、傳感器等零部件的硬件支撐,再借助我國5G信息技術(shù)的優(yōu)勢,形成合力支撐產(chǎn)業(yè)落地和商業(yè)化應用。
此外,人工智能標準化工作也應加速展開(kāi)。薛云志表示:“建立可信賴(lài)的人工智能需要標準化,一方面要從開(kāi)發(fā)者訓練、測試與實(shí)驗、部署運營(yíng)和監管的角度來(lái)做,另一方面則要從芯片等硬件、算法、產(chǎn)品系統出發(fā),來(lái)制定標準和規范,同時(shí)對人工智能的風(fēng)險、倫理、管理等標準研究也要盡快啟動(dòng),這些都只是第一步。” (本報記者 楊舒)