往屆回聲丨新技術窺探隱私?未來我們如何進行AI治理

澎湃新聞記者 王心馨 張唯

2020-10-25 08:54 來源:澎湃新聞

字號
編者按:第三屆世界頂尖科學家論壇將於10月30日-11月1日在上海舉行。包括61位諾貝爾獎得主在內,近140位諾貝爾獎、圖靈獎、菲爾茲獎、沃爾夫獎、拉斯克獎等全球頂尖科學獎項得主出席。論壇期間將有130餘場科學家獨立演講、70餘場主題峯會,大部分活動將通過網絡向公眾直播。
在往屆的頂尖科學家論壇上,人工智能一直是這些科學家樂於討論的話題。面對越來越強大的人工智能技術,未來的人類該如何與之相處?數據隱私和數據安全、算法黑箱、技術濫用……落地發展至今,人工智能已經顯露出許多亟需關切的監管問題。
澎湃新聞特此整理了世界頂尖科學家論壇往屆參與者關於上述問題的討論,希望可以幫助讀者對於人工智能有更清晰的認識。
古往今來,技術與人類的互動關係一直是人們苦苦思考的問題。面對越來越強大的人工智能技術,未來的人類該如何與之相處?
數據隱私和數據安全、算法黑箱、技術濫用……落地發展至今,人工智能已經顯露出許多亟需關切的監管問題。在全球各地“AI熱”的同時,需要一點技術應用的“冷思考”。
在第二屆世界頂尖科學家論壇中,許多科學家提出了對人工智能監管問題的關切。
日本諾貝爾化學獎得主野依良治擔心AI武器化。他説,至少現在我們不需要對人工智能恐懼,但預測未來是很困難的。“未來如果是超級智能,並用在其他領域,比如武器領域,也許情況就不是這樣了。所以我覺得人類必須要掌握使用人工智能的主動權。”
2017年諾貝爾物理學獎得主巴里·巴里什提出人工智能帶來的數據安全問題。利用大數據分析,AI能幫助人類更好的提出科學發現,但AI也帶來數據安全問題。巴里什對於科學研究中的數據完整性表示擔憂,因為在探測到引力波的過程中,巴里什就遇到這樣的情況。
“當我們第一次探測到引力波時,我們第一個想到的問題是如何證明和測試它是真的,這是做科學研究必須要想的。但緊接着我們又想到了第二問題,我們如何證明探測到的引力波不是別人入侵後,植入的數據?好在,我們的系統能夠追溯信號來源,才解決了這個擔憂。”巴里什説。
2007年圖靈獎得主約瑟夫·斯發基斯則擔心AI算法的黑箱問題。算法黑箱問題是指,科學家能夠獲知人工智能算法最終得出的結果,但並不清楚該結果產生的原因。“我們正處在大型的革命開端,機器在很多時候被認為可以替代人類了。但為了能夠應對自主系統的挑戰,我們需要進一步研究,在不嘗試理解這些機器如何做出決策的情況下,不應該接受這樣的技術在大量場景下使用。”斯發基斯説。
他們談到的問題,有的已經超出了科學的範疇,需要各國政府出台相應的政策法規加以監管。世界各國正在展開這樣的嘗試。
歐盟:發展可信賴人工智能
人工智能可以幫助醫生做出更快、更準確的診斷,幫助農民減少使用農藥,幫助人們應對氣候變化,它還有助於減少交通事故的數量……人工智能正在幫助我們解決許多社會難題,但與之相伴而來的是人工智能所引發的安全擔憂。
關注人工智能帶來的安全、隱私、尊嚴等方面的風險正是歐盟人工智能戰略和政策的側重點。
2018年3月,有歐盟智庫之稱的歐洲政治戰略中心(European Political Strategy Centre)發佈題為《人工智能時代:確立以人為本的歐洲戰略》(The Age of Artificial Intelligence: Towards a European Strategy for Human-Centric Machines)的報告。
報告建議歐盟鼓勵發展人工智能,並努力建立起人與機器的共生關係。它還建議歐盟確立以人為本的戰略,把政策目標設定為使人們感到被人工智能賦能,而非被其威脅。
在此建議下,2018年4月25日,歐盟委員會發布的一份政策文件《歐盟人工智能》(Artificial Intelligence for Europe)提出了人工智能的歐盟道路。向來有着人權傳統的歐盟決定着重探討人工智能的價值觀。
歐盟認為,人工智能的發展可能會引發新的倫理和法律問題,歐盟必須確保人工智能在適宜的框架內發展。這個框架應既促進科技創新,又能尊重歐盟的價值觀、基本權利和道德原則。在歐洲價值觀的基礎上,歐盟委員會提出了一種三管齊下的方法:增加公共和私人投資,為人工智能帶來的社會經濟變革做好準備,並建立起適當的道德和法律框架。
2019年4月8日,歐盟委員會發布一份人工智能道德準則,該準則由2018年12月公佈的人工智能道德準則草案演變而來,提出了實現可信賴人工智能的七個要素,要求不得使用公民個人資料做出傷害或歧視他們的行為。
這份人工智能道德準則提出了實現可信賴人工智能的七個要素,分別是:
1.人的能動性和監督:人工智能系統應通過支持人的能動性和基本權利以實現公平社會,而不是減少、限制或錯誤地指導人類自治。
2.穩健性和安全性:值得信賴的人工智能要求算法足夠安全、可靠和穩健,以處理人工智能系統所有生命週期階段的錯誤或不一致。
3.隱私和數據管理:公民應該完全控制自己的數據,同時與之相關的數據不會被用來傷害或歧視他們。
4.透明度:應確保人工智能系統的可追溯性。
5.多樣性、非歧視性和公平性:人工智能系統應考慮人類能力、技能和要求的總體範圍,並確保可接近性。
6.社會和環境福祉:應採用人工智能系統來促進積極的社會變革,增強可持續性和生態責任。
7.問責:應建立機制,確保對人工智能系統及其成果負責和問責。
英國:把倫理道德放在核心位置
英國政府也關注到人工智能的倫理問題,希望引領世界安全、合乎道德地使用數據和人工智能。
英國政府報告《人工智能:未來決策制定的機遇和影響》(Artificial intelligence: opportunities and implications for the future of decision making)中詳細地討論了有關倫理的問題。這些問題包括:人工智能是什麼?它是如何被利用的?它能給生產力帶來什麼好處?以及我們如何最好地管理其使用中可能會發生的倫理和法律風險?
2018年4月16日,英國議會一個特別委員會發布報告説,在發展和應用人工智能過程中,有必要把倫理道德放在核心位置,以確保這項技術更好地造福人類。
這份報告提出,應確立一個適用於不同領域的“人工智能準則”,其中主要包括5個方面:人工智能應為人類共同利益服務;人工智能應遵循可理解性和公平性原則;人工智能不應用於削弱個人、家庭乃至社區的數據權利或隱私;所有公民都應有權利接受相關教育,以便能在精神、情感和經濟上適應人工智能發展;人工智能絕不應被賦予任何傷害、毀滅或欺騙人類的自主能力。
美國:保護公民自由、隱私和美國價值觀
美國較早開始關注人工智能驅動的自動化將對就業、經濟和社會帶來的影響,試圖通過政策制定來應對相應挑戰,並確保人工智能的發展能釋放企業和工人的創造潛力。
2016年10月,美國前總統奧巴馬發佈了《國家人工智能研究和發展戰略計劃》,並稱其為新的“阿波羅登月計劃”。這是全球首份國家層面的AI戰略計劃。奧巴馬提到專用的人工智能已經在醫藥、交通、輸配電等各個領域提高了經濟運行的效率。但人工智能也可能存在不利的方面,比如減少就業機會、影響工資水平和社會平等。政府需要對此進行研究。
2019年2月11日,美國總統特朗普簽署了一項名為“維護美國人工智能領導地位”的行政命令,正式啓動美國人工智能計劃。同日,白宮發文稱,美國聯邦政府將集中資源發展人工智能,以“確保美國在人工智能方面的優勢”。
特朗普當時簽署的行政命令稱,美國是人工智能研發和部署的全球領導者,美國政府將協調聯邦政府戰略和美國人工智能計劃,以五項原則為指導,維持和加強美國在人工智能研發和部署方面的科學、技術和經濟領導地位。
其中,第二項原則提到,美國必須推動制定適當的技術標準,減少對人工智能技術進行安全測試和部署的障礙,以便創造新的人工智能相關產業,並使當前的產業應用人工智能技術。
第四項原則提到,美國必須培養公眾對人工智能技術的信任和信心,並在應用人工智能技術時保護公民自由、隱私和美國價值觀,為美國人民充分發揮人工智能技術的潛力。
中國:發展負責任的人工智能
中國對人工智能技術的治理問題亦頗為重視。2019年2月,中國科技部牽頭組建了中國國家新一代人工智能治理專業委員會,6月該委員會發布新一代人工智能治理原則——發展負責任的人工智能》(以下簡稱《治理原則》),強調發展負責任的人工智能。工信部在2017年頒佈的《促進新一代人工智能產業健康發展三年行動計劃(2018-2020)》也對治理提出要求。
《治理原則》提到,近年來,人工智能迅速發展,正在深刻改變人類社會生活、改變世界。為促進新一代人工智能健康發展,加強人工智能法律、倫理、社會問題研究,積極推動人工智能全球治理,新一代人工智能發展規劃推進辦公室成立了國家新一代人工智能治理專業委員會。
《治理原則》突出了發展負責任的人工智能這一主題,強調了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理等八條原則。
其中,“公平公正”原則要求人工智能發展應促進公平公正,保障利益相關者的權益,促進機會均等。通過持續提高技術水平、改善管理方式,在數據獲取、算法設計、技術開發、產品研發和應用過程中消除偏見和歧視。
“尊重隱私”原則要求人工智能發展應尊重和保護個人隱私,充分保障個人的知情權和選擇權。在個人信息的收集、存儲、處理、使用等各環節應設置邊界,建立規範。完善個人數據授權撤銷機制,反對任何竊取、篡改、泄露和其他非法收集利用個人信息的行為。
“安全可控”原則要求人工智能系統應不斷提升透明性、可解釋性、可靠性、可控性,逐步實現可審核、可監督、可追溯、可信賴。高度關注人工智能系統的安全,提高人工智能魯棒性及抗干擾性,形成人工智能安全評估和管控能力。
“共擔責任”原則要求人工智能研發者、使用者及其他相關方應具有高度的社會責任感和自律意識,嚴格遵守法律法規、倫理道德和標準規範。建立人工智能問責機制,明確研發者、使用者和受用者等的責任。人工智能應用過程中應確保人類知情權,告知可能產生的風險和影響。防範利用人工智能進行非法活動。
(本文來自澎湃新聞,更多原創資訊請下載“澎湃新聞”APP)
責任編輯:李躍羣
校對:劉威
澎湃新聞報料:4009-20-4009   澎湃新聞,未經授權不得轉載
關鍵詞 >> 人工智能,隱私

相關推薦

評論()

熱新聞

澎湃新聞APP下載

客户端下載

熱話題

關於澎湃 在澎湃工作 聯繫我們 廣告及合作 版權聲明 隱私政策 友情鏈接 澎湃新聞舉報受理和處置辦法 嚴正聲明