規範人工智能:倫理問題在自動駕駛領域最為突出

人工智能技術飛速發展,但由此引發的相關問題仍然突出和多發。9月25日,在“2021中關村論壇”上,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規範》(下稱《規範》)。《規範》提出了增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等六項基本倫理要求。

規範人工智能:倫理問題在自動駕駛領域最為突出

無獨有偶。9月28日,“2021年世界互聯網大會”舉行閉幕新聞發布會,會上提出要堅持科技倫理,打擊不法行為,人工智能發展要確保增進人類福祉,有效防範和打擊黑客等網絡不法行為,保護公平競爭和推動創新,消除數字鴻溝,讓數字文明造福全人類。

有關專家對《財經》E法表示,自動駕駛、算法推薦、金融及醫療人工智能等領域,是目前人工智能倫理問題的多發領域。

新規提18項具體倫理要求

《規範》提出,旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關活動的自然人、法人和其他相關機構等提供倫理指引。同時,增強全社會的人工智能倫理意識與行為自覺,積極引導負責任的人工智能研發與應用活動,促進人工智能健康發展。

《規範》指出,人工智能特定活動應遵守的倫理規範包括管理規範、研發規範、供應規範和使用規範等共18項具體要求。其中,管理規範包含推動敏捷治理、積極實踐示範、正確行權用權、加強風險防範、促進包容開放;研發規範包含強化自律意識、提升數據質量、增強安全透明、避免偏見歧視;供應規範包括尊重市場規則、加強質量管控、保障用戶權益、強化應急保障;使用規範包含提倡善意使用、避免誤用濫用、禁止違規惡用、及時主動反饋、提高使用能力。

加強風險防範方面,需要增強底線思維和風險意識,加強人工智能發展的潛在風險研判,及時開展系統的風險監測和評估,建立有效的風險預警機制,提升人工智能倫理風險管控和處置能力;保障用戶權益方面,在產品與服務中使用人工智能技術應明確告知用戶,應標識人工智能產品與服務的功能與局限,保障用戶知情、同意等權利。為用戶選擇使用或退出人工智能模式提供簡便易懂的解決方案,不得為用戶平等使用人工智能設置障礙。

上海交通大學網絡信息中心副主任姜開達表示,人工智能技術以數據、算法為驅動,發展速度確實迅猛,已經深刻改變了人類的社會生產和生活模式。但人工智能技術的濫用也衝擊法律與社會倫理、涉嫌侵犯個人隱私。所以,既要大力發展人工智能,又要高度重視風險和挑戰,科學處理好發展和安全的關係。通過出台法律法規、倫理規範以及行業自治,降低負面影響,促進人工智能的健康和可持續發展。

事實上,針對人工智能倫理問題,歐盟、美國此前已頒布類似規範。

2019年4月8日,歐盟委員會發布人工智能倫理準則。該準則由歐盟人工智能高級別專家組起草,列出了“可信賴人工智能”的七個關鍵條件——人的能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉、問責機制,以確保人工智能足夠安全可靠。歐盟將“人工智能”定義為“顯示智能行為的系統”,它可以分析環境,并行使一定的自主權來執行任務。

2019年10月,美國國防創新委員會發布了一份關於人工智能倫理原則的報告,這份報告名為《人工智能原則:國防部人工智能應用倫理的若干建議》,提出“負責、公平、可追蹤、可靠、可控”五大原則。

自動駕駛領域問題最突出

人工智能倫理問題討論最多的領域當屬自動駕駛。2018年3月18日晚,在美國亞利桑那州坦佩市(Tempe),一位名叫伊萊恩·赫茲伯格(Elaine Herzberg)的行人被一輛正在測試的自動駕駛汽車撞倒,因傷勢過重而不幸身亡。肇事的車內當時有一名駕駛人,但車輛由一個完全的自駕系統(人工智能)所控制。此事件成為全球首例自動駕駛汽車撞死人案,事發后引發了全球各地公眾對人工智能中倫理、道德和法律問題的思考。屢被提及的問題是:究竟該由誰對這一不幸事件負責,是這輛自動駕駛汽車公司的測試部門,還是人工智能系統的設計者,甚至是機載傳感設備的製造商?

9月13日,上海交通大學開學第一天,“人工智能思維與倫理”課程在閔行校區開講。該校凱原法學院教授鄭戈的授課內容圍繞自動駕駛中的倫理問題及與現行法律的銜接展開。鄭戈在“理性的人工智能”專題中提出,自動駕駛系統如何盡到注意義務?注意義務是一個重要的法律概念,法律上的過失就是指違反注意義務。自動駕駛達到L3、L4級別後(美國汽車工程師學會(SAE)提出,自動駕駛的L3級別為“有條件自動化”,L4級別為“高度自動化”),如果發生交通事故,該由誰承擔違反注意義務的責任?

“《道路交通安全法(修訂建議稿)》已引入自動駕駛系統開發單位的責任,但這個問題其實很複雜。自動駕駛系統是一個由感知、定位、決策和控制模塊組成的複雜系統,每個模塊都有開發者。發生事故后,5G網絡服務供應商有沒有責任?高精地圖供應商有沒有責任?這些單位的法律責任界定問題,需要進一步研究。”鄭戈希望通過對這個問題的講解,讓學生認識到,今後開發自動駕駛系統的各個模塊時要盡到注意義務,從而使整個系統成為“理性的人工智能”。

除了自動駕駛領域的問題,多位人工智能研究學者向《財經》E法介紹了人工智能倫理問題在其他領域的情況,主要可以歸納為:以算法為驅動的精準營銷、內容推送領域,以及金融領域的智能風控、醫療人工智能等領域。

在算法驅動的精準營銷領域,網絡經營者通過收集並處理用戶網絡行為所形成的數據,繪製成數據化的人格圖像,並以此為依據進行精準的廣告投放。這樣能夠讓經營者通過高效投放廣告獲得更高的營銷收益比。但與此同時,“大數據殺熟”的問題屢被提及。

此外,用戶的性別、年齡、地點、興趣愛好、瀏覽行為、個人移動軌跡、手機型號、網絡狀況等信息,都是平台常規收集的內容。這可能會導致推薦系統過度收集用戶個人數據,甚至在用戶完全不知情的情況下跟蹤和識別用戶。

內容推送領域的問題如出一轍。定向推送以用戶的喜好為主要標準,確實能為用戶精準推送他喜歡的內容。但這也會出現由於用戶頻繁點擊其所喜歡的內容,推薦系統便如同收到指令一般,為其源源不斷地推送相似的內容,會導致限制用戶接受其他新領域的信息,出現“信息繭房”。

在金融領域的智能風控領域,金融領域數據與用戶的個人信用直接相關,金融機構在收集用戶的海量數據(如年齡、收入、職業、學歷、資產等)時,既要保證數據的安全性,即數據不被泄露、竊取或篡改,又要保證數據的準確性。現有的金融數據收集處理體系尚不完備、過程尚不夠透明,用戶的個人信用數據可能在用戶不知曉的情況下發生負面變化;算法的缺陷,還容易引發大範圍的歧視問題。

在醫療人工智能領域,人工智能在醫療場景下主要被應用於診斷、治療和研究等領域。在這個過程中,可能出現算法安全和準確性問題,損害患者的身體健康;人工智能提供的醫療診斷方案源於算法,而算法存在的不可解釋性與作為病人基本權利的知情權可能產生衝突。

資深人工智能專家、《計算廣告》作者劉鵬對《財經》E法表示,雖然中國出台了人工智能倫理規範,但人工智能倫理問題依然複雜,面臨的挑戰還很多。從緊迫性角度來看,自動駕駛領域問題擺在首位,因為它與安全性密切相關。

自動駕駛技術升級完善的過程中,同樣包含智能性與安全性的博弈,也包含複雜的倫理問題。劉鵬表示,目前智能汽車廠商傾向於把測試的環節儘可能縮短,讓車的新功能先推向用戶,在實際使用中去打磨和優化,並解決遇到的各種問題。但這種做法可能會讓車主、行人等承擔一定風險,在倫理上是值得商榷的。

文/張劍

編輯/魯偉

(0)
上一篇 2021-09-30 19:56
下一篇 2021-09-30 19:56

相关推荐