歧視、造假、思維控制:人工智能在道德面前急踩剎車

北京時間9月9日上午消息,據報道,去年9月,谷歌的雲計算部門考慮使用人工智能幫助一家金融公司決定向誰借錢。經過數周的內部討論后,他們拒絕了客戶的提議,認為該項目在道德上過於冒險,因為人工智能技術可能會在種族和性別等因素上延續偏見。

自去年年初以來,由於擔心對文化因素不夠敏感,谷歌還放棄了分析情感的新型人工智能功能,微軟也限制了模仿聲音的軟件,IBM則拒絕了客戶對高級面部識別系統的請求。

根據對這三大美國科技巨頭人工智能倫理負責人的採訪,所有這些技術都是公司的高管小組或其他領導人親手干預的。

這是媒體首次披露他們針對這些技術行使的否決權和審議過程,這也反映出整個行業湧現出一股新生力量,可以在追求利潤豐厚的人工智能系統與加大社會責任考量之間達成平衡。

“有機會,也有傷害,我們的工作是最大限度地增加機會,並最大限度地減少傷害。” 特雷西·皮佐·弗雷 (Tracy Pizzo Frey)說,他是谷歌雲的兩個道德委員會成員,還是谷歌人工智能社會責任負責人。

但判斷起來並非易事。

例如,微軟的首席人工智能責任官娜塔莎·克蘭普頓(Natasha Crampton)表示,微軟的語音模仿技術可以讓聾啞人重新“發聲”,但同時也會加大政治深度造假等風險,因此必須在二者之間找到平衡點。

激進人士表示,可能對社會產生廣泛影響的決定不應單獨在企業內部決定。他們認為,道德委員會不可能做到真正獨立,他們的公開透明度受到競爭壓力的限制。

歐洲公民自由聯盟的宣傳負責人賈斯查·加拉斯基(Jascha Galaski)認為外部監督是未來的趨勢,美國和歐洲政府確實正在為這個剛剛起步的領域制定規則。

如果企業的人工智能倫理委員會“真的變得獨立透明——這都是非常烏托邦主義的——那可能好於任何其他解決方案,但我認為這不現實。”加拉斯基說。

兩家公司表示,他們歡迎對人工智能的使用方式進行明確監管,這對於客戶和公眾的信心都至關重要。從這一點來講,這與汽車安全規則類似。他們說,在具體行事過程中充分考慮各種責任,也符合他們的經濟利益。

然而,他們希望任何規則都能足夠靈活,從而跟上創新步伐及其造成的最新困境。

IBM表示,該公司的人工智能倫理委員會正在考慮許多複雜問題,包括如何監管一個新興領域:將計算機與大腦相連的植入物和可穿戴設備。

IBM首席隱私官克里斯蒂娜·蒙哥馬利(Christina Montgomery)表示,這種神經技術可以幫助殘疾人控制身體運動,但也存在許多隱憂,例如黑客有可能藉此操縱人的思想。

TN Christine Montgomery 2.jpg

情緒識別

科技公司承認,就在5年前,當他們剛剛推出聊天機器人和照片標記等人工智能服務時,幾乎沒有任何道德保障,只能通過後續更新解決濫用問題或有偏見的結果。

但隨着人工智能因為失敗而面臨越來越多的政治和公眾審查,微軟(2017年)、谷歌(2018年)和IBM(2018年)相繼分成立了道德委員會,從一開始就新服務進行審查。

谷歌表示,去年9月,當一家金融服務公司認為人工智能比其他方法更適合評估人們的信用時,它便陷入了“放貸困境”。

該項目似乎非常適合谷歌雲,谷歌的人工智能技術有助於檢測異常交易,因而吸引了德意志銀行、滙豐銀行和紐約梅隆銀行等客戶。

谷歌雲預計基於人工智能的信用評分可能會成為一個每年價值數十億美元的市場,他們希望在其中站穩腳跟。

然而,皮佐·弗雷透露,該部門的道德委員會由大約20名負責審查潛在交易的經理、社會科學家和工程師組成,他們在去年10月的會議上一致投票反對該項目。

該委員會總結道,人工智能系統需要從過去的數據和模式中學習,因此有可能模仿世界各地對有色人種和其他邊緣群體的歧視性做法。

更重要的是,在內部被稱作“檸檬水”(Lemonaid)的委員會制定了一項政策,規定在此類問題得到解決之前,放棄所有與信譽相關的金融服務交易。

“檸檬水”過去一年駁回了三項類似的提議,其中包括一家信用卡公司和一家商業貸款機構,而皮佐·弗雷和負責銷售的同事一直渴望就這個問題制定更廣泛的規定。

谷歌還表示,該公司的雲計算業務還有第二個名為“冰茶”(Ice Tea)倫理委員會,他們今年正在審查2015年發布的一項服務,將人們的照片按喜悅、悲傷、憤怒和驚訝四種表情分類。

在此之前,谷歌總公司的道德委員會,即高級技術審查委員會(ATRC)剛剛作出裁決,禁止推出與識別情感有關的新服務。

谷歌責任創新團隊的創始人兼負責人珍·吉耐(Jen Gennai)表示,由十多位高管和工程師組成的ATRC明確認定,推斷情緒的技術不夠敏感,其中一個原因是,在不同文化中,面部線索與具體感受存在着不同的關聯。

吉耐和皮佐·弗雷表示,“冰茶”已經封殺了雲工具的對13種情緒判斷,包括尷尬和滿足,並且可能很快會完全放棄這項服務,轉而採用一種新系統,屆時只會對皺眉和微笑等動作進行描述,而不加以解讀。

聲音和面孔

與此同時,微軟人工智能高管克蘭普頓表示,微軟開發的軟件可以利用一個簡短的樣本重現某人的聲音,但該公司的敏感用法委員會花了兩年多時間,針對與此有關的道德問題進行辯論,並諮詢了公司總裁布拉德·史密斯(Brad Smith)。

她說,該委員會包含人權、數據科學和工程等領域的專家,他們最終為Custom Neural Voice今年2月全面發布開了綠燈。但對它的其使用設置了限制,包括確認受試者的同意聲明,並且根據公司的相關政策培訓了一個“負責任的人工智能冠軍”(Responsible AI Champs)團隊。

IBM的人工智能委員會大約包含20 名部門領導,在新冠疫情初期,當客戶要求定製面部識別技術,以識別發燒情況和面部遮蓋物時,他們陷入了困境。

該委員會聯席主席蒙哥馬利表示,他們拒絕了這個要求,認定人工檢查足以減少對隱私的侵犯,因為照片不會被保留到任何人工智能數據庫中。

6個月後,IBM宣布停止提供面部識別服務。

壯志未酬

為了保護隱私和其他自由,歐盟和美國的立法者希望加大對人工智能系統的控制。

歐盟的人工智能法案有望於明年通過,該法案將禁止在公共場所進行實時人臉識別,並要求科技公司審查高風險應用,例如用於招聘、信用評分和執法的應用。

美國國會議員比爾·福斯特(Bill Foster)曾就算法如何加劇金融服務和住房領域的歧視舉行聽證會,他表示,針對人工智能出台新的法律將為供應商營造一個公平的市場。

“當你要求一家公司為了社會利益減少利潤時,他們會說,‘我們的股東怎麼辦?怎麼不處罰競爭對手?’所以才需要細緻的監管,”這位來自伊利諾伊州的民主黨人說。

“可能有些領域非常敏感,你會看到科技公司有意不去涉足,直到有明確的規則出現。”

事實上,一些人工智能的進步可能會被擱置,直到企業能在不投入大量工程資源的情況下應對道德風險。

在谷歌雲去年10月拒絕為金融公司定製人工智能服務后,“檸檬水”委員會告訴銷售團隊,該部門的目標是有朝一日能開發與信貸相關的應用程序。

谷歌雲在發給員工的政策中表示,首先,必須通過研究來打擊不公平的偏見,以此匹配谷歌雲通過“高度敏感”的技術提高金融包容性的雄心壯志。

“在那之前,我們無法部署解決方案。”

(0)
上一篇 2021-09-09 10:39
下一篇 2021-09-09 10:39

相关推荐