對話中科院曾毅:AI 不應無所不在,需要將一定空間留給人類自己

來源:澎湃新聞

記者:周頔

“當下中國最應該關心的問題是什麼?當中國產生了類似(ChatGPT)的技術,要不要向全球開放?我們現在應該達成這樣的共識——中國的技術永遠不對任何一個國家封鎖。我覺得至少我代表中國科研人員可以作出這個承諾。”

3月25日,在中國發展高層論壇2023年年會上,中國科學院自動化研究所人工智能倫理與治理中心主任曾毅如是說。

談及“脫鉤斷鏈”和技術封鎖對我國人工智能發展可能帶來的影響,曾毅表示,確實存在這樣的風險,所以類人工智能生成等技術必須要有中國自己的替代版本。

“中國沒有失去機會,失去機會的是禁止中國使用技術的企業。”曾毅表示,“中國人工智能生成技術、類ChatGPT的技術,大家很快就可以看到。我不能講是水平相當的替代產品,但是它足以達到基本可用的程度。”

會後,曾毅接受了澎湃新聞記者的採訪,就AI勞動替代、人工智能數字鴻溝、人工智能倫理與算法黑箱等問題進行了探討。

澎湃新聞:隨着人工智能技術發展,很多人擔心工作崗位或可能被AI替代。關於勞動力崗位替代的速度和規模,當前各方有不同的預測,對此您怎麼看?AI會快速替代人類勞動者么?

曾毅:我想從兩個層面回答您的問題。

一方面,在未來我們可能需要重新定義什麼是“工作”。長期以來,撫養子女、照顧老人,以及很多社會服務並不被人們稱為工作。但布魯金斯學會的一項研究表明,或許未來在家當全職媽媽照看子女,照顧年邁老人等可以被稱為“工作”,甚至社會應該支付薪酬。

當前,很多人認為需要通過工作的意義和價值來定義自己,然而我認為恰恰應該是情感付出、情感交互才是人類真正難以被替代的,當“工作”被重新定義,一個人對於社會的價值,對於周圍人的價值也會被重新定義。

另一方面,我並不同意那些“某年某項工作會被替代”的預測。從我目前的觀察來看,任何一項工作都有人不可替代的部分。儘管當前人工智能也可以從事新聞寫作,但相比於專業的人類記者,它缺少對真實世界的理解和價值觀,所以讀者必然會更傾向於人類作者。所以,面對所謂的AI崗位替代,我們要思考的就是自己對工作有哪些獨特的、不可替代的貢獻。

澎湃新聞:今天上午蘋果公司CEO庫克談道,他認為編程或應成為今後人們生存發展的必備能力。如果不掌握編程能力,或將加速與社會脫節。未來AI編程會產生新的數字鴻溝么?這是否會加劇社會的不平等?

曾毅:編程是教人如何像計算機一樣思考,可以培養並提升人的思維能力。大概在2006年左右,美國就提出了計算思維的概念,並籍此發展出了很多課程。但我並不認同未來編程要成為人所必須的技能,整個社會中人工智能也不應該無處不在。

在為聯合國教科文組織編寫人工智能倫理的時候,我們就加入了一條“適度使用”原則:應該用人工智能的地方,留給人工智能,應該留給人類社會的地方就按照人類的方式去發展。

作家舒可文在《城裡:關於城市夢想的敘述》中指出,城市的發展,一半是野蠻生長,一半是規劃,這才叫做城市。人工智能與人類也一樣,也需要將一定空間留給人類自己。

澎湃新聞:人工智能與人類的邊界該怎麼劃定?又該怎麼設定人工智能不能逾越的紅線?

曾毅:當前很多工程技術人員對人文社科和倫理規範還缺乏理解,這可能會造成很大的風險。比如一個技術研究者將某項未經倫理論證的先進技術上線,技術在應用中或可能會造成負面影響,甚至給社會造成重大損失,這時候再發現補救,很多損失可能已經不能挽回。

當前我們的人工智能技術發展還處於初步階段,能夠寫入教科書的確定性結論還不多,還需要更多的研究和探索。

此外,我認為一定要針對理工科領域開設人工智能相關的哲學課、倫理課、工程倫理課。包括人工智能學系、計算機科學系、工程計算系在內的專業應將這些課程設為必修課。未來,人工智能倫理道德不應該是一個分支的研究領域,而應該是所有人工智能從業者的第一課,倫理規範也應成為所有人工智能服務的基礎。

澎湃新聞:當前主流的人工智能採取遺傳算法、神經網絡等方式發展演進,但也存在“算法黑箱”的風險,您是否會擔心不可解釋的人工智能引發“黑天鵝”事件?是否有存在超預期風險的可能?

曾毅:我們不應該接受深度學習成為所有人工智能基座的這件事,因為它不可解釋。現在最應該做的是什麼?應該做科學應有突破的科研攻關,哪怕是從零開始,做可解釋的人工智能,並向著高智能、低能耗的方向延伸。

不能因為深度學習好用,可以解決現在的問題,當下也沒有更好的替代方案,就放棄了最初應該努力的方向。我希望,這些應該努力實現的基礎突破能更多誕生在中國。

然而現狀是,學術界和產業界對深度學習更感興趣,致力於將已經完成的99.9%再往下延伸。

我覺得,如果這些是產業追求短期利益不得不做的事情,那麼至少學術界不應該把這個精力花在這裡。

本文鏈接:https://www.8btc.com/article/6810910

轉載請註明文章出處

(0)
上一篇 2023-03-29 05:46
下一篇 2023-03-29 05:46

相关推荐