關於 AI,現在哪些方向太樂觀,哪些方向還可以更堅定一些?

原創丨人神共奮

來源丨思想鋼印

關於 AI,現在哪些方向太樂觀,哪些方向還可以更堅定一些?

圖片來源:由無界 AI工具生成

人工智能不只是 ChatGPT

ChatGPT 火了之後,有一個段子,說:我們過去想象的人工智能是,我們寫詩畫畫編音樂,AI 燒飯洗碗修電腦,沒想到,最後是 AI 寫詩畫畫編音樂,我們自己燒飯洗碗修電腦。

白領危機四伏,藍領暗自慶幸。

然而,ChatGPT 實際上只是人工智能歷史上的第一個爆款應用,又是以一對一對話形式展開,效果又超出了我們的心理預期,很容易讓我們產生一個“人工智能能說會道”的錯覺,進而讓我們覺得,它未來可以取代很多白領的工作。

其實,ChatGPT 底層的自然語言大模型 GPT,只是眾多人工智能大模型中率先“湧現”的一個,它更傾向於生成文本的能力,所以看起來都是寫寫文章,說說話,畫畫畫,但並不是說人工智能就只能幹這些,你總不能因為趙本山演小品,就以為東北人只會演小品吧?

所以說,哪有什麼“只取代白領的工作”這麼簡單的事啊,取代藍領工作的人工智能早晚也會來的。

關於 AI,現在哪些方向太樂觀,哪些方向還可以更堅定一些?

僅就自然語言大模型而言,最有名的有兩種方向,除了 GPT 模型外,還有 Google 的 BERT 模型,兩者的核心區別在於目標不同,GPT 更傾向於生成文本,而 BERT 模型更傾向於理解文本。

更不用說還有更多開發中的各種方向的人工智能模型。

本文將從 GPT 模型與 BERT 模型的區別出發,分析一系列相關的問題:

1、GPT 模型與 BERT 模型的區別、各種擅長的領域和未來可能適用的場景

2、為什麼突破率先出現在 GPT 模型上

3、AI 行情的投資策略、重點方向與風險

文科的 GPT 和全科的 BERT

說 GPT 更傾向於生成文本,而 BERT 模型更傾向於理解文本,這個區別可能人類無法理解,不理解文本怎麼生成文本呢?

但這個問題對 AI 來說,並不存在。

給一個形象的比喻,有一部勵志日本電影《墊底辣妹》,講一個年級倒數第一的差生通過一年內複習考入慶應大學(日本復旦交大這個級別)的真實故事,相當於在全國學生中的最後 2%,進步到前 2%。

這個神奇的故事之所以能實現,是因為她只要考“英語、小論文、歷史”這三門強調記憶的科目,她不需要很深的理解,只需要記憶和“生成”,注意重點是——不考數學、物理等注重推理的科目。

而 GPT 模型的成功,就像“墊底辣妹”一樣,很大程度在於選擇了一個“語言生成”為目標的捷徑,從而讓它看上去的效果比它實際上的突破更明顯——這一點跟現實中一樣,一個能說會道的員工,總是比只會幹實事的員工,看起來更能幹。

Transformer 模型有編碼器和解碼器兩部分,GPT 模型只使用編碼器部分,而 BERT 模型既包含編碼器部分,也包含解碼器部分,所以,通常認為,BERT 模型需要“理解”文本的內容,GPT 模型則不一定。BERT 雖然也是一個文科生,但也要學習數學、物理這一類注重推理的課程,全面發展。

兩者的區別在一開始訓練時就產生了,GPT 的訓練目標是通過最大化下一個單詞的條件概率來預測下一個單詞,從而完成生成任務;而 BERT 的訓練目標是隨機掩蓋一些輸入詞彙並要求模型預測這些詞彙,強迫模型預測缺失的單詞,因此產生了雙向性。

GPT 模型完成任務的方法就是“猜猜下一個概率最大的詞是什麼”,所以 ChatGPT 都是一個字一個字地蹦出來的,跟剛剛學會說話的小孩子一樣。

但 BERT 模型就不同了,它會考慮每一個單詞與前後文的關係,如果未來能成功訓練出來(注意這個前提),所有的文字應該是一起出來,它會把所有的話想好了,再一口氣輸出。

很明顯,BERT 模型的訓練要求更高,實現難度更大,這就是為什麼 Google 在人工智能的研究方面此前一直遙遙領先,會忽然間被積累不如它的微軟超越。

雖然大家已經覺得 GPT 很神奇了,但如果真的大規模投入應用,在那些非生成內容為主的應用上,它還是有缺陷的。

比如你對 AI 助理說:“幫我在陸家嘴附近訂一個粵菜餐館,人均消費在 500 元左右,時間是明天晚上。”

對於這個句子,GPT 模型的“理解”是從過去的語料訓練中,判斷“陸家嘴、粵菜、明天晚上、人均消費、500 元”這些詞的組合而不是詞本身的意義,由此來判斷自己應該輸出什麼樣的內容,它對於語言的最小理解單位是句子,而不是詞彙,會導致“模型產生幻覺,編造訓練中從未有過的數據”。所以我們有時看到 GPT 推薦必勝客等成都小吃的離譜結果,因為它並不理解“必勝客”的屬性,它還會把數學計算中的 1995 當成年代。

雖然 GPT4 中,這些現象已經大大減少,但由於底層邏輯仍然是一個“文科生”,未來很難說在遇到更複雜的問題時,會不會出錯,很可能最後給你預訂了一個經常與粵菜館一起出現的咖啡館。

而 BERT 模型的最小理解單位就可以到詞彙級別,主要是因為模型在訓練中,強化了對實名詞彙的判斷,即槽位填充(Slot Filling)。槽位表示文本中的特定信息或實體,例如日期、時間、地點、人名等,這些都是理解一段話的關鍵信息,需要從文本中識別並填充預定義的槽位或信息。

關於 AI,現在哪些方向太樂觀,哪些方向還可以更堅定一些?

通過訓練,它首先可以從這些詞彙的屬性,來判斷句子的類型是美食類,還是體育、政治、科技、娛樂(文本分類並不是 GPT 的訓練項),經過此項訓練,BERT 模型可以理解到詞彙這個級別,可以判斷“陸家嘴、粵菜、明天晚上、人均消費、500 元”這些詞的意義,從而給出更準確的推薦,以及下一步預訂的動作,而 GPT 的理解就不一定準確了。

由此看來,GPT 模式不會是終點,AI 代替人類的工作,文本類只是一個“開胃菜”。

可能有人會想,為什麼 Google 不先做一個相對容易的文本生成模型,而要先做一個更難的呢?

模型的未來應用

原因很簡單,BERT 模型未來的用途可能更廣闊。

GPT 模型就像文科畢業生,由於其在生成文本方面的強大能力,畢業后最大的“就業去向”是自動生成文章類的“工作”、包括新聞、廣告文案、創意內容、法律文書、文秘、各類諮詢,等等;其次的“就業去向”是作為聊天機器人、虛擬助手、智能客服,等等,進行更加自然、流利的對話。

而 BERT 模型並不會局限在“文科領域”,它可以憑藉自己執行文本分類、命名實體識別、關係抽取等任務的能力,有更廣泛的用途,比如可以用於幫助搜索引擎更準確地理解用戶查詢意圖,從而提供更精準的搜索結果——這就是 Google 和百度一直在重點開發這個方向的原因。

更重要的是,BERT 模型可以從非結構化的日常語言數據中,抽取結構化數據,就是我們前面說的訂餐館的例子,小到要求助理召集一場特定人員參加的有特定目的的會議,大到智能駕駛——

我問過 ChatGPT 一個問題:“你覺得智能駕駛更有可能通過哪一個模型實現?”

它很坦誠地承認,BERT 模型可能更適合在複雜的駕駛場景中進行深度理解和決策,理由是:

“在智能駕駛中,理解交通標誌、識別道路標線、理解交叉口的交通信號等,都需要對文本信息進行深入的理解和推斷。BERT 模型作為一種能夠對文本信息進行深度理解的模型,可能在智能駕駛中具有更廣泛的應用潛力。”

然而,雙向語言模型訓練難度太大了,ChatGPT 之前的 BERT 是雙向模型,但效果一般,導致眾多企業在這方面的投入更猶豫,轉機出現在 OpenAI 將 GPT 變成單向語言模型后,持續投入出現了 GPT-3.5 的質的突破,實現人工智能從猿到人的關鍵進化。

而且,未來即使 BERT 這一類雙向語言模型也實現了“湧現”,因為它的計算複雜度較高,算力成本也就更高,很可能從成本上限制了它的使用場景。

所以未來不會有大一統的模型,可能會是各種模型的融合,在實際應用中需要根據任務需求和計算資源進行選擇,以充分發揮各自的優勢。

例如,一個智能客服對話系統,其工作內容可以分成兩類,一類是諮詢,只需要簡單判斷客戶的意圖,主要任務是生成內容,客戶也沒有很高的精度要求,用 GPT 這一類單向模型就夠了;

另一類客戶溝通類工作,比如消費者要求退換貨、賠償、投訴等涉及複雜判斷和反覆溝通的需求,對理解能力要求很高,還要判斷客戶提供信息的真實性,甚至需要 AI 判斷客戶此時的情感類型和程度,就需要用 BERT 模型進行意圖識別和槽位填充,從而實現更加智能、靈活的對話交互。

對比了 GPT 和 BERT 的區別,可以看出,GPT 並不像大家想象的那麼萬能,它的訓練目標中,對判斷推理的要求沒有文本生成高,下游應用可能並不會那麼多。

那麼,這個題材現在是不是有點炒作過了呢?會不會像 21 年的元宇宙一樣雷聲大雨點小呢?

AI 行情的投資策略

答案是“不會”,GPT 模型的意義不在於“找到東方的黃金”,而是“發現新航線”。

人工智能的理論突破,基於 Transformer 架構的自然語言處理模型,實際上是發生在前幾年,只是之前沒有人能實現它,所以並不確定它行不行,加上費用都是以億為單位,就算是巨頭,在投入上都比較小心。

所以 ChatGPT 的重要意義在於形成了一個行業共識——只要基於海量的數據去喂這個模型,時間到了,就能“大力出奇迹”,最終實現超大神經網絡能力的湧現。

國內的 AI 大模型長期發展緩慢,但 ChatGPT 問世后,短短几個月一下子冒出了多個能力相當於 GPT-3 的大模型,並不是這些巨頭在蹭熱點,而是新航線被確認了,必然會有多支“艦隊”出發,之後也必然會出現更多的不同於 GPT 的“新航線”。

關於 AI,現在哪些方向太樂觀,哪些方向還可以更堅定一些?

當然,越是星辰大海級別的投資機會,越需要合理的投資策略。

以應用方向為例,對應的行業都是傳媒影視遊戲、各種互聯網應用和軟件,這一類行業之前因為商業模式的缺陷,估值普遍不高,所以 AI 應用行情的核心邏輯是用 AI 改造傳統的商業模式,出現業績與估值的戴維斯雙擊。

但行情是一波波走出來的,這一類產業大趨勢的行情通常包括三個階段:

第一階段:位置驅動和故事驅動

第二階段:邏輯驅動和業務驅動

第三階段:業績驅動和商業模式驅動

第一階段的核心原因是“估值低、機構持倉低、預期低”的“三低”,以 AI 應用為名義的估值修復行情。既然是估值修復,那就是“邏輯第三、故事第二、位置第一”,大部分公司不分好壞,只要有訴求,都能上漲。

可一旦估值修復完成,第一批信仰者已經滿倉,其他人還在觀望,市場冷靜下來,行情就要進入到邏輯驅動和業務驅動的第二階段。

這個階段,AI 應用標的的投資方向,主要考慮業務是否成立,要考慮 AI 使用成本與客戶需求的匹配度,儘可能優先考慮 GPT3.5 和 4 非常擅長的功能,其次是支持的功能,對年底可能推出的多模態的 GPT5,還是要多一份謹慎。

我前面分析了一堆 GPT 模型的特點,正是為了從這個特點出發,分析現有的投資炒作邏輯中,哪些邏輯後面可能被證實,哪些邏輯可能被證偽。

AI 應用重點投資方向

一、文字輸出、圖像輸出類應用仍然是最需要關注的方向

人工智能首先在語言和圖像輸出方面實現質的飛躍,等於方向已經指明,這將鼓勵各大平台加大在此方向上的投入。

首先是辦公應用,其次是遊戲,再次是部分偏內容服務的廣告營銷、諮詢服務和法律服務等企業培訓服務,以及少數影視傳媒。

變好的不但有業務,還有商業模式。內容生成行業的成本項,從沒有規模效應、難以控制的人,變成有規模效應、控制性很好的 AI,市值空間變大,理應獲得更高的估值。

但這裡需要區別內容生成和創意生成,前者是指大量重複的、受眾低要求的創作,後者是少數內容精英的創作成果,觀眾要求高。以影視為例,僅依賴廣告、觀眾 不太挑剔的免費電視劇更偏向於前者,而電影、付費精品劇更偏向於後者。

AI 對創意生成的替代作用非常小,創意行業的商業模式不會因此改變,仍然是沒有什麼投資價值的行業。

二、側重於推理判斷和有後續動作的應用,要具體應用具體分析

前面我以客服機器人為例,分析了客服中兩種不同需求對 AI 的挑戰不同,客戶的預期不同,最終導致 AI 的效果與付費意願也就不同,所以,需求中側重於推理判斷和有後續動作的應用,要具體應用具體分析,總體上有幾個原則:

1、需求有明確結果,但對結果要求高的應用要謹慎,比如 AI 智能駕駛和 AI 輔助診斷,有人認為 AI 只是輔助診斷,但他們一定忘了魏則西的悲劇,AI 診斷的暗示性遠遠強於搜索結果;

2、可以直接低成本帶來新客戶的(遊戲、圖片創作、法律心理管理等諮詢服務、部分黑產),最佳;可以提高付費意願和單價的(辦公應用),其次;只能省成本或只能改善用戶體驗的(企業文書、網文創作、藥物研發),再次;價值感不明確導致付費比較猶豫的(目前大部分),最差;

3、效果可能一般,但非常剛需或者價值感很強(比如金融、教育);付費方與使用方分離的(禮品類硬件應用);

4、入口強制使用的(國民級 App、留存社交關係的 App、手機電視電腦智能音箱等);

5、目前大量被炒作的應用方向(訂餐、旅遊、購物),大多雖理論上可以提升用戶體驗,但並不能帶來明確的核心價值,或者不解決用戶痛點,而且結果也並不一定準確。這一類應用,可能用了很高的成本只創造了少量新需求和新收費,最終得不償失。

三、正確的方向和模糊的個股

雖然像遊戲、辦公、金融、教育,都是前期炒得比較多的方向,但這些方向都非常確定,需要有一級市場的前瞻性思維,並不需要看到業績的落地。最怕的是一開始不信,看到業績落地后又相信了,業績落地、確定性很高時,估值可能已經非常離譜了。

也不要因為用過之後體驗不好,就覺得這個項目不行,只要方向正確,人工智能的進化速度遠遠超過人類的想象。

最大的風險是方向確定,但標的不確定,最好的辦法就是打包買,看好辦公,就多找幾個方向的相關標的,主做中國市場的,覆蓋全球市場的,A 股的、美港股的,通通打包買。

大模型的商業價值存疑

從 ChatGPT 的輸出內容看,它有明顯的意識形態,這是在訓練中有目的輸入的,這肯定會給各國政府一個啟發——利用人工智能訓練進行全民價值觀的灌輸或潛移默化。

至少在我國,大語言模型將兼具“宣傳陣地”(推理)和“教育陣地”(訓練)的作用,未來主要方向不是商業化,而是像現在的媒體和教育機構一樣被高度管控,以防止出現互聯網時代 BAT 那樣過於強勢的非官方控制的巨型平台。

所以大模型的商業價值有相當的不確定性。正在做大模型的公司,如果能先於監管“把孩子生下來”,算是安全上岸,日後無非是監管成本問題。難的是開發進度落後的,很可能最後胎死腹中,投資打水漂。

回到前面對 GPT 模型定位的分析,大語言模型必然將遇到這個問題,言語就像氧氣、水源、糧食一樣,商業化必然面對各種政治的、道德的挑戰,可能商業價值更大的,還是側重推理的非語言類大模型,以及在語言大模型基礎上訓練的專業模型。

關於 AI,現在哪些方向太樂觀,哪些方向還可以更堅定一些?

本文鏈接:https://www.8btc.com/article/6812812

轉載請註明文章出處

(0)
上一篇 2023-04-29 14:34
下一篇 2023-04-29 14:34

相关推荐