• 
    
  • <em id="dhntg"><object id="dhntg"></object></em>

    <ol id="dhntg"><ruby id="dhntg"><input id="dhntg"></input></ruby></ol>

    <th id="dhntg"></th>

    數字經濟將向何處去

    陳永偉2024-02-05 19:53

    陳永偉/文

    2024年的第一個月已悄然而去,再過幾天,農歷新年也將到來。人們通常會在這辭舊迎新的時刻對過去進行一番總結,同時對未來進行一番展望。作為一名研究數字經濟的專欄作家,我也難以免俗,因此就用這一期的篇幅,和各位讀者聊一下未來幾年中的數字經濟會有哪些發展趨勢。

    坦白來講,對數字經濟的發展趨勢進行展望并不是一件容易的事情。這主要是因為數字技術的發展十分迅速,圍繞著這些技術展開的商業模式更是層出不窮,這就導致了這個領域內的新名詞像走馬燈一樣變換不停。比如,在過去幾年中,區塊鏈、數字貨幣、元宇宙等概念都曾被新聞熱捧,還被寄予改變世界的厚望,但事實則證明,它們所引發的變革離人們先前的期望都存在著一段不小的距離。類似現象的產生,一部分固然可以歸因于一些過度炒作,但更為重要的原因則是人們在預測未來時忽略了這些技術的屬性。

    按照性質,技術可以分為“專用目的技術”(SpecificPurposeTechnologies,簡稱SPTs)和“通用目的技術”(GeneralPurposeTechnologies,簡稱GPTs)。其中,前一類技術通常只能應用于某個特定的領域,后一類技術則可以被廣泛應用到眾多不同的領域。也因為這個原因,從對經濟和社會的影響看,GPTs的影響更為廣泛和深遠。GPTs不僅可以被直接應用到各個領域,從而對這些領域產生賦能,還可能激發起這些領域的創新聯動,從而推進技術的持續演進。

    經濟史學家李普賽(RichardLipsey)、卡洛(KennethCarlaw)和貝克爾(CliffordBeker)曾在他們合著的《經濟轉型:通用目的技術和長期經濟增長》(E-conomicTransformations:GeneralPurposeTechnologiesandLongTerm EconomicGrowth)中對技術發展史進行了詳細的梳理。他們認為,在整個人類歷史上,總共有24種技術可以被歸入GPTs的范疇,而所有的這些技術都在人類歷史上起到了重大的推動作用。比如,其中的蒸汽機啟動了第一次工業革命,內燃機和電氣化等技術則是第二次工業革命的標志,而現在蓬勃發展的數字經濟則是建立在計算機和互聯網這兩種GPTs的基礎之上的。

    從這個角度看,假使我們能找到一類新的GPTs,就可以十分自信地斷定,它將會在未來的某一個時間點成為引領社會發展的“火車頭”。

    當然,如果是對較近的一段時間進行預測,那么僅僅找到GPTs是不夠的。這是因為,GPTs作用的發揮依賴于相關基礎設施的支撐,以及與具體業務部門的結合,而這一切是需要時間的。比如,電氣化技術從發明到廣泛應用,中間的間隔時間達到了三十多年。因此,如果我們要預言某項技術可能在較近的一段時間內顯現出廣泛而深遠的影響力,那么它除了需要具有GPTs的特征之外,其技術成熟度還需要達到一定的水平。如果我們用這兩個標準來衡量區塊鏈、元宇宙等明星技術,就會發現它們要么不是GPTs,要么就是成熟度依然處在較低水平。

    那么,在當下,究竟是否存在著一類被歸為GPTs,同時又具有較高成熟度的技術呢?答案是肯定的,那就是人工智能(ArtificialIntelligence,以下簡稱AI)。自“深度學習革命”以來,AI領域展現出了欣欣向榮的發展態勢。尤其是在以聊天機器人程序ChatGPT為代表的生成式AI橫空出世之后,AI領域的發展更是可以用日新月異來形容。

    不同于其他的明星技術,AI已經證明了它在不同領域都有著廣闊的應用前景。從這個意義上講,它已經具有了GPTs的特征。更為重要的是,在AI向人們顯示了其強大的應用潛力之后,就立刻引起了企業和投資者的注意,巨額的資金開始涌入這個領域。這使得AI無論是在相關基礎設施的構建,還是在和具體業務的結合方面,都做得比其他明星技術更為出色。其投入和產出之間的良性循環已基本實現,技術成熟度也達到了較高的水平?;谶@一點,我們有理由相信至少在未來的幾年內,整個數字經濟領域的故事將會圍繞著AI及其上下游展開。

    AI技術的發展展望

    在未來的幾年中,AI技術將會持續地發展。這種發展將表現在兩個方面:一是對現有AI模型缺陷的克服;二是向通用人工智能,即所謂的AGI(ArtificialGeneralIntelligence)持續邁進。

    (1)克服AI模型的缺陷

    目前,AI大模型已經達到了一個相當高的水平,其表現可以用驚艷來形容。但盡管如此,現有的大模型也還存在著很多缺陷,例如嚴重的幻覺問題、過大的規模、較低的可解釋性等。在未來的一段時間內,克服這些問題將會是相關企業的首要工作。(a)幻覺問題

    所謂“幻覺”(Hallucination),簡而言之,就是AI大模型“一本正經的胡說八道”。顯然,虛假信息不僅會對用戶造成嚴重的誤導,還可能給他們帶來很大的損失。比如,美國就有一位律師因在訴狀中錯引了ChatGPT編造的虛假案例,不僅輸掉了官司,還因藐視法庭而受到了處罰。

    從根本上看,這是由目前AI的根本原理導致的。眾所周知,目前的生成式AI在生成內容時依據的主要是概率原則。因此,不當的訓練數據、訓練方式都可能會引發“幻覺”。打個比方:如果一個高中數學老師在設計選擇題時,凡是出到關于三角函數的問題,都會將C項設定為正確的答案。那么,久而久之,他教的學生就會逐漸發現這個秘密,以后一遇到三角函數題,就直接選C了事。但很顯然,這是一種不恰當的關聯想象?;蛟S,這種答題策略針對這位老師依然是奏效的,但如果遇到了其他老師出的題,無條件選C就很難保證答題的正確性。類似的,在大模型中,AI是根據與上下文的關聯概率來選擇輸出結果的。因此,在某些場景之下,它就可能會輸出一些與上下文中的文字關聯度較高,但實際上風馬牛不相及的內容——就好像學生習慣了老師的出題風格后,看到三角函數就選C一樣。

    那么,有什么方法可以克制這種問題呢?其實,其思路是比較直接的,就是在訓練和應用模型時,要求AI知其然,并知其所以然。我們依然可以用解題作為類比。在一些教學質量比較高的學校,老師會要求學生在解題時,不僅要寫出答案,還要寫出完整的答題思路。那么無論學生是否熟知老師的出題思路,都會在解題時把每一個題的具體解答策略思考清楚。這樣,即使換了其他老師出題,他們也可以應對自如。

    將同樣的邏輯用到AI領域,就可以得到很多破解幻覺問題的方法。

    第一種方法來自于OpenAI。最近,它引入了一種基于步驟的監督學習方法來訓練模型。具體來說,這種方法摒棄了過去純粹以結果為導向的方式,改為以步驟來衡量模型性能。當模型進行了一步正確的推理之后,就可以獲得相應的得分。這樣,以得分最大化為目標的模型就會不斷對自身進行優化、調整,從而讓其性能更為優化。

    第二種方法是采用所謂的“檢索增強生成”(RetrievalAugmentedGeneration,簡稱RAG)。例如,斯坦福訓練的Wi-kiChat就采用了這一種思路。它要求模型在回答用戶的問題時,都要去維基百科查找、核對相關的內容。

    此外,谷歌也推出了一種解決思路。該公司與威斯康辛麥迪遜分校組建的聯合團隊推出了一款名為ASPIRE的系統。這款系統可以在大模型與用戶交互時要求模型給自己的回答打分。其邏輯就好像我們拿著一份答卷,讓答題的學生自己回答究竟是真的懂了還是亂答一氣的。如果模型感覺自己的回答有很強的依據,就會給自己打高分;反之,如果模型的回答并沒有足夠的依據,它就會給自己打低分。這樣,通過得分,用戶就可以對答案的可靠性做到心中有數,從而有效避免幻覺問題的影響。

    當然,無論以上的哪一種方案,都還沒能從根本上徹底解決幻覺問題。因此,可以預見在未來的一段時間內,對幻覺問題的應對依然會是各大AI企業和研究機構主攻的一個重點。

    (b)規模問題

    在很大程度上,大模型的成功是由龐大的參數量支撐的。以目前最為成功的大模型GPT為例:GPT-1的參數量不過1億左右,而到了GPT-3,其參數量已經達到了1750億。雖然OpenAI并沒有公布GPT-4的確切信息,但其參數量應該遠高于GPT-3。隨著參數的膨脹,GPT模型的性能也呈現出了指數級別的增長。尤其值得注意的是,對GPT模型而言,千億參數似乎是一個實現智力涌現的臨界點。GPT-3正是在突破了這個點后,才表現出了令人驚嘆的性能,從而讓此前名不見經傳的OpenAI一舉奠定了在業界的地位。在看到GPT的成功之后,各大企業紛紛將把模型做大作為了攻關的重點。在一番嚴重的內卷之下,參數量很快就從千億級膨脹到了萬億級,甚至十萬億級。

    從理論上講,更大的參數量應該可以為模型的性能帶來更為廣闊的空間。不過,更廣闊的空間和模型的實際表現并不總是一致的。模型的參數量如果太小,可能把握不住數據提供的信息,其性能固然會不好,但如果其參數過多,也完全沒有必要。不僅如此,當模型的參數過多時,還可能帶來很多負面問題:首先,在訓練它時,需要投入過高的算力資源,從而導致過高的成本;其次,在應用它時,則會有“大炮打蚊子”之嫌,不僅浪費資源,而且影響使用效果;再次,它還可能導致“過擬合”等問題,造成模型的外推效果欠佳。正是因為以上原因,所以很多AI開發企業在致力于大模型開發的同時,開始紛紛試圖通過剪枝、參數共享、知識蒸餾等方式對模型進行壓縮,從而實現大模型的小型化。

    現在,很多AI企業組建了小模型團隊,專門負責AI小模型的開發。其中,Meta在這個方向的行動似乎是最早的。早在去年2月,它就推出了LLaMA模型。和千億級別參數的GPT模型不同,LLaMA有幾個不同的版本,各版本的參數量從70億到630億不等。由于其完全開源,并且參數量相對較少,便于訓練,因此在推出之后,很快就成為了廣大開發者青睞的對象。在Meta之后,各企業也陸續推出了一系列小模型。比如,去年年底,微軟開源了一款名為Phi-2的自研小模型。根據報道,這款模型的參數僅27億,但它在常識推理、語言理解、數學和編碼等任務上的表現已經超過了許多參數遠大于它的模型。

    可以預見,在未來的一段時間內,模型的小型化也將是AI大模型發展的一個重要方向。(c)可解釋性問題

    所謂可解釋性,就是對模型算法的機制及運行過程進行理解的可能性?;蛘吒ㄋ椎卣f,就是人們要能知道AI模型到底在干什么。

    現在的AI大模型都是建立在深度學習的基礎之上的。不同于回歸、支持向量機等傳統的機器學習模型,深度學習算法在可解釋性上本身就存在著很大的短板。而在大模型的參數膨脹到了千億量級之后,要解釋模型就更是難上加難。在多數時候,人們只知道運用自己的模型可以實現某個功能,但它到底是怎么做到這一切的,卻無從得知。

    模型在可解釋性上的缺陷會帶來很多問題。一方面,它會限制人們對模型的改進。一般來說,人們如果要改進模型,就必須要明白現在的模型究竟有哪些不足。但如果模型是不可解釋的,那么這個前提就不能成立。另一方面,它還可能潛藏很多風險。如果模型對于人們來說完全是一個黑箱,那么即使它正在悄悄執行著一些可能對人們帶來潛在危害的任務,人們也很難及時發現并糾正?,F在,包括OpenAI在內的一些機構都在努力嘗試讓AI進行自主的學習和演化。在這樣的前提下,如果人們根本不知道模型自我演化的方向究竟是什么,那將會是十分危險的?;蛟S,在不經意之間,《終結者》中的“天網”就會悄然降臨。

    針對以上問題,不少AI企業將提升可解釋性作為重點研究方向?,F在,一個主流思路是“用魔法打敗魔法”,即用AI模型來對AI模型進行解釋。比如,Ope-nAI就曾嘗試用GPT-4來對AI模型進行解釋,并取得了一定的成果。盡管這些成果和人們的理想相比還存在著一定的距離,但其方向應該是正確的??梢韵胂?,在未來的一段時間內,眾多企業和研究機構應該會沿著這個方向,繼續對AI模型的可解釋性進行探索。

    (2)邁向AGI

    除了對現有AI大模型的缺陷進行改進,以完善基礎大模型的性能之外,積極對通用人工智能(ArtificialGener-alIntelligence,簡稱AGI)進行探索也將會是AI企業和研究機構的研究方向。AGI這個名詞最早出現于瑞典哲學家尼克·波斯特羅姆(NickBostrom)2003年的論文,指的是智能水平遠超過人類的AI。后來,人們對AGI的概念進行了界定,認為只有當AI在所有方面的能力都達到人類水平,甚至超過人類時,才可以被稱為AGI。

    需要指出的是,雖然AGI的提法出現的時間并不久,但創造一個智能高于人類的AI的設想從人工智能這個學科開始時就已經存在了。隨著GPT等大模型的出現,這個夢想似乎比過去任何時間更近了。根據OpenAI公布的論文,GPT在完成很多任務時,水平都已經接近或超過了人類。尤其是在完成某些考試時,其成績甚至高于人類。在加入了多模態能力之后,GPT更是補足了“視覺”、“聽力”等方面的能力,變得越來越像人了。

    那么,我們是不是可以說,現在的GPT,或者其他的什么模型已經是AGI了呢?答案是否定的。事實上,盡管現在的AI在很多領域的表現優于人類,但在另一些領域,它們的表現還遠不能和人相比。以學習為例,即使是一個幼兒,也可以通過少數的幾次學習,將動物與它的物種名對應起來。比如,給他看過了一只貓,下次在看到貓時,他就可以指出來——即使這只貓的品種和先前看到的有很多不同,甚至只是一只卡通貓,他也多半可以識別出來。然而,對于AI來說,要做到這一點,可能需要看數以萬計的貓的照片。

    為什么會這樣呢?這一方面源于人腦構造和AI模型之間的區別:比如,在人腦中,會有兩個不同的區域分別記錄一般信息和情景信息。人腦的這種構造使得人很容易在不同的情景之間進行切換和聯想,以非常低的學習成本進行知識的遷移。而現在的大模型則通常是根據抽象的物與物的關聯來進行學習的,因而它要學會一個事物,就需要通過海量數據的投入。另一方面,人與AI之間認識方式的差別也是導致兩者學習效率差別的重要原因。一般來說,人的學習過程是通過觀察,并在觀察的基礎上總結出因果關系,然后借由這個因果關系來理解事物。而現在AI的所謂學習過程則更多是借助于相關性,沒有考慮因果關系。這不僅會嚴重影響AI的學習效率,也會導致很多不必要的問題。

    針對以上問題,在未來幾年內,人們出于對AGI的追求,應當會努力去修補AI的上述缺陷,以拉近其與人腦之間的差距。具體來說,人們應該會繼續加強對人腦的研究,并努力將人腦的結構復刻到AI上。與此同時,因果推論等領域也可能會成為AI界的新熱點。

    AI技術的應用展望

    相比于對AI模型性能的改進,AI在各個領域的應用可能會帶來更多令人興奮之處。事實上,在過去一年多里,以ChatGPT、StableDiffusion、MidJourney為代表的一大批AI模型已經得到了廣泛的應用??梢韵胂?,隨著AI技術的發展,AI的應用將會變得更為廣泛。在此過程中,以下三個趨勢是最為值得注意的:

    (1)AI與行業的深度結合

    雖然很多行業已經廣泛應用了AI模型,但到目前為止,AI在多數行業中扮演的角色依然是工具,或者至多是一個輔助者。對于人類而言,它們更多的是作為一個補充,而非替代。不過,隨著AI技術的發展,很多行業的“含AI量”正在迅速提升。這一點,不僅在文本整理、插畫繪制等領域得到了體現,就連編程、醫藥開發、芯片設計等領域,也已經出現了類似的勢頭。

    尤其需要重視的是,過去人們一度認為AI雖然可能在某些專業領域內勝過人,但在協調方面,人的作用依然是不可忽視的。根據這種觀點,隨著AI使用成本的降低,單個人+多個AI模型的新型工作模式將會成為主流。不過,這種情況或許只是一個短暫的過渡。隨著可以協調不同AI模型的AI智能體的出現,完全由AI協調、AI執行的全AI工作模式或許才是最終的發展方向。在去年5月,由微軟推出的HuggingGPT就已經可以做到根據任務需要自行選擇所需要的AI模型,并監督它們完成工作。雖然根據測試,其性能還有很多有待完善之處,但在此之后,已經有很多開發者嘗試著從各個方面對其進行了優化。相信在不久的將來,更為完美的全AI工作團隊就將出現。

    (2)智能應用的興起

    智能應用(IntelligenceApplica-tions)的概念最早出現于著名科技咨詢公司高德納(Gartner)的一份報告。顧名思義,所謂智能應用就是由AI賦能的應用軟件。和傳統的應用軟件不同,智能應用并不只是作為一個工具被動地被人們所使用,而是可以學習、適應使用者的使用習慣,并有針對性地為其提出新的解決方案,甚至幫助其直接進行一些任務的處理。

    在生成式AI技術取得突破后,已經有一些軟件企業嘗試將AI集成到自己的應用當中,以提升其效能。其中,比較有代表性的就是微軟。目前,它已經將智能工具Copilot集成到了其辦公軟件Office當中。通過Copilot,用戶可以更為便利地操控Office進行文檔處理、表格編輯、PPT制作等一系列工作。不過,從總體上看,這樣的融合案例還并不普及。根據高德納的估計,目前的所有獨立應用開發商當中,大約只有不到1%引入了AI進行賦能,而AI原生的應用則更是少見。

    之所以如此,主要是因為目前的AI發展還存在著很多的不足。一方面,正如前面所說的,現在的幻覺問題在AI模型中還很常見。雖然對于一般的聊天而言,這并不會造成太大的問題,但如果將這樣的AI模型應用到輔助工作,則可能會產生很大的問題。另一方面,在生成式AI發展的初期,模型基本都是單模態的,因而如果作為工作助手,其與用戶的交互并不能做到十分順暢。

    不過,隨著AI技術的進步,以上問題都在得到解決。尤其是現在多模態模型的發展,使將AI作為一個助手的角色植入各種應用已經變得越來越可行。根據高德納的預測,到2026年,超過80%的獨立應用開發商會將AI植入自己的應用,并且大批AI原生的應用也將出現。

    (3)硬件的AI化

    在AI被植入越來越多的應用軟件的同時,AI與硬件的結合也將會成為一股趨勢?;蛟S有人要問,既然現在AI的獲取已經變得越來越容易,人們只要上網,就可以在云端輕易調用各種AI模型,將AI直接植入硬件還有什么意義呢?在我看來,其理由至少有兩個方面:一方面,受服務器承載能力、網絡傳輸速度等因素的限制,人們對AI模型的調用可能并不流暢。并且至少在短期內,隨著人們對AI需求量的暴漲,這個矛盾還可能變得更為突出——這一點,從過去幾個月中人們使用ChatGPT的感受就可見一斑。如果可以將AI模型植入硬件,讓用戶直接從本地調用相關模型,就可以比較好地解決這個矛盾。另一方面,出于保護商業機密、隱私等需要,人們在使用某些硬件時并不會連接網絡,因而也就不可能在線調用模型。出于滿足這些需要的考慮,在硬件中直接植入AI就變得很有必要。

    從短期看,在AI硬件中,AIPC(個人計算機)和AI手機將是最有可能率先得到市場認可的,因而,它們也成為了很多企業重點押注的對象。以AIPC為例:目前包括戴爾、惠普、聯想在內的PC制造大廠都已經相繼推出了自己的AIPC產品或產品方案,英偉達、英特爾、AMD等芯片巨頭則已經開始為爭奪AIPC的芯片市場而努力。而作為軟件巨頭的微軟,則已經從運行AI應用軟件的角度出發為AIPC制定了相關的配置標準??梢韵胍?,在這些巨頭們的共同力捧之下,AIPC將會在未來的幾年內引發一波市場的熱潮。

    如果我們將眼光放得更為長遠一些,那么搭載了AI的機器人無疑將會是最為值得關注的AI硬件。僅僅在幾年前,人們還認為智能機器人進入家庭和辦公室是一個遙不可及的夢想,即使有機器人做到了這一點,也是形式大于內容,難以真正承擔復雜任務。然而,隨著近幾年軟硬件技術的發展,這個夢想正在一步步成為現實。目前,特斯拉民用人形機器人擎天柱(Optimus)的原型產品已經迭代了數個版本,并且已可以完成一些相對復雜的任務。根據馬斯克的承諾,在未來幾年,擎天柱機器人的造價將會降到2萬美元以下。如果是這樣,那么這款機器人就可以真正地走入尋常百姓家了。斯坦福前不久發布的機器人MobileALOHA則為民用機器人提供了另外一個可行的路徑。與擎天柱不同,這款可以烹飪、做家務的機器人將其軟硬件進行了完全的開源,因而十分容易被廣大機器人制造商所效仿。因而可以預見,很快就會有很多制造商通過對MobileALOHA的配置進行改造,推出成本較低、功能較強的機器人。從這個角度看,MobileALOHA對機器人行業的意義恐怕不亞于開源的LLaMA模型對AI大模型行業的意義。

    AI的衍生需求展望

    隨著AI的迅速發展,大量對其進行支撐、輔助的需求也隨之衍生了出來。比如,算力供給、數據投入、安全保障、支撐服務等,都可以被歸入AI衍生需求的類別。限于篇幅,這里只討論算力供給和數據投入兩個方面。

    (1)算力供給

    眾所周知,以深度學習為基礎的AI模型都需要龐大的算力作為支撐。因而,AI迅猛發展的一個后果就是對算力的需求會出現暴漲。無論是訓練AI,還是使用AI,都需要投入龐大的算力。根據華為的報告《計算2030》,到2030年,全球通用計算(FP32)預計總量將達3.3ZFLOPS(注:FLOPS指每秒浮點運算次數,是刻畫計算次數的單位。1Z=1021),其數量相當于2020年的10倍;而AI計算(FP16)總量則將達到105ZFLOPS,約為2020年的500倍。由此可見,AI的計算量將成為全社會總計算量的大頭。在這樣的情況下,算力供應將會成為制約AI發展的瓶頸。

    如何才能突破這個瓶頸呢?對于單個的應用企業而言,其選擇無外乎購買更多的芯片,或者使用云服務。這些需求表現在市場上,就是芯片,尤其是AI專用芯片價格的高企,以及云服務需求的猛增??梢灶A見,至少在未來一段時期內,這些現象依然將持續,同時還會帶動一些其他的相關需求。比如,由于受傳輸速度影響等原因,調用云端算力來訓練和服務AI的效率可能較低,因而對邊緣計算的需求可能就會被調動起來。

    當然,如果是從整個社會或國家層面看,云計算和邊緣計算其實只是進行了算力的再分配,并不能從根本上解決算力總體上供不應求的問題。要從根本上解決這個問題,還需要從基本的算力供給單元——芯片上著手。而這又分為幾種不同的思路。

    一種思路是在現有的芯片設計思路下,通過制作工藝的優化來不斷提升芯片的性能和產量。

    從根本上看,芯片的制作就是在微小的硅晶片上搭建復雜的集成電路??傮w上看,在單位面積上排布的晶體管數量越多,芯片的性能就越強大。在過去的幾十年中,人們一直將提升芯片性能的著力點放在對光刻技術的改進上。其邏輯是非常直接的:當我們用的畫筆具有更細的筆尖,就更容易畫出細致的線條,同樣的,光刻的制程越小,就可以讓晶體管之間的間距(即所謂的柵格)越小,從而達到讓單位芯片排布更多晶體管的目的。然而,隨著光刻技術的不斷發展,要繼續在這一技術上實現進一步的突破已變得越來越困難。在這種情況下,人們開始考慮更多利用封裝技術來實現目標,由此引發了不少有價值的改進思路。其中,“芯粒”(Chiplet)技術就是一種頗有價值的嘗試。

    從本質上講,芯粒技術可以看作模塊化思路在芯片制作上的應用。在設計上,每一個芯粒是一個預制的、包含特定功能的微型集成電路。作為一種異構集成技術,基于芯粒的設計技術可利用先進的封裝技術在不改變晶體管電路的線寬、線距的前提下,將不同功能的多個異構芯片集成到單個芯片中,從而實現高密度的集成——其過程就像對樂高積木進行拼接一樣。得益于這種模塊化的設計思路,芯粒技術可以大幅降低設計的復雜度。不僅如此,由于芯片的良品率通常和其面積成反比,因而芯粒技術的出現還有望讓良品率大幅提升。

    在以上思路之外,另一種思路就是從全新計算原理出發,重新探索、構造新的計算硬件。從現在的實踐看,從量子計算的角度來進行探索似乎是一條比較流行的思路,包括谷歌、微軟、IBM、英特爾在內的一眾業界巨頭都在量子計算和量子芯片領域投下了重注。如不出意外,至少在未來一段時間內,這些巨頭之間對于量子霸權的競逐將繼續持續。值得一提的是,就在巨頭們為量子計算爭破頭的時候,一些初創企業則正在探索其他的方向。比如,創立于2022年的Extropic公司就是其中一例。有意思的是,Extropic公司的研究團隊來自谷歌的量子計算團隊。在老東家,他們曾經設計了可用于在量子計算芯片上運行 AI模型的 TensorFlowQuantum,然而在創業之后,他們則試圖從非平衡熱力學的角度入手,力求研發一款全新原理的芯片。盡管這個方向比較小眾,但或許在未來的某個時候,正是這樣不走尋常路的新創企業會為我們找到從根本上突破算力瓶頸的道路。

    (2)數據投入

    現有的大模型的開發極端依賴于數據的投入。比如,為了開發和訓練GPT,OpenAI幾乎爬取了互聯網上所有可用的語料數據,為此還因著作權侵權問題被《紐約時報》等媒體告上了法院。然而,隨著人們對模型性能要求日益不斷提升,現有的數據已經難以滿足模型的訓練需求,人們就需要找尋新的訓練數據來源。

    針對這個問題,現在的一個思路是采用合成數據,即AI生成的數據來訓練數據。盡管這個思路聽起來略顯荒誕,但事實上,相比于自然獲取的數據,優質的合成數據可以有效地剔除數據中的雜音,因而甚至可以達到更好的訓練效果。不僅如此,相比于通過傳統方式獲取數據,合成數據將可以大幅降低成本,并且能有效地規避法律風險。因此,在未來的一段時間內,AI行業對于合成數據的需求應該會出現大幅增長。一部分資質較好的企業將可能成為專業的合成數據供應商,一個合成數據的交易市場也有望形成。

    結語

    到此為止,我們已經圍繞著AI這個GPTs,探討了未來幾年內數字經濟領域可能出現的一些趨勢。需要說明的是,盡管我認為AI應該是這段時期內最重要,且處于主導地位的一類技術,但其實在數字經濟領域,還有很多新的技術也非常令人興奮。比如,就在最近,馬斯克宣布其旗下的腦機接口公司Neuralink已經成功完成了首起將芯片植入大腦的試驗,并讓被試者實現了用意識控制電子設備;不久之后即將上市的AppleVisionPro則可能讓前幾年熱炒的元宇宙概念離現實更進一步……所有的這一切,都可能會給我們帶來無窮的驚喜。

    想到這些,我不禁回憶起2016年,著名經濟學家泰勒·考恩(TaylorCowen)來中國為其著作《大停滯》(TheGreatStagnation)做宣發,我曾主持過一次他與嘉賓的談話。在談話中,考恩不厭其煩地說,人類已經摘取了所有低垂的技術果實,包括AI在內的數字技術從重要性上都不如洗衣機或抽水馬桶,在未來的幾十年中,社會將會陷入一段長時間的停滯。應該說,他的發言確實很有見地,但作為技術樂觀派的我卻很難贊同他的觀點。在談話的末尾,我曾經和他說:“考恩先生,您或許應該給數字技術一些時間。再過幾年,您會看到它們真正的力量。”不知道在目睹了以AI為代表的數字技術的突飛猛進之后,考恩先生是否還堅持原有的想法。如果答案是否定的,那么我希望這一年的技術發展可以給我們提供更多說服他改變想法的理由。

     

    版權聲明:以上內容為《經濟觀察報》社原創作品,版權歸《經濟觀察報》社所有。未經《經濟觀察報》社授權,嚴禁轉載或鏡像,否則將依法追究相關行為主體的法律責任。版權合作請致電:【010-60910566-1260】。
    《比較》研究部主管
    精品国产一区二区三区香蕉,亚洲va久久久噜噜噜久久,国产精品中文原创av巨作首播

  • 
    
  • <em id="dhntg"><object id="dhntg"></object></em>

    <ol id="dhntg"><ruby id="dhntg"><input id="dhntg"></input></ruby></ol>

    <th id="dhntg"></th>