善良丰满的继母4_玉蒲团电影完整版_HD中文字幕在线播放,张律渝第二集免费视频播放,同学妈妈,《八角笼中》

中國AI發展步入歧途

時間:2024-02-20

中國的人工智能在一個方面上遙遙領先美國,那就是我們搞人工智能大模型公司的數量遙遙領先美國。

截止2023年底,我們國家已經有了8萬家大模型企業了,甚至還開啟了轟轟烈烈的千模大戰。

然而美國搞大模型的就是那么幾家數得過來的巨頭,像谷歌、Open AI、馬斯克的X 、亞馬遜和Mate,再加上幾個前沿的學術機構,比如斯坦福的SQuAD、麻省理工的GENIF、伯克利的BAIR。

但是你別看這些美國大模型的數量少,卻誕生了可以復現諾貝爾獎化學反應的AI 化學家Coscientist,還誕生了可以成為AI 機器人控制專家的斯坦福李飛飛教授搞的VIMA。

而我們國內只要一有模型開發布會,就喊著秒殺了GPT4,卻沒真的見過國內這些秒殺GPT4的大模型,在國際哪個期刊上做到了什么能夠提升生產力和科研方面的應用。總之,榜單排名沒輸過,而且總是在我們感受不到的地方遙遙領先。但是你如果真的深度多方位的使用比對過,你就會體會到這些模型跟GPT 的差距,它不是差一星半點。造成這種情況的主要原因,下面我們展開來討論。

 

第一,就是大模型的這個訓練算力我們跟不上,這種要求高精度的算力,你像H100、A100,還有英偉達新搞的那個GH200。

他們要求能夠大量的并行運算,然后顯存高,位寬也要高的GPU,這就是美國制裁我們國家最嚴厲的一方面。

雖然我們國家像百度、騰訊、字節這些大廠也通過不同渠道購買了不少H100,但是和實際用來超越Gpt4的數量相比遠遠不夠,而訓練Gpt4這種模型起碼都得萬卡起。

可是美國的企業就沒有這方面的限制,Open AI 前段時間甚至還號稱要把1000萬顆GPU連在一起去訓練超級大模型。Meta 的扎克伯格剛剛還跟英偉達簽了35萬張H100芯片的采購訂單,這幾乎是我們國內大廠保有量的總和。簽完合同后的小扎還號稱,這個Meta 訓練出來的通用人工智能模型也將開源。

而且不光是訓練大模型的這些我們的高級算力跟不上,甚至連精度低一些,用來運行大模型的這些算力,你就比如英偉達針對中國存儲的這個H20中國閹割版顯卡,還有RTX3090、4090之類的低端GPU,我們在算力跟數量上也差的很遠。

 

第二,比算力短缺更要命的是訓練AI 的算法跟數據,我們差距很大。這個差距還不像芯片差距那么一目了然,但其實更加的嚴重。

當下所有的主流大模型的母體算法叫Transformer ,就是這個Open AI的首席科學家ChatGPT之父伊利亞,十年前和他的老師Jeoffrey hinton 一起發明的(是由Google團隊在2017年提出)。

打個比方,訓練大模型和教孩子其實差不多,孩子他本身的記憶力再強、反應再快,你天天讓他在牛圈里放牛,然后教他偽科學,再指鹿為馬,最后這孩子學出來大概也是個傻子。

而訓練頂級大模型的參數量,像Open AI 的被爆料已經接近10萬億級別了。在這種龐大的數據集下,你的數據和你處理數據的算法,決定了大模型每一次訓練的性能跟質量。

 

第三,國內大模型公司,大多都是套殼LLaMA等開源模型的投機公司。這跟我們前幾年新能源補貼的時候,新能源公司扎堆式注冊一模一樣。

你就像llama2的開源,不只是把模型免費給你用這么簡單,他還把他這個模型的訓練的過程和訓練模型的底層數據全部開源了,所以少數有點良心的公司,就把人家開源的訓練數據替換或者增加一部分自己的,跟著流程

 

重新訓練一遍,然后號稱自主研發。但是絕大多數的那些投機公司,
 

甚至就只是給大模型做了個非常簡單的微調,給他改了個名字而已。

所以之前10月份,李開復旗下“零一萬物”的大模型就被阿里的大神賈揚清爆錘是換殼模型,說的就是我剛才說的那么回事。總之除了百度,阿里等少數幾家國內公司外,很少國內有從大模型數據的底層開始研發的,但是為什么這些模型公司一個個開發布會的時候,卻能丟出一大堆測試報告榜單成績,說自己這項成績那項能力已經遠遠超越GPT4了呢?

一個叫做Catch me if you can 的論文說的很清楚,這些大模型是如何刷榜作弊的。簡單來說,就是榜單考題泄露,作弊的大模型公司提前拿考題訓練大模型,那這樣分數就自然高了唄。

但其實最可悲的還不是說這些公司自欺欺人,可悲的是我們國內明明AI 的算力資源、政策資源、人才資源都沒有美國那么充足,但是大部分都被這些只想吃政策跟資本豆腐的投機者給浪費了。

 

其實我們大模型暫時搞不過美國,根本不要緊。因為,第一,美國就沒幾家在搞呀。第二,全世界大部分的國家也都不搞大模型,至多就是基于開源的大模型,微調個專用的模型。

事實上基于大模型開發商業應用才是效益最大的,而且日后最占據話語權的,也是這些有能力把AI 商業化落地應用的人。

你像百度的李彥宏,Open AI 的山姆奧特曼,包括馬斯克,貝索斯都在不同場合上表達過類似的觀點,就是叫大家不要去卷大模型了,應該去卷AI 應用,在AI 時代才值錢。而他們這些巨頭這么說,不是怕別人搞大模型,超過他們。人家根本不怕,大模型的這個門票,根本就不是小公司買得起的。而是因為他們真的看好AI 應用的價值,希望開發者們都去他們的平臺開發應用,然后給他們貢獻技術跟價值。

你就像GPT4,繼去年11月份發布會大降價以后,又再次腰斬級別的降價,甚至還加了多個AI 協同工作的能力。這個功能,就是可以讓你在聊天中通過艾特不同功能的AI 應用讓他們一起給你干活。這就等于你低價雇傭了好多人,同一時間幫你做著不同的事情。

這對于做電商、做生意天下第一的中國人來說,這是個千載難逢的大利好啊。所以我們最大的隱患不是什么硬件跟大模型暫時落后于美國,而是這個資源錯配導致浪費了發展的黃金時期,然后被國外的那些本來被我們的電商公司跟跨境公司已經打趴下的人,用AI 方面應用的優勢彎道超車了。

因為如果大模型應用員工化,會導致我們的人口優勢、人民勤勞勇敢的優勢逐漸貶值,而讓我感到更加憂心的是,我感受到大多數人對于正在發生的AI 巨變,沒有起碼的緊迫感。

比如我之前說的那個GPTS 的Mention 功能,它可以讓不同的模型一起工作,那就等于一個美國人指揮一堆AI 干原來3個甚至10個人的工作。

所以美國在應用方面的優勢會加速拉大,他們在科研、生產、教育、芯片和大模型方方面面的優勢,甚至會形成螺旋加速指數發展。所以在當下這個階段不光是我們的國家,我們每個人、每個公司都更應該看清楚社會未來發展的必然趨勢,

更重視AI 應用的構建。而不是錯誤的認為AI 化的主力只是巨頭跟高校,或者對國外的大模型抱著那些排斥的心理。然后傻乎乎的,等著你的競爭對手先去發展,而自己不做任何AI 應用的嘗試,那你的未來起碼蒙上了一層陰影,甚至會被時代所淘汰。

 

附注:

1.GPTS 的 Mention 功能

GPTS ( Generative Pre - trained Transformer )是一種大型語言模型,它具有一種稱為 Mention 的功能。這項功能允許用戶在使用 ChatGPT 時,通過在對話窗口中添加@符號,直接召喚另一個 GPT 實例參與對話或執行特定任務。這種交互方式類似于在社交媒體平臺如 Discord 中召喚和管理機器人。

具體來說,當您需要在當前會話中提及另一個 GPT 時,可以使用@加上該 GPT 的名稱。這樣做的目的是為了方便地在同一個聊天窗口內與多個 GPT 進行互動,而不需要頻繁地切換到不同的窗口或者使用命令行接口。此外, Mention 功能還支持查看近期使用的 GPT 列表,以便更快地選擇要與之交流的對象。

綜上所述, Mention 功能增加了 GPTS 之間的協同工作能力,提高了用戶體驗和工作效率。

 

2.AI 讓每個人都能成為科學家!

AI 顛覆化學研究再次登上 Nature !由 CMU 和 Emerald Cloud Lab 團隊開發的 GPT -4加持的 AI 工具(GPT -4化學家),在不到4分鐘的時間成功復現2010年諾獎研究成果。

ChatGPT 大模型爆火這一年,沒想到竟顛覆了整個化學領域。

先是谷歌 DeepMind 的 AI 工具 GNoME 成功預測出200萬種晶體結構,隨后微軟推出的MatterGen,大大加速了設計所需材料特性的速度。

現在, CMU 和 Emerald Cloud Lab 的研究團隊開發了一種全新自動化 AI 系統Coscientist ,4分鐘成功復現諾獎。CMU 開發 GPT -4化學家,自主編碼操控機器人顛覆化學研究榮登 Nature。

 

3. VIMA

像 GPT -4一樣能看懂圖文,李飛飛等人的具身 AI 給機器人造了個多模態對話框。

VIMA 是一個帶有機械臂的 LLM ,它接受多模態 Prompt :文本、圖像、視頻或它們的混合。

是時候給大模型造個身體了,這是多家頂級研究機構在今年的 ICML 大會上向社區傳遞的一個重要信號。在這次大會上,谷歌打造的 PaLM - E 和斯坦福大學李飛飛教授、英偉達高級研究科學家 Linxi " Jim " Fan (范麟熙,師從李飛飛)參與打造的 VIMA 機器人智能體悉數亮相,展示了具身智能領域的頂尖研究成果。

 

4.GPT -5要來了?

驚現兩大變化◇參數或達10萬億級別◇

近日,歐愛運營有限責任公司( OPENAI OPCO , LLC )在中國申請注冊2枚" GPT -5"商標,引發廣泛關注。
在 GPT -4爆火后, GPT -5成為了萬眾期待的下一個版本。

當地時間8月8日, OpenAl 在官網介紹了新產品 GPTBot ,這是一種網絡爬蟲,可大規模爬取網絡數據用于訓練 AI 模型,據稱可以用來改進未來的聊天機器人大模型。

CipenAI 在其官網發布的一篇博客文章中表示:"使用 GPTBot 用戶代理抓取的網頁可能會被用來改進未來的模型。"公司還補充稱, GPTBot 可以提高內容準確性,擴展未來迭代的能力。此外,由于 OpenAI 近期剛向美國專利商標局申請了 GPT -5商標,國外不少科技媒體認為, OpenAI 所指的這個"未來迭代"就是 GPT -5。

據悉,它將具備眾多 GPT -4所沒有的能力,而且幾乎每一項都劍指通用人工智能。

 

5.李開復旗下"零一萬物"大模型疑套殼 LLaMA

知名大模型公司再次陷入套殼質疑,這次是李開復剛于一周前發布的"零一萬物"( Yi )大語言模型,疑似套殼Meta公司在今年開源的大模型 LLaMA。

阿里前技術副總裁、大模型行業創業者賈揚清近日在朋友圈中表示,做小公司不容易,在做適配某國內大廠的新模型的業務時,發現此大廠新模型完全照搬 LLaMA 的架構,"今天有朋友告訴我,這個大廠新模型 exactly 就是 LLaMA 的架構,但是為了表示不一樣,把代碼里面的名字從 LLaMA 改成了他們的名字,然后換了幾個變量名。"

賈揚清表示希望不要換名偽裝,以免做多余的適配工作,"各位大佬,開源社區不容易,如果你們就是開源的模型結構,求高抬貴手就叫原來的名字吧,免得我們還做一堆工作就為了適配你們改名字。"

賈揚清沒有指明具體的大模型名字。但業內懷疑的對象指向李開復旗下的零一萬物( Yi )。

 

6.ChatGPT 驚艷更新◇一個@讓三百萬 GPTs 為你打工

ChatGPT 悄悄更新個大功能!看起來要把插件系統選代掉了。
部分(灰度)用戶已經收到這樣的提示:

現在可以在對話中@任意 GPT 商店里的 GPTs ,就像在群聊中@一個人。
Beta GPT mentions
Type @ tomention a GPT and add it directly into your conversation
Message ChatGPT ..

 

7.OpenAl 計劃用1000萬張顯卡訓練 AI 10倍于 NV 年產能

在生成式 AI 領域,推出了 ChatGPT 的 OpenAI 是處于領先地位的,他們的 GPT -4已經是萬參數級別,還在訓練更先進的 GPT -5,屆時又會在技術水平上甩開國內的追趕者。OpenAI 能夠領先,先進 AI 顯卡用到的 GPU 是功不可沒的,背靠微軟這棵大樹,他們在算力資源上不會受到限制, GPT -4的訓練就使用了2萬張 NVIDIA 的 AI 顯卡訓練。

文章來源寰球財評



 

  • 分享本文到:

  • 關注隨銳:

    微信
    微信掃描,獲取最新資訊
  • 聯系我們:

    如果您有任何問題或建議,
    請與我們聯系:
    suiruikeji@suirui.com
×