“做通用大模型,?5000萬元只夠看一次‘煙花’,這是一次的訓練成本。”
“現在大模型應用的數量遠遠不夠,企業基本是有很模糊的需求,但又把期望值放得很高。”
“給做AI應用創業的公司兩個建議,一是第一筆錢最好來自客戶而不是VC(投資人),二是六個月內最好打平你的成本,然后可以賺錢。”
(相關資料圖)
ChatGPT爆紅之后,大模型點燃的人工智能新一輪熱潮還在繼續,近日,OpenAI宣布即將推出能夠理解語音和圖片的新版本ChatGPT,另有消息稱,OpenAI或趕在谷歌發布Gemini之前推出同為多模態大模型的GPT-vision,而微軟也推出了全新的Copilot平臺。
從國內發展情況來看,百度創始人李彥宏在9月初稱,億級參數的大型語言模型,國內已經發布了超過70個。?360創始人周鴻祎更是直言,現在是“百模大戰”,未來很有可能演化為“萬模群舞”。
絕大部分已發布大模型的企業認為,目前許多行業的關鍵環節都值得用大模型改造一遍,也有人將大模型比作移動時代的操作系統,號召創業者們在大模型的基礎上開發出足夠多的AI應用。只是與發布企業的火熱相比,普通大眾尚未感知到大模型的“魅力”,一些To C端(用戶端)的應用在發布后僅帶來短暫的熱度。
國內是否需要這么多基礎大模型?當互聯網大廠的大模型還沒找到清晰的商業模型,創業公司的出路在哪里?現階段大模型的火熱有沒有泡沫?企業客戶和個人用戶的使用感受如何?近日,澎湃新聞記者采訪了多位大模型方面的從業者、創業者、使用者試圖尋找答案。
創業公司更大的機會在“中間層”“應用層”?
“國外大模型我們在用Open?AI?的GPT-4,有的客戶會有私有化部署的要求,所以國產大模型我們基本也跑了試試,上億級的模型進步很快,但與GPT-3.5還有差距。分類來看,BAT等大廠自帶場景、數據,是認真在做,創業公司里智譜AI、MiniMax、百川智能等頭部公司也做的不錯,拿下了一部分客戶。但業界確實有些公司,更多是為了融資造勢,拿了部分垂類的行業數據,根據自己的資金實力,找一個開源的模型訓一下,就說自己做了大模型。”基于大語言模型的自動化平臺公司瀾碼科技CEO周健在接受澎湃新聞記者采訪時說。
周健曾在谷歌、阿里云、弘璣RPA等公司工作,也曾是“AI四小龍”依圖科技的第10號員工,今年2月,周健創立了瀾碼科技,并與金山辦公等多家上市公司和獨角獸企業達成戰略合作。在周健看來,因為大模型的“幻覺問題”和權限問題,終端用戶或者甲方企業客戶很難和大模型直接合作,需要像瀾碼科技這樣的中間廠商,這也是創業公司的機會。
在基礎大模型與用戶端需要“中間廠商”,OpenAI的首席執行官山姆·奧特曼(Sam?Altman)也曾作出這樣的判斷。奧特曼表示,將來只會有一小部分基礎大模型,會有一批新的創業公司采用已有的大模型,并對其進行調整,創造更多價值,“他們有獨特的數據飛輪,隨著時間的推移不斷改進,我認為中間那一層會創造很多價值。”
周健告訴澎湃新聞記者,除非大資本支持,大部分創業公司并不具有做基礎大模型的實力,因此把目光投向“中間層”或“應用層”是更務實的做法。
“有家做大模型的企業曾告訴我,他們之前訓練的大模型大概花了兩、三個億(元),現在算力漲價,新訓一個估計花費要五個億(元),而大部分創業公司根本不可能隨手一拍就是5億(元)。我們作為中間層,不需要負責大模型智能能力的提升,只是用大模型做產品和商業化,并不需要大規模算力,但在拿了數千萬元的A輪融資后,我們還是用了一部分資金購買算力。”周健說。
國盛證券報告在今年2月曾估算,GPT-3訓練一次的成本約為140萬美元,對于一些更大的?LLM(大型語言模型),訓練成本介于200萬美元至1200萬美元之間。以ChatGPT在2023年1月的獨立訪客平均數1300萬計算,其對應芯片需求為3萬多片英偉達A100 GPU,初始投入成本約為8億美元,每日電費在5萬美元左右。
創業公司Zilliz主要提供面向AI應用的新一代數據庫技術,幫助企業開發AI應用,并已拿到超6000萬美元的B輪融資,該公司觀察到,在過去幾個月,各行各業應用大模型都需要將自己企業內部知識庫跟大模型整合,而這些需求也是Zilliz發展壯大的機會。
Zilliz技術合伙人兼首席技術官欒小凡在接受澎湃新聞記者采訪時表示:“說得夸張些,可能在十年后,不會用大模型就和現在不會用手機一樣。”欒小凡認為現在的大模型確實會存在成本過高的問題,但他相信隨著技術發展,大模型的成本會越來越低,行業內態度也比較樂觀,“現在的大模型就像是十年前的云計算,集中式發展會帶來成本下降。”
談及大模型應用創業的現狀,周健直言:“公司很多,但都沒有做出來。”
大模型“有幻覺”還能應用嗎?
“林黛玉三打白骨精、賈寶玉倒拔垂楊柳,大模型開的藥方不敢吃,寫的律師函也不敢用。”
大模型的“幻覺”問題(指模型生成不正確、無意義或不真實的文本)是大模型要落地應用面臨的問題之一。有業內人士指出,AI在大部分領域要做到足夠好,達到甚至超過人類水平才能產生實際商業價值,也許AI智商從0到70是巨大進步,但自己仍不會為它付費,“就像水必須燒到100度才能驅動蒸汽機,你99度的水就不行。”
欒小凡也向澎湃新聞記者坦言,大模型應用的運作建立在概率之上,可以通過大量參數的導入不斷提高正確率,但也只能無限接近于100%,和計算機程序原有的運行原理相比,更像是人類的思考方式。正因如此,大模型應用適合被用來進行輔助工作,最終還是需要人來做判斷。
值得關注的是,9月12日,為了進一步推動人工智能應用的落地和創新,工業和信息化部工業文化發展中心在北京召開AI應用工作組籌備會,并正式成立AI應用工作組。
AI應用工作組執行組長、行行AI董事長李明順在接受澎湃新聞記者采訪時表示:“大模型不是技術創新,也不是技術革命,它只是一個技術的發現。這個技術一旦眾所周知后,拼的是數據能力、算力投入,本質上是錢的問題。所以,我們看到許多起初做基礎大模型的創業公司,現在慢慢轉了方向,在找垂直場景做應用。”
李明順表示,大模型別怕有“幻覺”,AI應用落地是循序漸進的,哪怕是嚴肅的場景,也可以先把一些可能產生“幻覺”的場景給B端專業人士使用,做輔助決策,然后再推向C端,“比如,把大模型用在醫療上,它的回答可能不那么專業,但這不影響把大模型應用給年輕的醫生做輔助決策。大家還是要找準大模型應用的方向,你可以利用AI操控電風扇,但你不能依靠它問股票漲不漲,哪只股票會漲,這本身就不理性。”
周健也向澎湃新聞記者表示,容錯度高的領域更適合做大模型,“審核、合規、支付這些容錯度低的,利用大模型就要謹慎。”
大模型是否有泡沫?
大模型很熱,其中有沒有“泡沫”?是否需要這么多大模型?
多位從業人士在澎湃新聞記者的采訪中表示有泡沫,所謂“百模大戰”“萬模群舞”,在業內人士看來最終需要的大模型可能只在個位數。
“當然有泡沫,上游產能需求暴增,英偉達的芯片只能加價買,價格漲了50%-60%,反過來說,如果沒有這么多公司想要做大語言模型,算力不該那么緊張。”周健說。
欒小凡也坦言,大模型可能正處于泡沫的頂點,“一段時間后大家的熱情會下降,然后再到下一步的研究,要經過一個過程。”
李明順則判斷,底座大模型可能只需要幾家,數量不超過5個。
目前,B端和C端對大模型應用的使用感受如何?人們什么時候能夠普遍感受到大模型應用的價值?
在B端,中小型企業魯邦通云與數字化服務中心CTO楚寧志向澎湃新聞記者表示,若采用云的模式來按需使用大模型,成本并不高,先低成本的驗證,再考慮私有化部署,但建議中小企業要有一個理解大模型并嘗試使用大模型支持企業業務的過程。
楚寧志告訴記者,該公司已經“嘗鮮”了國內一家互聯網大廠的大模型,應用方向包括設備AI智能巡檢、預測性維護,以及醫療物聯網產品的健康體征分析報告。“就現狀而言,大模型應用落地的挑戰還是在于數據本身,缺乏有效的數據積累,對于中小企業而言,是一個大問題,這需要國家政策、標準和法規的支持和引導。”楚寧志說。
在C端,一位前互聯網大廠的資深創意負責人、AI驅動的創意公司zax創始人趙晨已將ChatGPT、Stable Diffusion等工具熟練地應用在其工作中。趙晨告訴澎湃新聞記者,AIGC(生成式人工智能)已改變他的工作流,“AIGC生產的DEMO基本接近終稿的七八成且速度快,人來畫需要三四天,用AIGC基本半小時可以完成,只是沒有那么精細。另外,我也節約了成本,客戶最終買的只是‘一稿’,但在最終定稿前,會過好幾版,如果沒有AI,我要多找幾個插畫師,每幅畫都要付出成本,這很貴。”
“我認為,未來替代你的不是AI,而是會用AI的人。”趙晨告訴澎湃新聞記者,使用AIGC工具在技巧方面有一定門檻,在廣告創意領域,AIGC工具還遠遠沒有普及。
東方證券在研報中指出,大模型企業在獲得備案和向公眾開放后,各類C端應用將從過去的邀請制、限制名額的注冊制,進入到全面推廣期,這將對各類基于大模型的應用推廣打下更好基礎。B端應用方面,大模型與企業知識庫、工作流的結合,具備較好的粘性和應用空間,未來大模型+流程、大模型+知識庫、大模型+低代碼均具備較好的落地空間。
天風證券則指出,下半年開始海外巨頭應用和模型迭代速度提升明顯,預計海外巨頭相關AI事件和AI產品迭代,或將如同上半年GPT4發布一樣成為持續催化AI行情的重要事件,而現階段Copilot發布和Adobe AI產品開啟定價僅是AI應用落地趨勢的開始,預計會有更多AI應用有望隨著大模型技術升級不斷涌現。