”![]()
文 | 北方朔風(fēng)
最近“小龍蝦”O(jiān)penClaw火爆異常。和之前這兩年每一輪人工智能的概念爆發(fā)與某個模型有關(guān)不同,OpenClaw是一個開源的構(gòu)架,可以接入不同模型的api。而通過OpenClaw這個構(gòu)架,理論上操作者可以用自然語言指揮模型完成各種操作。
![]()
應(yīng)該說,OpenClaw的出現(xiàn)確實(shí)是符合了從2024年以來的大語言模型發(fā)展趨勢,也就是所謂的強(qiáng)調(diào)agent,通過模型完成工作,而非簡單的生成內(nèi)容。在大模型agent能力普遍提升的當(dāng)下,它的出現(xiàn)有必然性,算是AI熱潮的一個階段性事件。
不得不說,指揮AI自動幫自己完成各種工作,聽起來確實(shí)很有科幻感。所以小龍蝦問世后,不管在美國還是中國熱度都極高,最近國內(nèi)甚至出現(xiàn)了“全民養(yǎng)蝦”的趨勢,一時間,各種免費(fèi)付費(fèi)的安全使用教程,真假難辨的“養(yǎng)蝦賺錢”成功案例大行其道。同時一邊是一些地方政府帶頭推廣,另一邊是國家機(jī)關(guān)接連發(fā)布安全警告,場面非常魔幻。
![]()
實(shí)際上程序員群體這次反而比較冷靜,畢竟agent概念與相關(guān)產(chǎn)品都已經(jīng)出現(xiàn)幾年了,很多程序員在工作中已經(jīng)用上了很久,對相關(guān)技術(shù)的優(yōu)點(diǎn)和局限性是有不少認(rèn)識的。但是對當(dāng)下大模型發(fā)展情況缺乏認(rèn)識的普通人,就很容易受炒作宣傳影響,被諸如“普通人不安裝OpenClaw就要被時代拋棄了”之類的焦慮情緒所裹挾。
和其他的agent產(chǎn)品類似,OpenClaw在安全性和可靠性上依然有很多問題,當(dāng)然這并不完全是OpenClaw開發(fā)者的問題,畢竟當(dāng)下的大模型能力雖然進(jìn)步不少,但是距離無所不能顯然有很遙遠(yuǎn)的距離。這里舉一個例子,META的人工智能安全主管用OpenClaw管理自己的郵件箱,結(jié)果把自己的郵件箱給清空了,人工智能安全專家都翻車了,更別提普通人了。
![]()
如果想要使用好類似OpenClaw這樣的產(chǎn)品,就要深思熟慮,把哪些權(quán)限給人工智能是合適的,哪些會帶來安全問題,同時OpenClaw相關(guān)的貢獻(xiàn)代碼中,不乏惡意代碼或是有明顯漏洞的代碼存在。想要用好這東西還不翻車,對計(jì)算機(jī)和人工智能認(rèn)識的要求是很高的。大廠的程序員都未必人人能做到,花幾百塊錢上門安裝模型的人,絕大多數(shù)對這方面基本上可以說是一無所知了。也難怪國家機(jī)構(gòu)要提醒OpenClaw的安全性問題了。
![]()
說到底,OpenClaw和當(dāng)下的大多數(shù)人工智能產(chǎn)品一樣,當(dāng)你對你要做什么有清醒明確的認(rèn)識時,它會是工作的好助手;但是如果你一無所知,指望人工智能包治百病或者自動賺錢,那么人工智能一定會把你的工作搞砸。典型的例子就是用AI生成代碼,當(dāng)你能說清楚代碼的準(zhǔn)確需求,并且在AI完成后,你有能力檢查是否有問題和BUG,AI代碼助手就可以幫你節(jié)省很多時間。但如果你只提出大體要求的時候,AI生成的代碼很容易有大漏洞。所以從這個角度來說,類似OpenClaw這樣的產(chǎn)品太過“出圈”,是很容易出問題的。
![]()
從利益相關(guān)的角度看,這輪OpenClaw的出圈顯然是有企業(yè)助推的。國內(nèi)有比較多云服務(wù)的大模型企業(yè),可能都參與了OpenClaw的宣傳。畢竟想要OpenClaw運(yùn)行起來,就需要模型作為支持,而絕大多數(shù)人的電腦都沒有能力部署大型模型,小模型在OpenClaw這類任務(wù)中效果不夠理想,所以大多數(shù)人還是會選擇使用模型平臺的api。
如果想頻繁使用OpenClaw做復(fù)雜任務(wù),相關(guān)的token花費(fèi)數(shù)字就非常可觀。雖然現(xiàn)在賣token的價格基本上是百萬token幾塊錢,百萬token對應(yīng)的文字量可是一整篇長篇小說,但是在執(zhí)行復(fù)雜指令時,很可能一條指令就要消耗十幾萬token。也就是說,在大眾離“養(yǎng)龍蝦賺錢”還離著十萬八千里,甚至大概率還要虧不少的時候,賣token的企業(yè)已經(jīng)賺得盆滿缽滿了。
![]()
這種事情在當(dāng)下是很常見的。最典型的例子也是在編程領(lǐng)域,Claude家的模型長期被視為最擅長編程,硅谷有不少老板就想用這個模型降本增效,但是隨著實(shí)際應(yīng)用,不少人發(fā)現(xiàn)Claude的模型很多時候用起來比招聘一個程序員還貴,效果則經(jīng)常不穩(wěn)定。同時,現(xiàn)在的模型價格恐怕還是優(yōu)惠價,未來的價格只會更高。
對于現(xiàn)在的人工智能公司來說,考慮如何賺錢是一個非常現(xiàn)實(shí)主義的問題。之前的賺錢模式是嘗試出售各種會員服務(wù),但是事實(shí)證明,這個路徑并沒有想象中那么好。人工智能會員想要賺錢,要么賭用戶買了會員之后就逐漸失去熱情,要么就得蒸餾模型,降速降智,否則以目前各家普遍實(shí)行的一個月20或200美元的兩檔會員價格,連成本的一半都收不回來。
現(xiàn)在看來,OpenClaw的大熱,會讓各家公司大力發(fā)展向普通人直接出售token的模式。至于結(jié)果如何,筆者只能說不太看好。之前輿論說到人工智能公司很缺錢,一般說的都是美國的公司。畢竟美國那邊整個國家經(jīng)濟(jì)和股市增長都賭在了人工智能上,以至于投入和回報(bào)越來越不成正比。中國的人工智能投資算相對比較理智的,畢竟美國的制裁還是有很大影響,中國的企業(yè)面臨著GPU限制,投資不得不理智。
但是現(xiàn)在看來,人工智能熱潮的非理性一面必然也會對中國公司產(chǎn)生影響。隨著投資規(guī)模不斷增大,市場也會要求這些公司提供合理的回報(bào),這些公司就不得不思考如何讓普通人更多的消費(fèi)AI了。正巧最近還有個這方面的例子,那就是阿里的qwen模型,因?yàn)槔砟顔栴},其核心團(tuán)隊(duì)大規(guī)模離職。
這場離職的背后很大程度因?yàn)槭抢砟钌系牟缓停琿wen團(tuán)隊(duì)在開源領(lǐng)域的使用量是巨大的,但這并沒有轉(zhuǎn)化成為收入,甚至有些拖累了旗艦級基座模型的開發(fā)。qwen系列模型之所以能在全球開源界廣為應(yīng)用,在于qwen團(tuán)隊(duì)提供的模型尺寸與功能的多樣性都是開源界之最,某些功能的模型全球只有qwen一家會開源。但是這也就意味著,qwen會有一個復(fù)雜的產(chǎn)品線,開發(fā)人員不得不把精力分散開來。
而qwen系列的旗艦級模型,一向是沒什么存在感的,大概率和精力分散也是有關(guān)系的。那么在需要考慮人工智能回報(bào)的當(dāng)下,qwen團(tuán)隊(duì)和阿里的管理層,存在意見上的不一致也就毫不奇怪了。
![]()
所以這些企業(yè)對推動OpenClaw這類大量消耗token的應(yīng)用的普及有著十足動力,畢竟暫時也找不著更合適的路徑回本甚至賺錢。但如此狂熱不加限制,對人工發(fā)展真的有利嗎?要知道,大模型出現(xiàn)幾年以來,互聯(lián)網(wǎng)本就已經(jīng)被AI輸出低質(zhì)內(nèi)容污染明顯,不過畢竟還沒涉及到安全問題。現(xiàn)在,OpenClaw這類“機(jī)器人"如果被狂熱使用,是真的可能對本就已經(jīng)AI污染的互聯(lián)網(wǎng)造成底層邏輯和安全上的破壞。
![]()
![]()
當(dāng)下關(guān)于人工智能的根本性矛盾,在于人工智能企業(yè)如何證明天文數(shù)字的投資是有意義的。目前看來仍沒有靠譜答案,之前是炒作通用AGI概念,現(xiàn)在倒是具體一些,說大語言模型能替代多少工作。比如說從年初到現(xiàn)在,美國人工智能圈子就在炒作,說人工智能可以替代某些專業(yè)軟件,直接導(dǎo)致了很多美國軟件股暴跌,甚至影響到了印度的股市行情,畢竟印度的經(jīng)濟(jì)結(jié)構(gòu)中,軟件外包行業(yè)是非常關(guān)鍵的。
可是實(shí)際效果呢?從目前來看,人工智能確實(shí)可以替代部分專業(yè)軟件,但是這要求使用者對自己的專業(yè)十分了解,并且清楚人工智能的能力邊界。不用人工智能代替思考,那么人工智能就會是很好的工具,可是這種理性謹(jǐn)慎的使用模式并不是當(dāng)下人工智能宣傳的主流,我們看到的主流口徑多是人工智能無所不能的包裝,還有炒作錯過人工智能就會錯過一切的恐慌。那種試圖把人工智能接入一切領(lǐng)域的行為才是當(dāng)下的市場主旋律。
筆者可以確定,大多數(shù)跟風(fēng)安裝OpenClaw的人,并不會提高多少工作效率,能多賺的錢大概率也不如買token花的錢來得多,唯一的好處大概是給了他們一種沒有落后于時代的錯覺,同時還有一種當(dāng)老板管理AI員工的快感。考慮到硅谷投資人工智能的很多資本家也非常相信人工智能可以無限降本增效,普通人有這種思維錯覺倒也實(shí)在沒什么錯。
![]()
![]()
經(jīng)常看沉思錄的讀者應(yīng)該知道,我們從來不是反對發(fā)展AI,但顯然,只狂熱炒作而不認(rèn)識和解決AI問題,不光會阻礙AI的良性發(fā)展和普及,更不會給我們的社會帶來想要的未來。
看看現(xiàn)在的美國就明白了,美國理論上是當(dāng)下人工智能技術(shù)最先進(jìn)的國家,但是對于普通美國民眾,人工智能真的帶來很多好處嗎?無論是失業(yè),水價電價上漲,還是虛假信息的增多,整個美國社會都沒有真正思考和解決這些問題,而是任其發(fā)酵。硅谷AI狂熱者們甚至在一邊宣傳AI會取代人類工作,一邊鼓吹只要AGI徹底現(xiàn)實(shí),人類就能進(jìn)入神國。
毫不夸張的說,當(dāng)前以美國為代表的人工智能狂熱,宗教意味實(shí)在是太重,帶有濃厚的千禧年主義傾向。至于什么千禧年主義,這里可以舉一個例子,之前有新聞報(bào)道,說美軍中有人宣傳,和伊朗開戰(zhàn)是特朗普為了完成哈米吉多頓之戰(zhàn),讓圣子再次降臨的行為,這就是最典型的千禧年主義。
![]()
![]()
所謂的千禧年主義,指的是通過自己的某些行為可以加速末日審判的到來。美國福音派對以色列的支持,就是來自于這樣的理由,他們相信支持以色列,可以加速審判來臨。但是在傳統(tǒng)的保守主義者眼里,這是一種極其危險的舉動,什么時候末日審判是神決定的事情,人去決定這種事情,是致命的自負(fù)。
按照一般的宗教學(xué)分類,有強(qiáng)烈千禧年主義觀念的宗教往往屬于邪教的行列。而很不幸,當(dāng)下的人工智能狂熱,就帶有過度的千禧年主義內(nèi)容。硅谷的很大一部分人真誠地相信,只要不斷擴(kuò)大大模型的規(guī)模,就可以制造出來無所不能的AGI,改變整個世界。
雖然關(guān)于AGI的定義有不少討論,但是在人工智能狂熱者眼里,與其說這是個技術(shù)上的概念,不如說是某種無所不能的神明。他們這些人工智能的研發(fā)者是神明的祭司,他們認(rèn)為為了這個神明的誕生,人類社會應(yīng)該不惜一切代價,來迎接這場人造神帶來的末日審判。
就像前面提到的,硅谷的右翼科技兄弟經(jīng)常會渲染人工智能可能會帶來大規(guī)模失業(yè)甚至是毀滅人類。但是他們說這話不是為了警示他人,而是為了宣傳自己的人工智能模型多么優(yōu)秀。這種恐怖威脅式的宣傳洗腦無疑是高度宗教式的。
應(yīng)該說,一開始美國資本也確實(shí)相信AGI神國即將到來這個故事,但是現(xiàn)實(shí)終究不是神話,不斷增加的巨額投資,利潤回報(bào)的遙遙無期,迫使AI祭司們必須做盈利承諾的回應(yīng)。而AI祭司們?yōu)榱死^續(xù)維持資本的預(yù)期增加投資,早日邁進(jìn)AGI神國的大門,也要想方設(shè)法炒作一個又一個概念來盈利。
![]()
以今天這些巨頭的資本體量和AI技術(shù)本身對社會造成的沖擊,AI資本們這種規(guī)模上史無前例的盈利渴望,必然有動機(jī)有能力綁架整個人類社會,朝他們想要的結(jié)構(gòu)發(fā)展。那樣的未來絕對不會是大多數(shù)普通人想要得到的。
這也足夠讓大洋彼岸的我們警惕。我國社會雖然沒有宗教狂熱氛圍,但一直有著濃厚的技術(shù)進(jìn)步主義色彩。我國在推動新技術(shù)改造社會方面一向有著十足的動力和執(zhí)行力,但AI帶來的沖擊在很多層面的確完全不同于以往的技術(shù)變革。
或者用中國人最為熟悉的分析范式來說,AI作為一種與以往不同的新型生產(chǎn)力,對生產(chǎn)關(guān)系也必然會提出全新的要求。只有真正在生產(chǎn)關(guān)系上化解AI帶來的沖擊,推動生產(chǎn)關(guān)系邁入新的范式,我們才真正能說得上可以取得AI時代的勝利。
該期文章導(dǎo)讀:
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.