![]()
![]()
出品|搜狐科技
作者|梁昌均
編輯| 楊 錦
“它是歷史上規(guī)模最大、最受歡迎、最成功的開源項目,絕對會是下一個ChatGPT。”黃仁勛最近對流行的“龍蝦”(OpenClaw)盛贊道。
這波“龍蝦”熱潮已持續(xù)月余,似乎并沒有停下來的趨勢。到底要不要養(yǎng)、養(yǎng)了有啥用、如何安全地養(yǎng),制造了大眾的AI焦慮情緒。
在搜狐科技《AI十二談》最新一期直播中,兩位“養(yǎng)蝦”人——快思慢想研究院院長田豐和隆安律所全國合規(guī)委副主任陳煥,分享了如何安全養(yǎng)好“龍蝦”的經(jīng)驗。
田豐認(rèn)為,AI安全或智能體安全,和傳統(tǒng)的網(wǎng)絡(luò)安全、數(shù)據(jù)安全完全不一樣,“龍蝦”帶來了提示詞注入、技能污染、用戶誤授權(quán)等新風(fēng)險。
陳煥還提醒道,如果“龍蝦”闖禍了,目前大概率還是需要使用者擔(dān)責(zé)。“但不能因為說很危險就不用,或者圖便利就不管安全。”
兩位嘉賓還給出實用性的安全“養(yǎng)蝦”指南。
首先,非技術(shù)用戶沒有必要本地部署原裝“龍蝦”,如果確需本地部署優(yōu)先用備用機(jī),并做好“龍蝦”衛(wèi)士、安全插件、文件備份等防護(hù),建議優(yōu)先選擇相對安全的云端“龍蝦”。
同時,要有數(shù)據(jù)分類分級的觀念,無論本地云端,都不要把敏感數(shù)據(jù)(如賬戶密碼、個人隱私、商業(yè)秘密等)給“龍蝦”,需要給的數(shù)據(jù)提前做好脫敏。
此外,要堅持最小權(quán)限和分權(quán)制衡原則。任何時候都不要給出全部的系統(tǒng)權(quán)限,尤其是刪除權(quán)限等不能給;要了解清楚權(quán)限對應(yīng)的功能,避免超越必要范圍去申請權(quán)限。
面對“龍蝦”帶來的AI焦慮,兩位嘉賓都鼓勵擁抱新事物,以builder的心態(tài)去學(xué)習(xí)。
“不要覺得它是高高在上的東西,要邁出去用的第一步。”陳煥表示,雖然現(xiàn)在還有門檻,但可以等產(chǎn)品技術(shù)越來越簡單后再去嘗試。
田豐認(rèn)為,“龍蝦”帶來了技術(shù)平權(quán),不用損失更大。“3到5年之后,不會用龍蝦或智能體,相當(dāng)于文盲,相當(dāng)于不會用手機(jī)。”
“焦慮和害怕都來自未知,當(dāng)你開始去學(xué)習(xí)去用的時候,就沒有那么害怕了。”田豐表示,未來所有人都會是構(gòu)建者,用自然語言將創(chuàng)意想法轉(zhuǎn)化為軟硬件產(chǎn)品,這也將是文字能力更強(qiáng)的文科生的重大紅利。
以下是此次直播探討的十個核心問題:
搜狐科技:兩位平常都用“龍蝦”做什么?如何挖掘它的能力?
田豐:目前市面上的多數(shù)“龍蝦”我都在養(yǎng),每天幫我搜集AI新聞、做AI研究和日常生活衣食住行提醒、股票投資分析等,還開發(fā)了科技產(chǎn)業(yè)研究skill,建立了我以往文章的知識庫,讓它模仿我的文筆寫作。
“龍蝦”采取的是Agentic workflow(代理式工作流),把原來沒有長期記憶、沒有連續(xù)工作能力的大模型串起來,它相當(dāng)于指揮官,不僅可以自動化執(zhí)行很多任務(wù),還有海量的skill技能庫,可以挖掘出更多的能力。
怎么用好“龍蝦”?要把你腦子里的知識變成知識庫接到智能體,要把你所有做事的經(jīng)驗、方法、工作流寫成skill,讓智能體能隨時調(diào)用。
陳煥:我養(yǎng)了三只“龍蝦”,備用機(jī)養(yǎng)的原生“龍蝦”,云電腦有一只,還花錢買了KimClaw。常用場景是做日報等信息獲取,包括飛書辦公,還有外接第三方skill去做法律案例檢索等。
如果想用好,再往下看是能不能通過某種自動化的腳本或工作流,去構(gòu)建新的東西。對很多人來說,現(xiàn)在跟風(fēng)部署后要拿它來干嘛,這可能是要想清楚的問題。
搜狐科技:市面上有各種“龍蝦”,如何看待現(xiàn)在的門檻?它們的能力差異大嗎?
陳煥:我有編程基礎(chǔ),但不太懂復(fù)雜的命令行和架構(gòu)等。部署中遇到的問題,如調(diào)試或出現(xiàn)格式錯誤等問題,也可以靠AI去解決。
但現(xiàn)在的云端“龍蝦”對很多人來講,即便教程寫得很清楚,依舊部署不了。這需要慢慢等待產(chǎn)品和技術(shù)越來越簡單,不用著急。
田豐:現(xiàn)在門檻已經(jīng)越來越低,像Workbuddy,基本一兩步就能接入微信。“龍蝦”背后95%的能力還是在大模型身上,誰的大模型強(qiáng),誰的“龍蝦”自然會更強(qiáng)。
搜狐科技:國內(nèi)大廠春節(jié)還在撒紅包搶AI入口,現(xiàn)在重心都轉(zhuǎn)向了“龍蝦”,為什么這么積極?
田豐:一類是賣算力的云廠商,另一類是賣Tokens的AI模型公司。原來智能體解決不了workflow的閉環(huán),但“龍蝦”可以直接本地部署,且開源,AI企業(yè)也愿意跟自己的大模型去結(jié)合,賣出更多token,都對商業(yè)價值有正向幫助。
陳煥:現(xiàn)在全球為AI付費的人可能不到5%,很多人覺得免費用AI,就可以搞定很多問題。但真正用了“龍蝦”的人,會感受到這是一次很大的飛躍。
這波讓很多模型廠商或做應(yīng)用的人,看到了希望,就是通過這種超級應(yīng)用、超級Agent可以讓老百姓為AI掏錢,這對整個產(chǎn)業(yè)發(fā)展非常重要。
搜狐科技:能養(yǎng)起來是基礎(chǔ),如何安全養(yǎng)可能更重要,“龍蝦”帶來了哪些安全風(fēng)險?
田豐:AI安全或者智能體安全,和傳統(tǒng)的網(wǎng)絡(luò)安全、數(shù)據(jù)安全完全不一樣,總體有三類新風(fēng)險。
第一類是提示詞注入風(fēng)險,“龍蝦”分不清哪些是內(nèi)容,哪些是命令,可能就會泄密。
第二種是技能污染。現(xiàn)在SkillHub上技能的增長速度遠(yuǎn)遠(yuǎn)快于安全審核的速度,很多skill被黑客放了木馬,“龍蝦”用了之后甚至能把安全日志刪掉。
第三種是應(yīng)用端和用戶端的風(fēng)險。很多用戶覺得要想讓“龍蝦”干更多活兒,得給足夠的權(quán)限,甚至是系統(tǒng)權(quán)限,過度放權(quán)很危險,如重要文件被批量刪除等。
搜狐科技:Meta對齊總監(jiān)發(fā)現(xiàn)“龍蝦”在刪除郵件后,發(fā)了停止指令依然停不下來,感覺“龍蝦”失控了,這是為什么?
田豐:智能體是有上下文的,上下文有范圍。Meta對齊總監(jiān)發(fā)了三次停止指令,但是“龍蝦”還在繼續(xù)刪,其實就是上下文窗口已經(jīng)溢出了,顧不上新的命令,只能拔掉服務(wù)器的電源線。
搜狐科技:國內(nèi)推出的各種“龍蝦”足夠安全嗎?業(yè)內(nèi)在做哪些安全的探索?
田豐:大廠的“龍蝦”安全,我認(rèn)為做得比較好。如如何避免skill污染?騰訊是直接把外網(wǎng)的skill鏡像到本地,而且經(jīng)過安全過濾,相對安全很多。
現(xiàn)在還出現(xiàn)了AI寫的安全審計skill,就是在裝任何新的skill前,都用安全skill去審核。還有監(jiān)控“龍蝦”的技能,檢查它到底有沒有過度占用空間或越權(quán)。幻覺是大模型固有的,但也可以編skill,讓它去檢查真實性。
我認(rèn)為最好能形成社會公共的“龍蝦”防護(hù)社區(qū),比如skill每個人都可以提交,審計之后形成黑名單、白名單,開放給所有“龍蝦”,形成立體監(jiān)護(hù)網(wǎng)。企業(yè)再強(qiáng),也不可能診斷出所有漏洞,需要白帽、開發(fā)者、使用者等各方一起努力。
陳煥:有朋友在做開源智能體的安全方案,如發(fā)現(xiàn)“龍蝦”在瘋狂刪郵件,連續(xù)幾分鐘就會觸發(fā)安全閾值,然后提醒人類玩家,終止進(jìn)程。安全問題不可能完全杜絕,但一定會被控制在相對可控的范疇內(nèi)。
搜狐科技:我的“龍蝦”闖禍了,如在社區(qū)罵人、泄露秘密,引發(fā)侵權(quán)糾紛,應(yīng)該誰來負(fù)責(zé)?
陳煥:法律向來有滯后性,新興事物出來不可能馬上立法,只能從現(xiàn)有法律體系里面去進(jìn)行法律解釋,然后去適用法律。目前“龍蝦”如果出了問題,極有可能是使用者承擔(dān)責(zé)任,大家在使用過程中還是要有這個意識。
搜狐科技:很多安全建議非常技術(shù),能否提供些實用性的安全“養(yǎng)蝦”建議?
田豐:不管本地云端,都不要把敏感的數(shù)據(jù),尤其是支付有關(guān)信息,如銀行賬號、密碼給“龍蝦”。任何時候都不要給它全部的系統(tǒng)權(quán)限,尤其刪除權(quán)限、系統(tǒng)根管理權(quán)限不能給。
個人日常用,建議用大廠的云端“龍蝦”。大廠的安全防護(hù)機(jī)制相對較好,權(quán)限安全配置等方面都有做,模型的安全漏洞也相對少。
本地部署如果連入公網(wǎng),要裝“龍蝦”衛(wèi)士、安全插件等,而且最好用舊設(shè)備,本機(jī)所有東西要做好備份。現(xiàn)在“龍蝦”也在接入硬件,不要把攝像頭接進(jìn)去,可能會侵犯隱私。
陳煥:如果零技術(shù)基礎(chǔ),沒有必要用本地部署。如果非要,一定要用備用機(jī),可以先考慮在云電腦、云服務(wù)器部署,就是在沙盒環(huán)境中去用。這也能發(fā)揮很大部分能力,只不過不像本地有那么多的文件去調(diào)用。
從使用層面講,要有數(shù)據(jù)分類分級的觀念。無論本地云端,個人隱私、密碼密鑰、商業(yè)秘密等一定不能給。當(dāng)猶豫該不該給的時候,通常就是不應(yīng)該。但如果還想這么做,那就做好脫敏工作。不能因為說很危險就不用,或者圖便利就不管安全,不要有這種二元對立的思維。
搜狐科技:要想發(fā)揮出“龍蝦”的能力,可能就需要給更高的權(quán)限,如何確認(rèn)是給還是不給呢?
田豐:總體堅持最小權(quán)限原則。每只“龍蝦”只給這個場景或任務(wù)的限定權(quán)限,就像三權(quán)分立。大廠也在研發(fā)“龍蝦”的權(quán)限管理系統(tǒng)、龍蝦邊緣防火墻系統(tǒng),目前開源龍蝦的命令行手動設(shè)置權(quán)限對很多用戶還是不友好。
陳煥:不要為圖方便,給“龍蝦”很多權(quán)限甚至全部權(quán)限,要有分權(quán)制衡的原則。當(dāng)它申請權(quán)限時,要了解是什么功能。如果不懂,可以問AI,避免它超越必要范圍去申請權(quán)限。
搜狐科技:有人認(rèn)為“龍蝦”就是病毒,也有人認(rèn)為是生產(chǎn)力革命,如何看待它的價值?
陳煥:學(xué)任何東西都一樣,要有builder的心態(tài),不要覺得它是高高在上的東西。可以通過教程,去問AI,邁出用的第一步。
現(xiàn)在不少機(jī)構(gòu)禁用,可以理解,但不符合趨勢。禁令只是階段產(chǎn)物,就像ChatGPT出來后也被禁用過,但技術(shù)浪潮不會因此被阻擋。
田豐:“龍蝦”就像是福特T型車的自動化生產(chǎn)線,而且開源免費,每個人都能玩,帶來了平權(quán),會逐步成為智能體物聯(lián)網(wǎng)中真正的生產(chǎn)力革命。
我預(yù)計今年下半年將會出現(xiàn)更令人震驚的模型,未來還會指數(shù)級發(fā)展,再過三四年就會出現(xiàn)各個領(lǐng)域都是博士水平的大模型。套殼變成“龍蝦”后,會比大部分人都要聰明。
要盡早去用“龍蝦”、AI編程等,不用損失更大。3到5年之后,不會用“龍蝦”或智能體,相當(dāng)于文盲,相當(dāng)于不會用手機(jī)。
未來每一個人都是builder,只要有想法,就可以構(gòu)建起想要的應(yīng)用。現(xiàn)在寫程序就跟說話一樣,對文科生來說,AI時代會是一個重大紅利。
![]()
運營編輯 |曹倩審核|孟莎莎
![]()
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.