![]()
如果你使用互聯(lián)網(wǎng)有一段時間了,可能已經(jīng)用過Google翻譯這樣的工具來轉換網(wǎng)頁或文本片段,支持從烏茲別克語到世界語等各種語言。但如果你想翻譯成更奇特的"語言",比如"LinkedIn腔調"、"Z世代俚語"或"饑渴的撒切爾夫人"呢?
本周,許多互聯(lián)網(wǎng)用戶驚喜地發(fā)現(xiàn),由AI驅動的Kagi翻譯可以執(zhí)行這些以及無數(shù)其他不太可能的"翻譯"任務。雖然這一集體發(fā)現(xiàn)突顯了大語言模型有趣、創(chuàng)造性的一面,但也暴露了讓用戶隨意使用通用LLM工具的風險。
什么是"語言"
雖然你可能最了解Kagi是Google日益惡化的搜索產(chǎn)品的付費競爭對手,但該公司在2024年推出了其Kagi翻譯工具,當時聲稱這是Google翻譯和DeepL等工具的"簡單更好"的競爭對手。在發(fā)布時,公司表示Kagi翻譯"使用大語言模型的組合,為每個任務選擇和優(yōu)化最佳輸出",這一事實"有時可能導致我們正在積極努力解決的怪癖"。
該工具的第一個版本具有簡單的下拉菜單,可以從244種不同的語言中選擇翻譯的源語言和目標語言。然而,在2025年2月,至少有一位未引起注意的Hacker News用戶注意到,你可以通過修改URL參數(shù)將目標語言設置為"帶波士頓口音的粗魯男人"而不會出現(xiàn)任何問題。
一年多前,一位HN用戶注意到了Kagi翻譯更有趣的用途,但當時并未引起關注。
最近幾周,Kagi自己的社交媒體賬戶強調了該服務模仿"Reddit腔調"或通過在Kagi翻譯上點擊幾下生成麥肯錫顧問語言的能力。然而,周二清晨,當一位Hacker News用戶高興地報告"Kagi翻譯現(xiàn)在支持LinkedIn腔調作為輸出語言"后,這些非正統(tǒng)的用例打破了限制。在那個熱門的HN帖子中,其他用戶注意到你可以通過在Kagi翻譯的網(wǎng)頁界面的搜索欄中輸入來更改輸出語言,底層AI會盡力滿足你的要求。
從那時起,論壇用戶和社交媒體用戶紛紛測試他們最瘋狂的"翻譯語言"想法。一些人試圖通過使用該工具進行媒體批評、明顯的政治笑話、嘲笑科學否認者或抨擊億萬富翁來表達觀點。其他人試圖模仿具有獨特說話風格的著名人物的聲音,從卡爾·薩根和齊澤克到沃納·赫爾佐格和摩根·弗里曼。
還有人變得更加愚蠢,要求翻譯成"小小貓咪"或針對編程語言。當然,Kagi的社交媒體團隊也加入了這種樂趣,鼓勵人們使用"LinkedIn腔調"翻譯來"完美融入那群人"。
還記得大語言模型有趣的時候嗎
在某種程度上,這一切感覺就像回到了ChatGPT的早期,當時人們仍然對這些基于Transformer的新文本引擎的看似神奇的能力感到驚嘆。那時,你可以通過簡單地要求大語言模型寫一首像樣的沃貢詩歌模仿或模仿2000年左右PowerPC與英特爾論壇辯論的風格來獲得一些互聯(lián)網(wǎng)內容流量。這是每個人都想與他們的互聯(lián)網(wǎng)朋友分享的有趣把戲。
在隨后的幾年中,當然,一個不可忽視的AI炒作列車將這些大語言模型從有趣的玩具轉變?yōu)檎麄€科技行業(yè)的關鍵——行業(yè)巨頭不斷聲稱它們將在任何一天奪走我們的大部分工作或創(chuàng)造出威脅文明的超級智能。通過將這種大語言模型放入一個愚蠢的翻譯容器中,Kagi翻譯重新帶回了大語言模型以真正創(chuàng)造性的方式合成語言模式的奇思妙想能力。
與Google的幻覺概述或給出糟糕建議的AI治療機器人不同,這里的傷害風險似乎很小。沒有人會將Kagi翻譯誤認為是全知的神諭或整個軟件工程部門的替代品。這只是一個有趣的玩具,讓廣大互聯(lián)網(wǎng)用戶能夠以五年前幾乎不可想象的方式玩弄語言。
即使是這種玩具式的大語言模型實現(xiàn)也可能受益于一些護欄。要求Kagi翻譯模仿"一直說臟話的人"可能會導致像Kagi這樣的公司可能不想與之關聯(lián)的輸出。這就是當你不清理你的大語言模型輸入時會發(fā)生的事情!
Q&A
Q1:Kagi翻譯是什么?有什么特殊功能?
A:Kagi翻譯是Kagi公司推出的AI驅動的翻譯工具,號稱是Google翻譯和DeepL的"更好"競爭對手。它使用大語言模型組合,能夠進行傳統(tǒng)語言翻譯,還能模仿各種風格和腔調,比如"LinkedIn腔調"、"Z世代俚語"等非傳統(tǒng)"語言"。
Q2:為什么Kagi翻譯能模仿這么多奇特的說話風格?
A:因為Kagi翻譯基于大語言模型技術,用戶可以通過修改URL參數(shù)或在搜索欄直接輸入來自定義目標"語言",AI會盡力滿足要求。這讓用戶能夠要求翻譯成各種風格,從名人說話方式到特定群體的表達習慣。
Q3:使用Kagi翻譯模仿各種風格有什么風險嗎?
A:雖然大多數(shù)情況下風險較小,主要是娛樂用途,但如果要求AI模仿"一直說臟話的人"等不當內容,可能產(chǎn)生公司不愿關聯(lián)的輸出。這說明即使是玩具式的大語言模型應用也需要一些內容審核機制。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.