文 | 音樂先聲
最近,幾件頗具象征意味的事件接連發生。
一邊是娛樂公司開始正式把AI推向臺前,哇唧唧哇發布九周年家族曲《āi ái ǎi ài》AIMV,樂華娛樂發布了首支AI驅動女團HeyDream,華納音樂推出AI偶像吳愛花,AI不再只是幕后工具,而是深入參與形象設定、內容生成和運營表達。另一邊,以大頭針為代表的AI歌手在短視頻備受歡迎,AI歌曲也開始霸榜國內音樂平臺,有人用AI換臉模仿K-pop歌手演唱逼真到讓人難辨真假,這些都放大了技術對內容真實性邊界的沖擊。
從AI歌曲頻繁進入流量中心,到AI歌手、AI演員陸續走向臺前,一個更清晰的現實正在浮現:AI正在重塑大眾對于真實表演、真人創作乃至藝人存在感的基本認知。過去音樂產業賴以成立的那套價值判斷——誰在唱、誰在創作、誰在被看見——都開始被重新定義。
當技術演進的速度,已經遠遠快過行業和用戶更新認知的節奏,一個更值得追問的問題也隨之出現:在AI持續改寫內容生產邏輯之后,音樂產業真正稀缺的價值,究竟還剩下什么?
AI音樂簡史
今天談論AI音樂,大家常帶著驟然爆發的印象,仿佛它是在大模型時代才憑空出現的產物。
事實上,如果從最早的計算機作曲實驗算起,AI音樂這條線索幾乎已經延伸了近七十年。前半程緩慢、笨拙、時斷時續,后半程在算力、數據與模型的共振中驟然加速,最終在極短時間內完成了從邊緣實驗到產業現實的跨越。
上世紀50年代,計算機還遠未進入大眾生活,音樂與算法之間的聯結卻已經悄然開始。1956年,洛杉磯KCOP電視臺的一檔名為《Adventure Tomorrow》(明日冒險)的科學紀錄片節目中,一位歌手對著鏡頭唱起了一首情歌,歌頌對象不是某位姑娘,而是一臺名為Datatron 205的計算機。
這首歌的真正“作曲家”,是兩位工程師Martin L. Klein和Douglas Bolitho。他們的動機非常有意思,曾說:“我們想證明,如果人類能以每小時一首歌的速度創作低質量的‘流行音樂’,那么我們用一臺計算機,也能寫出同樣爛的歌,而且更快。”
這句冷幽默,放到今天看,竟有一種預言般的意味,觸及了AI音樂最早也最本質的一層問題:機器進入音樂,并沒有從“理解美”開始,而是從拆解規則開始的。
同年,化學博士Lejaren Hiller突然意識到,作曲和化學研究,本質上都是在嚴格的規則體系下進行創造性的選擇。于是,他聯合數學家Leonard Isaacson將作曲規則編寫成程序,讓ILLIAC I計算機按照指令,創作出一首弦樂四重奏《Illiac Suite》。
如今從歷史的角度聽《Illiac Suite》,會發現這個組曲集合了許多具有共同調性、但彼此封閉的器樂作品,恰恰暴露了早期計算機作曲的本質——只能忠實地執行預設的指令,將不同規則下的產物機械地并置。
幾十年后,類似的嘗試開始逐漸走出實驗室。1997年前后,美國作曲家David Cope開發的EMI(Experiments in Musical Intelligence)系統能夠自動模仿“類似巴赫或莫扎特風格”的音樂。甚至在一場盲聽測試里,EMI作品足以讓專業聽眾判定為巴赫真作,反倒把巴赫本人的作品打成了“拙劣偽造”。
當時圍繞EMI的爭論,如今聽來有一種驚人的熟悉感。有人認為,這根本算不上創作,屬于作弊;有人擔心,它會摧毀作曲家的地位,使創作勞動失去稀缺性;也有人堅持,機器不可能擁有靈魂,只是空洞的模仿。
三種聲音,完整預演了今天圍繞生成式AI展開的公共辯論。時代換了,模型換了,措辭換了,但問題本身并沒有變。
后來的結局也很有意思,因為當時爭議太大,David Cope直接刪除了EMI的音樂數據庫。他認為,如果音樂可以無限復制,它就會被貶值。
但歷史的吊詭之處,就在這里。
Cope試圖阻止的,恰恰成為后來三十年AI音樂公司不斷重復的技術邏輯,學習既有音樂、訓練生成系統,再以新的形式產出音樂。作為最早的AI音樂模型,它在1990年代引發的問題沒有消失,只是被更大的數據、更強的模型和更成熟的商業體系放大了。
到了2010年代,AI才真正開始觸碰現代音樂產業的應用領域。
2016年,索尼計算機科學實驗室通過學習13000份樂譜,試圖模仿披頭士的創作方式,創作了歌曲《Daddy’s Car》;2017年,美國網紅歌手Taryn Southern在YouTube上傳了她和AI共創的單曲《Break Free》,谷歌Magenta項目也證實啟動。雖然這一階段的AI音樂仍然帶著明顯的實驗屬性,但技術路徑已經清晰,共同拉開了一個人機共創音樂新時代的序幕。
在過去近七十年的時間里,AI音樂的進步大多以十年、幾十年為單位,緩慢推進。真正意義上的變化,發生在最近這半年。
從2025年9月至今,隨著以Suno V5為代表的AI音樂模型的能力持續進化,短短數月之間,AI音樂幾乎完成了一次全鏈路層面的躍遷,即從以演示為主的demo形態,迅速走向可商業使用、可規模化部署,并逐步被產業接納的完整能力體系。
這也是為什么今天AI音樂帶給行業的震感,和過去幾十年的任何一次技術進展都不完全相同。很多時候,人類習慣先建立判斷,再面對變化,但在AI時代,變化的速度似乎讓順序被顛倒了,變化先發生,判斷只能不斷被迫修正。
AI狂飆,什么正在升值?
過去很長時間里,音樂行業建立在技術稀缺、資源主導的結構之上,一個完整作品的誕生,需要多個專業角色的協作。
我們曾在《音樂圈的第一批AI受害者出現了》里提到,近兩年,那些曾撐起音樂工業化生產的高精密專業工具,正接連上演著令人唏噓的退場與轉向。
數據顯示,2025年,使用生成式AI音樂的用戶已經占到全體音樂創作者的10%,付費使用AI創作的人數更是直接翻了一倍;與之形成對照的,是2024到2025年,傳統音樂軟件的購買人數連續兩年下滑,對應的從業者收入也同步縮水。
當AI能一鍵完成編曲、錄音棚模擬、修音、混音乃至母帶處理的全流程,這些曾需要從業者熬上數年才能磨透的稀缺技能,正在飛速褪去它的稀缺光環,從入行必備的核心競爭力變成了行業通用的基礎設施。
同步在快速貶值的,還有另一類曾在行業里被奉為硬通貨的資金與人脈。
就像是幾百年前,一手好字是文人墨客的立身之本,而在電腦普及的今天,打字成了人人具備的基本能力,內容的靈魂終究回歸到了創意和才華本身。
AI可以生成無數正確答案,但真正決定選擇哪一個的,是長期積累的音樂審美、清晰的創作語境、穩定的現場能力,以及圍繞音樂建立起來的聽眾關系。這些,都會獲得越來越高的溢價。
基于以上,我們或許可以這么理解AI,它只是給音樂產業換了一套更高效的生產工具,淘汰了一批本就平庸的人和公司。
不可避免的是,從創作到分發、消費,從角色定義到IP打造、商業邏輯,每一個環節的邊界都在被徹底重塑。一味拍板淘汰論,多少有點顯得像冷眼旁觀的陳述了。
我們正在目睹的是,音樂產業不再沿著舊地圖運行,但AI不是從業者的對立面。
就像早年黑膠存儲決定了一首歌的時長,短視頻開始讓歌曲的時間越來越短,當進入AI時代,必然會衍生出全新的內容形式和消費場景。而作品與場景之間的邊界會越來越松,音樂開始像水一樣,順著每個內容容器的形狀流動,從而讓分發場景的邊界被無限拓寬。
與此同時,很多角色概念都會被重新定義。首先變化最大的是詞曲作者,AI作為輔助,誰更知道自己要什么,誰就更可能從工具里得到更好的結果。創作會成為決定內容差異、用戶心智與商業轉化的源頭變量,利潤天花板、護城河也由此建立。
歌手這一概念也在松動。過去,稀缺嗓音、身體條件、訓練體系和舞臺人格構成核心資產,未來,這些依然重要,但不再是唯一通道。
無論是華納音樂推出的AI虛擬偶像“吳愛花”,還是在下沉市場爆火的AI歌手“大頭針”,都說明當音色、人設與內容節奏可以被穩定生產,至少從聽覺層面,聽眾對歌手的認知,正從“一個人”滑向“一個可持續被消費的聲音人格”。
從作品層面看,音質、抓耳、傳唱度會成為最基本的起跑線,更多決定一首歌上限的,在于創作者能否基于自身的審美判斷與經驗積累,通過AI把明確的藝術想法高效、精準地轉化為成熟作品。
這是AI也最容易被低估的一點。一旦意圖可以被低成本兌現,創作世界的競爭就不再是有沒有靈感,行業會更像一個由無數審美代理人構成的市場,技術負責完成,人的價值回到選擇。
或許,AI會終結我們過去理解音樂產業的很多前提。
創作、發現、消費、感動,這是音樂運作的四條底層線索,無論技術如何更迭,它們都是常數。其他一切,渠道、格式、工具、分發機制、平臺規則,只是在這些不變之上不斷重組。
音樂行業的錢,會流向哪里?
過去很長一段時間里,無論影視還是音樂行業,都大致遵循著一種相似的分配邏輯:資本掌握流量入口,入口影響收益分配,而分配進一步決定了誰更容易被看見。
當生成工具開始大規模降低制作門檻,這個秩序反而更陡峭了。
這也是AI時代最清醒也最不浪漫的一面。
以往內容工業的壁壘是資金、團隊和周期,未來這個市場的壁壘會更像一種審美上的統治力,門檻沒有消失,它只是從物理層遷移到了心智層。這是錢會流向哪里的第一個變量。
不過,相比影視,音樂行業的利潤邏輯并不完全建立在單一超級IP的爆發上,而會更接近一種更綿長、更隱秘的收益結構。影視行業的集中觀看時刻確實會驅動影劇綜游漫等多形態IP的開發,但本質大多仍是敘事和角色完成價值封頂,音樂則更依賴版權、聲線、人格與場景滲透,形成復利。
這種差異,本質上也意味著音樂產業的盈利正在發生變化,Spotify《Loud & Clear》顯示,2017—2025年,僅在Spotify上產生超過1000萬美元錄音和詞曲版稅的藝術家數量增加了700%;1000美元至100萬美元各收入檔的藝人數量增幅在220%到250%之間,流媒體平臺上音樂從業者的“中產階層”在持續、穩定地擴容。
有些意外的是,Spotify音樂業務全球營銷與政策負責人Sam Duboff表示,2025年,在Spotify年收入超100萬美元的藝人中,超過80%從未有歌曲進入過平臺全球日榜Top50,他們沒有爆款神曲,靠的是長期積累的穩定粉絲群。
![]()
圍繞這一基礎,音樂產業正在分化出兩條并行的變現路徑:一條是以版權分賬為核心的分發體系,依賴平臺與內容供給的規模化運轉;另一條則是以UGC與超級粉絲為驅動的生態體系,通過二創擴散、人聲授權與社群互動,放大傳播效率,并形成更高頻、更持續的價值回流。AI同時放大了它們,讓分發更集中、擴散更迅速,結構也因此變得更加極端。
因此,未來行業真正決定錢流向何處的,會流向場景滲透、資產掌控、心智占領、稀缺體驗四種能力,未來真正值得下注的,也是圍繞這四種核心能力展開的賽道。
第一類,是類似于影視行業中的3-5人的超級工作室(Super Studio)或創作小隊,在音樂行業則是更適合的超級音樂廠牌。理想狀態下,一個人具備審美判斷能力,懂詞曲創作、曲風把控,并洞察市場,同時構建IP敘事;一個懂編曲制作、AI音樂模型微調與音頻算法;一個人則掌握全球的內容平臺分發規則、多語言社媒運營與粉絲社區的生命周期管理。未必規模最大,但一定擁有最穩定的內容方法論。
第二類,可能是最穩定的賽道,AI版權與數據市場。圍繞傳統版權和AI生成內容的版權授權,采用以及聲音、風格、數字分身所對應的新型權利,全球討論已迅速升溫。
美國版權局近兩年的系列報告,已明確將“可版權性”、“訓練使用”與“數字復制體”拆分為獨立議題;田納西州簽署的《ELVIS Act》則進一步把“聲音”納入法律保護范圍。AI音樂相關的版權已經開始長出制度輪廓,未來內容產業的一部分利潤,會從臺前明星項目,轉移到后臺的權利基礎設施。
今年3月,AI 音頻創業公司 ElevenLabs通過用戶分享他們聲音的 AI 生成副本,設定其使用方式,并在付費訂閱者使用時獲得收益,已向創作者支付超過1100萬美元,現在正將該模式擴展到音樂領域。
第三類,是AI音樂IP。一個成熟的AI音樂IP,通常需要同時具備四個核心要素:清晰的人設定位、持續一致的聲音與視覺體系、可延展的世界觀內容結構,以及可反復沉淀的聽眾關系。
商業價值開發上,AI音樂IP和真人音樂IP在本質上并沒有脫離同一套邏輯,但在內容生產、形象延展、跨平臺運營和商業授權上,反而可能具備更高的可控性和可復制性。
最后一類,也是音樂產業最本質、最難替代的一類,就是線下演出與現場體驗。
未來的線下演出,將不再只是作品的現場演繹,而是IP敘事的線下延伸、粉絲與IP的深度交互場域,盡管擴張速度慢、運營效率遠低于數字內容,卻能憑借不可復制的在場感,獲得更高的長期商業溢價與抗周期價值。畢竟,越是合成AI、虛擬泛濫,越是真實在場變貴。
說到底,AI影響的更多是產量,在音樂幾百年的發展歷史里,記譜、十二平均律對音樂產業的影響,遠比今天的AI更深刻。
今天,我們再去討論AI音樂有沒有靈魂,不重要,人類如何對抗AI,也不重要,AI音樂的發展不只是技術史,它同時也是一部觀念史。
它正在倒逼整個行業重新回答,音樂里究竟什么才是最重要的。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.