人工智能和音樂的融合,是AI技術在音樂創作領域的新突破,這不再是音樂專業人士的固有權力,讓對音樂感興趣的人也能通過音樂AI創作專屬于自己的歌曲。音樂與人工智能技術的融合不僅對現有的音樂產業造成了一定影響,打破了作曲家進行音樂創作的固定模式,帶動整個音樂產業的快速發展。
打破傳統的流動音樂
二十年前,我們聽音樂是打開電視或收音機,聆聽DJ們為我們播放的歌,或者購買磁帶與CD自己播放,這樣的方式卻總讓我們受到限制,無法隨時隨地盡情享受喜歡的音樂。 而如今,我們面對的是浩如煙海的網絡云端音樂曲庫,隨時隨地便可鏈接我們想聽的歌。這便是科技發展給音樂體驗帶來的第一重改變:打破壁壘。
能夠自由流動的音樂為我們創造了無限可能,方便快捷的私人歌單讓我們每個人都成了DJ,甚至對不同歌曲的串聯與編輯,成了我們書寫故事的新方法。當音樂不再有限制,能夠在時空之間自由流動,才給我們創造了足夠充分的音樂享受。
AI改變創造音樂方式
AI音樂簡單理解就是人工智能創作音樂。早在1951年,英國計算機科學家艾倫·圖靈就曾使用機器錄制計算機生成的音樂,當時的計算機幾乎占滿整個實驗室。人工智能作曲的原理,是它先建立一個數據庫,它有很多首歌然后他們開發出來一個程序,歌曲主要是由旋律和和聲來構成的,而這個程序則可以在非常多的歌曲里面隨意截取其中的某一段音頻,它可以把這個旋律和和聲結構出來。自那以來,由AI或使用AI創作的音樂延續到今天。
AI的模式是從分析不同樂曲創作時的數據開始,通過強化學習,相關算法可以學習哪些特征和模式能夠創造出令人愉快的音樂,或者模仿某種類型的音樂,或者是通過以獨特的方式組合元素來創作新的數字音樂。
算法作曲的商業應用
算法源自古代波斯人對阿拉伯數字游戲的稱謂,意思是阿拉伯數字的運算法則。對音樂創作而言,廣義的算法指音樂要素及組織邏輯、運算法則、結構模型或規則系統,以及將算法思維與作曲思維中最小的決策單位對應后所形成的作曲技法模型與系列,也就是音樂的數理邏輯。這種對應關系一言以蔽之:凡作曲即有算法。如旋律的動機展開、重復、模進、轉調、逆行、倒影、隨機、模糊、音程或節奏壓擴,和聲與對位中的音高縱橫向排列組合、不諧和度、緊張度解決,配器中的音色組合,曲式中的并行、對置、對稱、回旋、奏鳴等等原則都屬于常規的作曲技法,都可以被描述為單一或組合的算法。
狹義上的算法作曲,可以簡單地形容為計算機自動作曲系統,在人適當的介入下,計算機就能自動生成音樂。所謂適當指的是,與傳統創作中作曲家對所創作的音樂作品中的變量擁有主導控制權不同,在自動作曲系統中,人只是規則設定者與反饋調試者。
很多科技公司正投資于AI創造或協助音樂人創作音樂的未來。例如:
①A.I. Duet - Google Magenta項目:Magenta項目同時也是谷歌大腦(Google Brain)的項目分支之一,Magenta 項目一直在探索機器學習在藝術創作中的作用,利用算法來生成歌曲、圖像,讓藝術家利用這些技術來啟發自己的創作。
② DeepBach項目,音樂界的 AlphaGo:DeepBach項目是一個開源的AI作曲項目,開發人員用巴赫創作的352部作品目來訓練DeepBach,在預定義音域內,將這些作品變調,創作出了2503首作品。其中,80%用來訓練DeepBach,而剩余20%用來驗證訓練成果。
③蜜蜂云科技音樂AI智能硬件:蜜蜂云科技音樂AI智能硬件,一款針對全民用戶的音樂智能創作硬件。用戶只需對音樂AI智能硬件下達歌曲類型指令,即可快速生成各種不同風格的創作曲目;利用音樂分揀技術還能將不同音種分離出來,能將其用不同的樂器彈奏出來例如:鋼琴彈奏轉吉他彈奏,還能轉化生成對應樂器的曲譜等。
AI智能歌唱模式演進
唱歌的三大要素是發音、節拍和音調,AI學會一首歌有兩種方法一是學習人唱的歌,聽人類歌手的原唱,這也是人類更喜歡的學唱歌方式,但機器通過這種方式來學唱歌需要需要判斷曲調,更容易有誤差。
二是看著曲譜學這首歌,直接從曲譜生成唱出來的音頻文件,這對人類來說比較復雜,但對機器來說更容易。之后,合成一段歌聲也有兩種方法。一種是單元拼接法,把單個的聲音找出來拼在一起。
如果不考慮音調,聲母和韻母湊成的單音節有400個左右,提前錄制好這400個音節的不同版本,長的短的、高音低音,湊成單元庫,再根據具體歌曲中的發音需求從單元庫中選取單元拼接起來。不過,這種方法可能不太流暢,會有一個字一個字蹦的感覺,出來的曲調過渡上會讓人感覺生硬。
另一種是參數合成法,用隱馬爾科夫模型來做。這種方法是從大量錄音數據中提取包括能量譜、時長、音高在內的聲學參數,通過聲學參數、聲碼器把音頻的波形重構出來。這種方法得出的結果有豐富的變化,可以創造出從來不存在的聲音,但是在聲碼器重構的過程中可能會引起音質損失。
而微軟小冰的唱歌技能就是基于參數合成法,從樂譜中采集發音、節拍、音調三大要素,分別對聲譜參數、節奏序列、音高軌跡用三個模型分別建模,用神經網絡預測參數,之后把這些參數通過聲碼器生成波形。之后的迭代中,也借助了模塊化的方式,并將三個模型合為一個,這樣合成歌聲的自然度和流暢度就得以提升了。
就像其他科學技術一樣,AI作曲的發展帶來的直觀益處之一就是作曲門檻的降低和作曲的大眾化。當普通個人用戶能夠借助一款音樂軟件創作歌曲時,我們能夠想象到那是一個與現在十分不同的時代。專業化作曲方面,AI也很可能能夠過濾掉許多技術二三流的作曲人,從而滿足日益增長的音樂市場需求。
結尾:
AI可以通過一個理論上無限大的數據庫和高速學習能力,制造出更加“完美”的藝術作品,但AI所有的“藝術創作”,本質上都是基于人類藝術家們的成果。所以,說到作曲,乃至拓展到藝術的各個領域,AI作為一種科技,其本質還是讓人類的生活變得更便捷,功能是服務性的。如果我們能夠在音樂領域恰當運用AI,正如在其他領域運用科技一樣,能夠大大提高生產效率,并協助人類進行創作上的突破。