“今年6月,初音未來要來上海開演唱會啦!”這消息如同一枚深水炸彈,引爆了無數粉絲的熱情,盡管幾百元到一千多元的票價并不便宜,但身邊的好多朋友都已經開啟“買買買”模式了。其實,明星來魔都開唱沒什么好稀奇的,畢竟連著名的雨神都已經來過好幾回了,稀奇的是這位明星她不是真人,而是一位虛擬偶像歌手——她的一切,從形象、歌聲到舞蹈,全部是通過計算機技術制作出來的,簡直妥妥的黑科技。人們先創造了她動聽的聲音,然后賦予了她可愛的形象,現在又打破次元的壁壘,將她活靈活現地帶到了舞臺上,帶到了觀眾面前。如此神奇的一切究竟是怎樣發生的呢?讓我們從頭講起。
動聽的聲音——歌聲合成之路
唱歌是歌手的本職工作,即便你是虛擬的,不會唱歌也干不了這一行。一首歌,簡單來說就是由“音樂”和“人聲”兩部分組合而成的,其中“音樂”是由樂器演奏出來的,而“人聲”自然是由人唱出來的。不過,初音未來不是真人,她的聲音是人工合成出來的。那么,聲音又是如何被創造出來的呢?
無論什么聲音,它們都具備相同的本質——機械波。既然所有的聲音都是波,那為什么聽起來完全不一樣呢?從物理學上看,所有的聲波都是由多個簡諧振動的波疊加而成的,而每個簡諧振動都只包含三個物理量:頻率、振幅和相位。換句話說,無數個頻率、振幅和相位不同的簡諧波疊加起來,就形成了我們所聽到的各種各樣的聲音。
于是,有些物理學得特別好的音樂家就開始動心思了,既然聲音都是由這樣一些基本元素所組成的,那么我能不能利用這一原理人工合成出聲音呢?這個主意聽起來很不錯,因為早在19世紀,人類就已經發明了電子揚聲器,可以將波動的電信號轉化成機械振動來發出聲音,而操縱電信號的頻率、振幅和相位非常容易,于是,能夠人工合成聲音的“電子合成器”也就應運而生了。早期的電子合成器,是采用幾個電子振蕩器來產生變化的電流,然后通過調制器對電信號波動的頻率、振幅和相位進行動態控制,最后再將這些波疊加起來,通過揚聲器變成聲音。
這種從聲音本質入手的思路固然不錯,不過人類的力量畢竟有限,要知道,我們所聽到的真實世界的聲音都是由非常多的簡諧波以非常復雜的形式疊加而成的,而電子合成器只有寥寥幾個振蕩器,所能夠產生的聲音實在是太簡單了,聽起來完全不像任何一種真實的樂器,更加不可能合成人聲了。于是,音樂家們有了更高的追求,他們夢想著有一天能夠人工合成出各種真實的聲音。
既然聲音的本源對我們來說還是過于復雜了,那不妨換一個思路試試。所有的聲音無論如何發出的,最終都要進入耳朵被大腦所解析,那么我們可以從人的聽感入手,看看聲音是如何構成的。對于音樂和歌聲,我們能感知到的大體上有三個要素:音高、響度和音色。音高,就是這個音是Do、Re還是Mi;響度,當然是這個聲音聽上去有多響;至于音色,我們只能說它是一個集合概念,代表一種聲音的基本特性,比如說這聲音是鋼琴、小提琴,或是鄧紫棋、古巨基。在這三個要素中,音高和頻率相關,響度和振幅相關,這兩者都很容易控制,就剩下最復雜的“音色”,它包含的要素太多了,怎么辦呢?
這時,有人想到,我們可以把真實樂器的聲音,比如用鋼琴彈一個Do,錄下來,作為一個樣本存起來,然后當我要發出Mi的聲音時,把剛才的樣本拿出來,用處理器給它升個調,再放出來不就行了嗎?我們在卡拉OK里面唱不上去的時候可以把伴奏降幾個調,就是這么玩的對吧!這種方法就是“采樣合成”,只要有高質量、大規模的采樣、優秀的采樣合成算法和數字處理器,音樂家就可以完全使用電子合成器來制作音樂,效果相當棒。如今,隨著計算機處理能力的提高,個人電腦已經完全可以勝任聲音合成的工作,因此電子合成器也由專用硬件逐步變成了軟件,甚至iPhone上的一個App就可以媲美專業合成器的效果,還真的有一些音樂家用幾臺iPhone和iPad組成樂隊來表演呢。
采樣合成技術的普及大大降低了音樂制作的門檻,為一些喜愛音樂創作但手頭又不是很寬裕,或者是自己不太會演奏樂器的人打開了通往新世界的大門。可是合成器只能用來制作音樂,還不能制作出人的歌聲,這顯然還不夠酷——要是連歌聲也能合成就好了!事實上,歌聲和樂器的聲音并沒有太大區別,在采樣合成技術已經十分成熟的背景下,合成歌聲并不存在根本性的技術障礙。盡管如此,合成歌聲還是比合成樂器的聲音要困難得多,主要是因為歌聲比樂器的聲音多了一個要素——歌詞,這依賴于語音合成技術,當然還有其他一些難點,例如唱法、表情,以及音和音之間的自然銜接等等。
在語音合成方面,日本人民又具備先天優勢了,這是因為和其他大多數語言相比,日語的發音體系相對簡單很多。2004年,鼎鼎大名的日本YAMAHA公司發布了世界上第一款歌聲合成軟件,名叫Vocaloid。在這款軟件中,只要輸入歌詞和旋律,就可以自動唱出歌來。從本質上來看,Vocaloid也是一個采樣合成系統,事先將真人的語音錄制成包含各種輔音、元音的切片并制作成“歌聲庫”,軟件按照歌詞從歌聲庫中挑選合適的采樣切片,然后再根據旋律和其他參數合成出歌聲。掃平了歌聲合成的障礙,虛擬歌手也就呼之欲出了。
初音未來——給“軟件”穿上“偶像”的外衣
Vocaloid本身只是一個引擎,而歌聲庫才是虛擬歌手的靈魂。為了讓Vocaloid擁有更多的歌聲庫,YAMAHA將歌聲庫的開發工作授權給其他合作伙伴來完成,自己主要負責開發和改進Vocaloid引擎本身。最早參與合作開發歌聲庫的兩家公司分別是英國的ZERO-G和日本的Crypton Future Media(簡稱Crypton),前者主要負責英語歌聲庫的開發,而后者則負責日語歌聲庫的開發,我們今天的主角初音未來也正是出自Crypton之手。
初音未來誕生于2007年,軟件的包裝盒上印著一枚大大的動漫美少女形象,綠色的長發和電子氣息濃郁的服裝十分搶眼。其實,Crypton早在2004年就推出過MEIKO和KAITO兩款歌聲庫,它們的包裝盒上也使用了動漫形象,在當時的DTM軟件市場上也算賣得不錯的。從初音未來開始,Crypton在MEIKO和KAITO的基礎上調整了產品策略,高調地打出了“虛擬偶像”牌,不僅人物形象的設計提升了一個檔次,而且還給人物賦予了豐滿完整的設定。對于音樂愛好者來說,你不是在用軟件制作歌曲,而是讓一個活靈活現的虛擬歌手唱歌給你聽,這無疑令動漫迷們心動不已。實際上,初音未來的歌聲并不能算是很真實,里面透著一股十分濃重的電子味兒,但Crypton打的本來就不是真實牌——一個虛擬偶像,應該有她自己獨具特色的聲音。為初音未來獻聲的是日本動漫聲優藤田咲(讀作“笑”),當時的她在聲優界可謂是默默無聞,事實證明Crypton的這一招走得十分明智,因為如果起用非常出名的聲優或歌手來獻聲,她本人的光環就會喧賓奪主,誰還會去關注你設定出來的這個虛擬的形象呢?
初音未來問世的第一年就賣出了4萬套,大大超出了Crypton自己做出的1000套的預期。初音未來的走紅,和Crypton對虛擬偶像的運營密不可分。首先,Crypton鼓勵大家用初音未來進行二次創作,這里的創作不僅限于歌曲,還包括使用初音未來的形象繪畫和制作動畫。為此,Crypton專門設立了一個網站供愛好者們發布和交流自己的作品,還在“Niconico動畫”等著名視頻投稿網站上設立了專門的頻道,支持并參與各大動漫展會和相關的同人創作活動。
引爆初音未來人氣的導火索,是在僅僅發售5天之后,出現在Niconico動畫上的一段視頻,內容是Q版的初音未來手里拿著一根大蔥,邊甩邊唱一首旋律十分洗腦的芬蘭民歌《伊娃的波爾卡》(Ievan Polkka)。這段視頻和這首歌曲立刻通過網絡傳遍了全世界,在中國,粉絲們給這首歌起名叫“甩蔥歌”,直到現在你還能在電視上、超市里,甚至是大媽的廣場舞里面聽到這首歌。隨后,很多業余音樂愛好者開始用初音未來創作歌曲,因為請這樣一位超萌的偶像為自己的作品演唱不但價格不貴,而且自己動手制作歌聲還別有一番樂趣。再后來,一些專業的音樂制作人也加入到Vocaloid大軍當中,為初音未來打造個人專輯,Crypton也為此成立了一個唱片公司,專門用來發行Vocaloid制作的歌曲。2010年,精選集《EXIT TUNES PRESENTS Vocalogenesis feat.初音未來》奪得日本ORICON音樂公信榜周榜單冠軍,這在日本音樂史上可謂是空前的紀錄,見證了虛擬偶像已經不再屬于動漫亞文化的小圈子,而是逐步演變成了一種新的大眾文化。

初音未來的走紅讓公眾意識到虛擬偶像的力量,同時也讓音樂家們見識了Vocaloid引擎的實力。借助初音未來的成功,Crypton又相繼推出了虛擬歌手2號“鏡音鈴/連”和虛擬歌手3號“巡音流歌”。除ZERO-G和Crypton兩大元老之外,其他公司也紛紛加入到Vocaloid歌聲庫的開發陣營中來,目前Vocaloid已經擁有超過50款歌聲庫,并且還在不斷擴充中,其中,上海禾念也于2012年和2013年先后制作并推出了中文歌聲庫“洛天依”和“言和”,在中文圈子里引爆了一次虛擬歌手熱潮。

“全息”投影——打破次元的壁壘
隨著初音未來在二次元領域人氣爆棚,粉絲們就盼望著他們心中的偶像有一天能夠穿越次元的壁壘,來到舞臺上開一場“真人”演唱會。2009年,在日本埼玉體育館舉行的Animelo夏季動漫演唱會上,初音未來第一次作為嘉賓登臺演出。盡管這次表演僅僅是在舞臺的大屏幕上播放了一段視頻而已,但還是贏得了觀眾們的熱烈支持。僅僅過了一個月之后,在初音未來誕生兩周年的紀念活動上,初音未來真的走出了大屏幕,以一種獨特的形式“站”在了舞臺上,實現了和作曲家、歌手的同臺表演,讓現場觀眾大呼過癮。
初音未來的3D形象和活靈活現的舞蹈動作離不開一個叫做“MikuMikuDance”的軟件。MikuMikuDance是一個個人制作的免費軟件,里面內置了初音未來的3D模型,用戶可以很容易地通過編輯指令讓初音未來做出各種舞蹈動作并輸出成動畫視頻。由于這款軟件不需要很高的計算機配置就可以運行,而且操作簡單、功能強大,因此用這款軟件制作的初音未來動畫視頻也開始大量涌現。

現在初音未來已經從2D變成了3D,而且還可以跳舞,那么如何讓她真正走出屏幕呢?在看似空蕩蕩的舞臺上投射出一個活動的虛擬形象,不禁讓人聯想到傳說中的“全息”技術,而粉絲們也一般將初音未來的表演稱為“全息投影”。實際上,真正的全息技術可沒那么簡單,初音未來能站在舞臺上,用的只是一些比較高級的障眼法,其中用得最多的是一種叫做“DILAD Screen”的屏幕來進行投影的技術。
DILAD Screen是由Kimoto公司開發的一種幾乎透明的聚酯投影膜,只要將聚酯膜貼在透明玻璃板(或者亞克力板)上,然后把玻璃板立在舞臺上,從背面用多臺高分辨率投影機來投影就可以了。由于DILAD Screen本身的透明度非常好,因此在適當的光線條件下,觀眾在一定距離之外幾乎是看不到這塊板的,自然就產生了初音未來憑空出現在舞臺上的錯覺。

除了DILAD Screen之外,初音未來的演出還采用過其他一些投影技術,例如2012年采用的Eyeliner投影。Eyeliner是通過上方的投影機將影像投射到地板上的反射材料上,再反射到一張傾斜放置的透明薄膜上形成影像。這種方式投射的影像立體感更強,而且由于角度的原因,薄膜相比DILAD Screen更不容易被觀眾察覺,因此效果也更好。


0 篇文章
如果覺得我的文章對您有用,請隨意打賞。你的支持將鼓勵我繼續創作!