我已經創建了一款無人機,希望將其用作航天器引擎bg,但現在它是單機的,我認為我會吸引一些喜歡的“立體化”方法。因為聲音本質上是科幻小說,所以我並不特別關注現實主義或為聲音著色(儘管也歡迎使用更逼真的方法)。如果您想讓他們聽一下,我正在使用的兩種聲音在這裡:
[soundcloud] adamaxbey / engine-2 [/ soundcloud] [soundcloud] adamaxbey / engine-3 [/ soundcloud]
我已經創建了一款無人機,希望將其用作航天器引擎bg,但現在它是單機的,我認為我會吸引一些喜歡的“立體化”方法。因為聲音本質上是科幻小說,所以我並不特別關注現實主義或為聲音著色(儘管也歡迎使用更逼真的方法)。如果您想讓他們聽一下,我正在使用的兩種聲音在這裡:
[soundcloud] adamaxbey / engine-2 [/ soundcloud] [soundcloud] adamaxbey / engine-3 [/ soundcloud]
我將+1 Filipe的評論並以此為基礎。如果您真的想通過在左側保留少量右側來增強它(反之亦然),請執行以下操作:
10-30毫秒的延遲和音量偏移利用聆聽的方式。在少於30毫秒(有時長達40毫秒,具體取決於來源和空間)的位置上聽到的聲音與來源不同,我們傾向於將其作為來源聲音的一部分進行關聯。換句話說,即使我們實際上聽到的是左側的迴聲,我們仍然將其定位在右側。如果它超過30-40毫秒,我們將開始在左側將其識別為迴聲或混響,並且不再將其定位為源聲音的一部分。
這是一種很棒的技術結合Filipe提到的內容,是因為您實際上創建了左右聲道交互作用的“空間”。使用延遲來更改空間的“大小”:較長的延遲等於較大的空間,較短的延遲等於較小的空間。使用輔助的增益來控制立體聲圖像的寬度:低增益等於寬立體聲圖像,高增益等於窄。
在環繞揚聲器中為立體聲文件的前後揚聲器之間創建相對自然的混響時,此效果也很好。只需在每個聲道的前後揚聲器之間應用以上內容,而不是在左右之間應用以上內容。在延遲窗口內,我們仍然將所有內容都定位為來自前端,但給人的印像是我們實際上在空間中。如果您的DSP即將用完,並且只需要一個小而簡單的“空間”,則它比混響插件要少很多資源。不一定總是最好的解決方案,但這是一個方便的技巧。我有一台Dolby DP570,可以輕鬆地即時檢查不同的折疊配置。
對於這種東西,我通常只是將文件切成兩半,然後將第二部分放在相鄰軌道上,將它們切割成相同的長度,然後將它們拖到立體聲軌道上。當素材具有節奏模式時,您必須要小心,除此之外,它還要快速且有效。
如果用於電影拍攝,我個人可能會做更多的事情,而不只是將其立體化,具體取決於您所聽到的上下文/位置/觀點-我會將Altiverb與真實的&非真實IR結合使用將無人機傳播到L / R並環繞到周圍。...但這完全取決於您希望聲音從&發出的位置,您希望脈衝的出現頻率...我可能會使用LowEnder來增強低頻的脈動& LFE...。
還要注意:如果您使用心理聲學技術及其電影,請記住您無法預測觀眾坐在哪裡...基於技術L&R之間的微妙時間偏移可能會完全失去了大多數觀眾的注意力,這就是為什麼更多離散處理/放置(例如@Filipe Chagas建議)會更好地工作的原因
我已經嘗試了一些上述處理並將其上傳,文件名包括提出該技術的用戶。明天我會再處理一些。我還提供了原始曲目的下載(至少幾個星期左右),以防你們中的一些人想弄成“立體聲”。[soundcloud] adamaxbey / engine-2-shaun-farley-aux- 10db [/ soundcloud] [soundcloud] adamaxbey / engine-2-chris-fonte [/ soundcloud] [soundcloud] adamaxbey / engine-2-filipe [/ soundcloud] [soundcloud] adamaxbey / engine-2-shaun-farley [/ soundcloud ] [soundcloud] adamaxbey / engine-2-tim70-wet [/ soundcloud]
[soundcloud] adamaxbey / engine-2-mattlange-grmshuffle [/ soundcloud]
[soundcloud] adamaxbey / engine-2-mattlange-grmfreeze [/ soundcloud]
延遲技巧始終是一個很好的選擇。有時我會使用採樣延遲或時間調節器,而不是常規延遲。
我非常喜歡複製單聲道音軌,左右平移兩個音軌,然後略微傾斜移動副本。我個人通常更喜歡調低音調,但是調高音色聽起來也不錯。
Waves Doubler之類的插件也很好用,實際上只是延遲和音高偏移。
有時候,除了音高偏移之外,我還會稍微拉伸一下副本。
使圖像具有有趣的牽引力。
此外,分別使兩側相等就可以解決問題。
可以在兩側各放一個短調製混響,最好具有不同的調製時間以進一步擴展圖像。
另外,以聲音更強勁為代價,使用具有大量搖攝抖動和快速紋理速率的顆粒處理可以將精彩的事情變成單聲道圖像。之後再打混響以使其平滑,聽起來立刻就不祥。
將單聲道音軌傳送到立體聲通道,左側通道延遲15 ms,右側通道延遲35 ms。
我是 SHEPPi的忠實擁護者,尤其是對於那些不會近距離和個人化的事情。
最重要的是,立體聲延遲和合唱可以使用效果很好。對於科幻類型的聲音,我傾向於去Native Instruments的Kore pack Deep Transformations(我可能有一個免費播放器安裝程序,而現在有兩個免費升級版本,現在已經不存在了),儘管它們往往難以置信他們的音樂天賦具有節奏感。
對我來說,擴展單聲道文件的最簡單方法是在Mid / Side域中進行處理。通常我會應用這樣的內容:
您可以通過使用一系列插件或僅使用一個插件來實現。我喜歡Fabfilter效果。它們允許分別處理中通道和側通道。 Voxengo的MSED,聲音延遲,Marvel GEQ和Overtone GEQ也非常有用。而且免費。
我前一段時間對此做了一個博客帖子。基本上,可以做的任何事情都可以改變一個聲道而不會使其聽起來像完全不同的聲音。在PT中,我通常將我的單聲道區域複製到兩個單聲道軌道上,以多種方式更改一個或兩個-延遲,音高偏移,EQ,前後半部翻轉,細微失真-然後將它們都拖到立體聲軌道上並合併。我還喜歡微妙的鑲邊設置,用於將單聲道變成立體聲或使立體聲更寬。
我傾向於發現相當多的“ stereoizer”插件會產生令人不愉快的階段性效果,但我嘗試過的一個插件是Voxengo Stereo Touch。
如果它是科幻小說,並且對它是否現實並不重要,請在2軌編輯器中將單聲道文件粘貼到空白立體聲文件中,然後反面。
無論如何都不現實,但范圍很廣。尤其是當它只是“無人機”聲音而“運動方向”不明顯時。
fonte
混音時,我嘗試使用Lake People ARTI ST-F10或Orban 245之類的硬件。非常方便的方式來生成某種立體聲。儘管您需要注意音頻的著色。但是有時它幾乎可以挽救生命,至少對於湖人來說,我可以說有可能從中製作IR並將其用於Altiverb。儘管我不確定這能否完整,準確地再現該過程,但我也不確定Orban。 (忘記了它要遵循的原理)
我一直想知道為什麼圍繞著提供類似服務的插件如此之少。
在編輯時,我通常更喜歡Filipe的方法。 (在可能的情況下),或者與Tim一起嘗試創建自然的聲音效果。但是,對於我們需要立體聲的舊環境,使用M / S技術也取得了合理的結果。但是除了Denis建議的以外,我會在旁通道使用短混響或迴聲。為了不給主信號上色,程序需要仔細選擇,通過在那里工作,我什至可以手動將單聲道音樂上混成5.1,然後才能使用Unwrap之類的東西。它只需要花費更多時間-但也可能很有趣!根據聲音及其用途,您可能不希望對此做太多實驗。
如果我所在的房間足夠多,並且生與死的正確組合(我可以節省時間),我覺得從一個揚聲器中播放聲音並扔掉Crown SASS會很有趣-將揚聲器離揚聲器幾英尺遠並記錄下來。在對距離,方向和體積進行了一些實驗之後,結果令人非常滿意。
我使用iZotope Ozone 4
我正在圖書館搜索一些校車聲音,然後遇到L和R版本,然後是立體聲。由於一個或另一個原因,我預覽了L版本並想了一下,所以我切換到了立體聲版本。我注意到,定相可以幫助我確定空間和深度或立體場。