【mix】ミックスダウン・テクニック66【down】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked:vvvvv:1000:512
↑冒頭にコレを二行重ねてスレ立てしておく
前スレ
【mix】 ミックスダウン・テクニック 65 【down】 [無断転載禁止]©2ch.net
http://egg.2ch.net/test/read.cgi/dtm/1492179257/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured >>365
そうか湿度だなサンクス
ここ数日の温度変化で低音の聴感かなり違う(リファレンスで)んだけどどっちに合わせよう
素直にエアコンつけて中間でいいか ミックスダウンスレでキチガイ婆が自演3連投とはキチガイ沙汰だな アメリカから見たら日本なんて湿気の塊だろうさ
ギターもアンプも本国で鳴らすよりしなしなだろうな 湿気の多いところと少ないところでそれぞれ録った音を聴き比べてみたいな
そんなに違うもんかねぇ・・・? >>370
紙コーンスピーカーなら確実に差がわかる
他は知らん アメリカってあれだけ広い国土でどこもかしこも日本より湿気少ないと思ってるのかな 世に出回っているCDの歪んだ音をプラグインだけで作るという実験を暇さえあればしてた
6年前は話にならんかったが今のアナログシミュはだいぶすごいぜ
ハイが落ちる歪み系を使えばかなり似せれるよ
softubeの真空管系は全部使える
あとslateのテープシミュレータもかなり使える
VSM3もいい線いってるけどコントロールが効かなくて歪みすぎるのが難点
プラグインだけでアマチュアもそこそこのクオリティ作れる時代になったな
でもやっぱりハードの解像度の高さにはどうしても勝てないようだ 簡単なbpmから1拍分(4分音符)の算出
60000/bpm=ms(ミリセカンド)
bpm/60=Freq(周波数)
プレイヤーはみんな知ってることだけどミックスしかしない人も覚えとかなきゃね プラグインで綺麗に汚してくれるやつ少ない
そういう歪みを言っている
派手になる歪みはwavesとかにいくらでもあるね >>377
そうですね…
常識ですが以外と知らない人も多いのかな?と思ってあえて書かせていただきました
すみませんでした >>374
bpm120だと周波数2になるけどこの2って何? >>379
追記:モジュレーションの周期やシンセとかで使いますよ >>374に単位書いてなかったのは不手際ですね
これまた申し訳ないです >>383
ああLFOか
あれって2Hzとかになるんだサンクス 初心者知識を一大事のように書き散らす自演の人の事か プレイヤーだろうがクリエイターだろうが初心者じゃなくても知らない人なんていくらでもいるだろう
耳で聴いて感覚で出来ちゃうような人はそもそも必要としていないと思う ディレイタイムでもモジュレーションでもカッチリ正確な数値にすると面白みが無い場合も多々ある
目分量も個性が出て良いもの 上の算出式を知ってる知らない扱いしてることにちょっとびっくりした
bpmの意味(1分あたりのビート数)さえ知ってれば計算方法はすぐわかるよね
算数苦手とか言ってる人でも、ちょっと線描いて絵にして考えれば、なんだそんなことかってなるレベル
時間(60秒)を1拍分に分割するか、拍数(bpm)を1秒分に分割するか、ってだけだよ 正直それを知らずに
ノブと聞いた感じの感覚でやってるプロのエンジニアの方がすごいやつ多いんじゃ そりゃ当たり前だけど、誰が結果を軽視したレスしてんの? 後からならなんとでも言える
意図的に出来るか出来ないか なろう小説で、bpmからmsを計算できない世界線に迷い込んだDAW初心者がbpm無双するファンタジーかよw モブ「bpmからmsの計算を!?」
主人公「また俺やっちゃいました?(^_^;」 先月のsound recordingでトニーマセラティがぶっちゃけてた
アウトボードは通すだけで8割役割を終えるらしい
ビルボードの常連がこの発言ってめっちゃ勉強になるなw >>348
t load k氏かな?
亀だけどMIX聴かせていただきました
音の輪郭がハッキリしてて定位感が強調された感じ?
ボーカルも真ん中にドッシリ構えてて全体のメリハリが素敵でした >>399
ビヨンセにボーカルにRS124使ってた
その他はUADめっちゃ使ってたよ
大切なソースにはハード使って他はプラグインで済ませてるっぽい メリハリをつけるって訳だ
帽子有名エンジニアも同じこと言ってたな
手持ちのアウトボードの優先順位を考えながらミックスするってさ >>398
ありがとうございます!
ボーカルを出しつつ
全体のノリも出るように
頑張りました! 高級食材だけ使って料理を作っても必ずしも美味くなるとは限らないってのと同じだね
素材の相性を考えてバランスをきちんと取れるようになるには経験やセンスが必要だけどなかなか難しい 少なくともお洒落帽子ではなくハゲ隠し帽子とかヒントをもらえたら
クリスロードアルジおじさん以外にはこの世に2人といないと思うの 今までやってたミックスが高音こもりがちで低音ばかり持ち上げていることに気づいた
もっとすっきりさせないと 多分初歩的な話すぎて、申し訳ないのですが、
ProToolsを使ってるんだけど、リバーブやディレイのエフェクトを、今の時代わざわざセンドつかってやる必要ってありますかね?
昔のCPUがきついPCとかなら1つのエフェクトを共有ってのはわかりますが、そうじゃ無い場合、たとえば全く同じ設定のリバーブを何個インサートに刺すのがめんどくせぇとかじゃ無い限り必要ないですよね?
なんかどこのサイトみてもリバーブはセンドにセットして、、とか書いてるからなんか別の理由があるのかなと思ったのですが、、 >>412
センドで送る場合、リバーブだけが立ち上がってるトラックがあるよね?そのリバーブのあとにEQかけたり、コンプかけたり、ゲートかけたりとそのリバーブ成分のみをいじることができる
逆に各楽器のトラックにインサートでリバーブ挿したら、そのあとにEQかけたり、コンプかけたらそのトラックの音色自体に影響を与えることになる
つまり、やりたい方向に合わせてインサートかセンドを選べば良いかと思うよ >>413
なるほどです。
エフェクト成分にだけ掛けたいとかの場合に使えると。たしかにそうですね!
ありがとうございます!! >>412
あとドライとウェットのツマミが別れてないリバーブをインサートで使うとリバーブ量はプラグイン内のドライ/ウェットで調節する事になるけど、リバーブ量増やす時にドライ音の音量も変わってしまう
なので結果フェーダーも動かさなきゃならない 水彩画でいうと最初っから水で薄めるか後で水でこすって滲ませるかの違い なんていうか、調べまわった挙句、ここもの説明が一番わかりやすかったです。
ご教授頂きありがとうございます。 急に申し訳ありません
この辺の板に星野源が現れていたとの噂が入り来ました
そんときの音源とかって残ってます? >>418
何年前の話だよw
みんなでミックス大会やって盛り上がったけどもう残ってないでしょ モノラルにするとリズムギターが消えるって本当ですか?
ってゆーか、狙ったの?(意外とマジ質問w) >>426
RchのギターをLchだけ聴いてんじゃねえの?
若しくは位相差でステレオに拡げたギターはLR混ぜたモノにすると小さくはなるけど L100%とR100%のトラックを同じフレーズで完全に同じタイミングで逆位相で鳴らすと
ステレオだと両方聞こえるけどモノラルにすると打ち消しあって消えてしまうという理屈・・・?
やったこと無いけどそんなこと出来るのかな 左右を足し算して2で割ってるだけだからな
足したらゼロになるように作ったら消えるさー ステレオイメージャーやステレオエンハンサーと呼ばれるエフェクトも原理的にはそういう風に位相をいじって左右に広げてたりするから、こういうエフェクトを多用してる場合もそうなりやすい。 恋のサビに入ると消えるらしいっす
AMラジオとかは、専用ミックスで対応してるのかな?って思って(自称)星野源さんに(意外とマジで)聞いてみた モノにしたら完全に消えるまでの逆位相ステレオはまず無いだろうけど、ステレオサンプリングのピアノやストリングスでも処理に困ることあるね
スマホのスピーカーとか一応ステレオだがあそこまでLR近いとステレオエフェクトやステレオ音色はやはり相当引っ込むし、ライブでのPA環境でも良く問題になる
PAでのモニターって基本モノラル環境だからエンジニアが解ってないとステレオサンプリングのデジピをLR一緒返してプレイヤーが聞こえない聞こえない言ってるw >>434
AMラジオやスマホみたいなモノ定位に近い再生環境が現存してる以上考慮した方が得策だと思うけどねw 今も設備やお店向けだとモノ環境多いし360度スピーカーなんかも普及してきてる
そもそも腰落ち着けてステレオスピーカーで再生する人なんてどんどん減っていって
常に理想的な左右ステレオで聞ける環境ってヘッドフォンとかイヤフォンくらいになっていきそう 一瞬、”腰落ち”って業界用語か何かと思ったw
いやぁでも面白い話だな
理想はステレオ用とモノラル用のミックスをそれぞれ作ればいいんだけど
そうしたところで再生する側がそれらを使い分けてくれるかわからないもんね
でも制作側も手間やコストを掛けたくないからそこに時間を割くことを重視せずに
「消えた楽器がある?もうそういうミックスだと思って聴いて下さい♪」
みたいなスタンスの人たちもそれなりにいたりするのかな・・・? ベビメタでモノにした場合、ギターが消える曲ってどれ? >>438
っていうか普通モノラルでもバランスが崩れないようにミックスするだろ。
基本はステレオだけど、モノラル環境に切り替えてチェックしながらモニターしたりしない? >>441
普通はね
ところがそのステレオとモノで生じる差を無視した音源が最近チラホラあるねって話 >>441
勿論そうなんだけど上のリンク先のエンジニアさんがツイートしてるのを読むと
最近はその限りじゃなくなってる感はあるみたいだよ
モノラル再生で一度もチェックせずにリリースすることも少ないだろうし
意図して敢えて一部のサイド成分が消えるようにしてるってのも考えにくいし
制作サイドがあまり気にしてないんじゃないかなと思ってしまう
こればっかりはそれぞれ作ってる人に理由を聞かないと答えはわからないね >>443
そこが気になるんです。
最近ミックスに興味を持った素人でも、モノラルとかスマホとかでどう聞こえるか気にしてるのにw エンジニアはこれじゃモノで聴こえなくなるのに…て思いながらも、プロデューサーが「もっと広げて、スピーカーからハミ出すくらい、いいねえそれそれ」と一人で息巻いてるのかも知れんw
例えエンジニアが提言しても
「いいのいいの、モノで聴くやつなんていねえってw」 今はyoutubeにアップしたり配信なんかも多いから、スマホのモノラルスピーカーで聞かれることも多いと思うけどね 視聴者がスマホ内蔵スピーカーで聞く、そういうことは多々あるとは思うけど、
結局ちゃんと聴こうと思ったらイヤホン、ヘッドフォン、Bluetoothスピーカーとか使うんじゃない?
だからってモノラル環境とかに配慮しなくていいとは思わないけど
作者が納得して出すんならそれはそれでありかもね
ファンから文句言われたら馬鹿なことしたねって話 逆にサイドを聞こえないようにするのが
モノラル用のミックスということになるんじゃないの
モノラルにするとサイドに入ってるのが邪魔とか
曲聴いてないから知らんけど 2018年にモノラルで聴く輩に音がどうのこうの言われたくねーよ iPhoneしか知らんけど一応ステレオだね
ただ普通に手に持ってるだけだと手のひらに二つスピーカーがある様なもんだから限りなくモノラルに近いけどw
実際コーラスやディレイでステレオ化させた音色はiPhoneのスピーカー上でも引っ込む というかスピーカーが一つしかない完全モノラルでもソフトウェア処理すれば簡単に解決できることだよね? >>455
2ミックス内の一部のパートだけの位相ズレを直すの?
出来るのかなあw >>456
いや位相ズレを直すんじゃなくてモノラル化の方法を変えるってこと >>457
LRがサンプル単位で入れ替わりながら再生されるとかw そんなことしなくてもシンプルにLR=MSこれを利用すれば良いのでは? スマホのスピーカはステレオ以前にもっと大事な所が色々消えてるだろ >>459
LR信号を元にしたMS処理は、単にLとRを足したり引いたりしてるだけだから、解決できないと思うよ >>461
思うよじゃなくて試してみなよ
打ち消しはなくなるよ
ただ逆に音が多すぎて五月蝿い感じになるね
色んな音詰め込んでる曲だと そもそもLR2トラック使って表現してるのを1トラックにまとめちゃうんだからしょうがないのかもしれない >>462
M/S処理のMは(L+R)/2で通常のモノラル化と原理はまったく一緒だよ
MとSをあわせたらLが出てくるだけだし(MSからLRへの変換)
M/S処理がなにか特別な処理だと誤解してる人がものすごく多い >>464
だからー
そのL+Rのモノラル化ではLとRで逆位相の同じ音が打ち消し合ってしまう
(差分であるステレオ成分S(Side)の音が消えてしまう)
MとSに変換してM+Sにすれば打ち消し合いは起きないモノラル化が出来るってこと
やってみればわかるでしょ?大丈夫? ■ このスレッドは過去ログ倉庫に格納されています