ミックスダウン・テクニック 74トラック目
レス数が1000を超えています。これ以上書き込みはできません。
!extend:checked:vvvvv:1000:512
↑冒頭にコレを二行重ねてスレ立てしておく
ジャンルや手法を問わず、楽曲のミックス工程に関するノウハウや情報を交換するスレッドです。
個別のプラグインや機材の話題、アレンジ等他工程に関する議論、ミックスの範疇であるか怪しい初心者レベルの質問はそれぞれ専用のスレへどうぞ。
〜暗闇はなく、無知があるのみ〜
過去スレ
ミックスダウン・テクニック 73トラック目
https://egg.5ch.net/test/read.cgi/dtm/1607609765/
ミックスダウン・テクニック 72トラック目
https://egg.5ch.net/test/read.cgi/dtm/1603588386/
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured つかリバーヴ成分が強いだけで
素材自体は後の音作りで十分に修正可能なレベルでしょ。
どのマイクでとっても不足部分は必ず出るしそれを後からミックスで補うのは当然のこと
今回は音の強弱が綺麗に取れてるけど高音が出過ぎているから、C4で出過ぎた4〜15kのどこか耳が痛い部分をその帯域だけ叩いてやればいいだけ
今できる環境の中でベストを尽くすことは大事だと思う 今回音源から離れて
一般論としてのマイク特性基礎知識
出典: マイクロフォンの基礎知識(ヒビノ音響)https://www.hibino-intersound.co.jp/dpa_microphones/3369.html
【ダイナミック】
・構造が単純で安価、外部電源不要。
・頑丈で重い構造により解像度の低い「甘い」音になる。
・過酷なライブシーンでのボーカルやドラム、ギターアンプの収音に適している。
【コンデンサ】
・構造が繊細で高価、外部電源が必要。
・ダイナミックと比べ、高品質の音声信号を生み出す。
・最新技術でラフな扱いが可能な製品が登場し、ライブシーンで使用される機会が増えた。
[スモールダイアフラムとラージダイアフラムの比較]
https://www.hibino-intersound.co.jp/dpa_microphones/file/6227.jpg
スモール/ラージ
等価雑音レベル 高 / 低
感度 低 / 高
許容音圧レベル 高 / 低
周波数レンジ 広 / 狭
音場への影響 小 / 大
ダイナミックレンジ 広 / 狭 解像度はむしろダイナミックの方があると思う
コンデンサーはただ単に分散して音が広く満遍なく取れるのとファンタム電源でコンデンサーマイク側でもゲインを稼ぐことができる
ただゲインMAX 70くらいあるマイクプリ でちゃんとゲイン稼げばダイナミックでも大きな音で取れる
ネットの情報は違うなというのが実際に使った感想 今回お題は昨日うpされた音源の修正ではなく
別途行う本録り、本ミックスを前提とした相談。
サックスの高域を上げて深くリバーブを掛けたいが
EQ適用で音の「刺さり」が発生する(マイクは58)
@録音段階で工夫が必要か
A録音後のイコライジングで解決可能か
というお題なので、マイクの選択やセッティングを検討するのは当然
961 名前:名無しサンプリング@48kHz (ワッチョイ 5f6d-VK96) [sage] :2021/01/25(月) 15:59:16.43 ID:90sLlKJJ0
>>954
またいだ方が的確なアドバイスをもらえそうと思ったんですw
とりあえずupしてみます。
https://2.gigafile.nu/0201-b2a225c6af75d4e3246735eb763df6202
録音をプレイヤーが確認できるようにとりあえず整えたものです。本録り、ミックスは別途行います。
サックスですが、高域をクリアに響かせたいと思ってEQを触るとたちまち刺さるのでどうしたものかと思いました…。
金管の刺さりはイコライジングでどうにかなるものか、それとも録りの段で工夫が必要か、アドバイスお願いします。リバーブは原音の立ち上がりを損なわずもっと深くしたいです。
このテイクは58で録りました。 >>4
単発IDで無責任な発言をする方は書き込みをお控え下さい。
> コンデンサーはただ単に分散して音が広く満遍なく取れるのとファンタム電源でコンデンサーマイク側でもゲインを稼ぐことができる
ダウト。コンデンサマイクの電源はコンデンサダイアフラムの電位変化を取り出す為に使用される ヒビノ音響相手に「ネットの情報は違う」と言い出すのはヒビノ音響が何者か知らない人の世迷言 そこにあるもので可能な範囲でいい音で録りたいっていうのは自然な発想だしそこあんまり突っ込んでもない
何を用意できる・できないはいろんな状況があるし
適切なマイク選びは大事だしそういう意見があってもいいけど、それありきで話してもしょうがないんじゃない? >>5
彼はコピーバンドの時もそうだけど3k辺りがゴチャついちゃう傾向があるのかな
ローミッド切り過ぎない様にして3k辺りは少し落ち着かせてヌケはもっと上でコントロールすればシルキーになって良いと思うんだけど
まあ好みだけどね
https://i.imgur.com/1LTJIUU.png
https://20.gigafile.nu/0225-da42c0f536cc8042a40a2f56c68d0e804 かつてはCD音源(16bit@44.1kHz)をスペクトラム表示しても16kHz以上が出ない超メジャーDAWがあった
今なら24bit@96/192kHzで録音した方が、高域も伸ばしやすいかもね :::::::::::::::::::: ::::::::::/ ):::::::::
:::::(\::::::: / / ):::::::::
:::: ヽ \\ ィユ, / / / /::::::::::::
:::: ( \ \\ 々∂) l 三 / / ):::::::::::::
:::::::ヽ ヽ . ミヽヽ | | / 二 / /::::::::::::::::: RothsMKよ お前は
::::::: ( \ ヽミ ヽヽ | .| + / 二 ___/ヽ ...:::::::::::::
::::... /ヽ ヽ ニ ヽヽ |,,,| ┼ // ニ _______/ ...::::: 一生割れ販売厨として
:::. ヽ____ ニ ヽ`l ヽ__// ニ ____ノ .....:::::::
ヽ___, ニ l :: ′ ニ ___ノ + + ....::::: 永遠に検索にかかり
ヽ---'''ヽ、 ,,,;''''='''''__ + ┼ + .::::::::
:::::... + ┼ + EEi''!Q.Qー-、___~'''''ー-、 :....:::::::::: 永遠に恥を晒すのです
:::::::.... + ┼ EEi. Q. Q +~~'''ヽ ..:...::::::::::::::::::
:::::::::::::::::..... + EEi. Q. Q ┼ :....:::::::::::::
::::::::::::::::::::::::::... + EE! Q @.....:::::::::::::
::::::::::::::::::....::....::. カカ @...::::::::::::::::
:::::::::::::::::::::::::::::::::::::::::::::::::...、。。 基本は24ビット48kで充分。99.9%の音はそこまでに収まってるし。16k以上ほとんど出てないのはたくさんあるよ。 あえてバッサリきってるのもあるよね
詰まった音だからあんまり好きじゃないけど 新しいやつ(曲って言うと変なやつが湧くから書かないけど)作ったんだけどミックス的にどうかな?
若干のうるささを感じるんだけどこんなもん?
https://soundcloud.app.goo.gl/2G2xP >>19
midiから作ってるよ
てかTrapってループ音楽だからループになるのは仕方なくね?
Trap聞いたことないの? 自分で納得してるならそれでヨシ!としか言えない…
オレには音楽というより音の羅列にしか聴こえないけど 正直に言うけど日本の音楽ぶっ壊すとか無理だと思う
嫌味とか煽りでなくマジな話 >>20
キミが前スレで上げてた好きなクリエイター達も普通に歌モノとかも作れる技術持ってると思うよ
音楽的素養がある上であえて無機質で抽象的なモノを作ってる人達だから
キミはピカソの抽象画時代の作品だけを見ていきなりそれをマネてるから中々大変だよ >>20
相変わらず態度悪いな
音源に興味が、なかったからごめんね 2mixさんのは音楽性が高かったから興味津々だったけど、インストさんは音楽もミックスも本気でないというか素人の手遊びの域を超えていない ID:j3IM3v/rr はKS-IS君かな
ここ一カ月ぐらいDTM板で糞スレ4つぐらい立てまくった荒らしさん
まあサイドチェインの知識すらなかった時点でこのスレに書き込む資格はもうない サイドチェイン云々でドヤ顔とは随分テラクオリティ低杉な自演荒らしだな 前も言われてたけどID:j3IM3v/rrはまともなモニター環境ないだろ?
トラップ風トラックでなんでこんな平坦なの?マネしてみたい音源すらまともに聴いて比較できてないでしょ 以降、単発IDと固定IDを使ったお人形さんごっこが来週土曜日まで続く模様 そもそもこれも前のも不快なコードになってるのすら気付いてないようだし耳付いてるのかすら怪しいわ >>30
低音まともに聴けてないしそもそも大きな音で音楽聴いたことすら無さそう
だから全般的に波風も立たない風呂場の水遊びみたいな感じに終始してる
ただこのスレってトラップがどんなもんなのか知らんような人が普通に多いし
オルタナの音も知らんおじさんとかもいたり普通のJPOPみたいなものしか
対象にならんからもう来なくてもいいよ >>35
不協な音も狙ってるのは分かるけどハズしてるよ
カッコよく決まらず気持ち悪さだけが残る
素人がピカソの抽象画をマネてもデタラメな絵になるだけ >>36
確かに50Hz以下は俺のヘッドホンじゃ再生されない
低音どんな感じ?
ゴアついてる?単純に出てない? >>37
どのへんが外してる?
Cメジャースケールのスケール内の音しか使ってないからはずしようがないと思うんだけど? おっさん世代にも分かるように言えばウータンクランとかMFDOOMみたいなもんだから
不協和とか不穏なムードは別にいいんだよ
問題はそんなとこじゃなくインストトラップという何が楽しいのか分からん事やってる点 >>40
一番最初に見てもらったやつが中低音域で鳴らしてたからくどすぎっていう指摘あってより低音の方で出てたほうが良いのかなと思って、、、一応アナライザー付きEQで30kHz以下はカットしてある
40〜50辺りはちょいブーストしてる なんかずっと低音の濁った所を聞かされられてる感じの音源だな >>45
低音出過ぎ?
もうちょい下げるようにする! >>41
そのスケールの音全部同時に鳴らしてみなよ
ハズしようがないか?
当然気持ちよくないだろw 低音見えてないからベースの中低音も中音もデタラメなバランスになるんだよ
ボーボー言ってるだけでベースになってない
キックの重みも出せないからアタックが突っ込めないもちろん他のドラムもメリハリがない
PCのジャックに安物のイヤホンでも突っ込んでモニターしてるだろってレベル >>43
耳で確認出来ないなら論外だよ
目で見ずに絵を描いてもダメ 2mixさんの時も、音源作った人とこのスレに書き込んでる人に知識の乖離があるような違和感を感じたわ。
お題としては@録音時に工夫するかA録音後にイコライザーでしょりできるか?という質問だから
Aに対する回答として定番のEQ処理周波数帯域を挙げたら「イコライジングは想定していなかった」
@に対する回答として定番のラージダイアフラムコンデンサマイクとリボンマイクの2本録りを提案すると「リハスタだから57、58」
聞かれた事を答えると否定してくる異様な展開でびっくりした >>51
あのサックスに関して言えばマイクはとりあえず57や58でいいとして
マイキングやEQ等でなんとかしなよって意見が多かったんじゃない?
変な人が世界のトッププレイヤーは〜とか言い出して話逸れてったけど
エリックアレキサンダーなんかでもライブじゃ58で録ってんだし何言ってんだと思ったが >>49
キックはベースとかぶるから下の帯域はカットしてる >>50
50Hz以下が聞こえないだけでそれ以外は聞こえてるよ
その上で全体の音量バランスとってる > 50Hz以下が聞こえないだけでそれ以外は聞こえてるよ
これ誰もが最初はそう思うもんだが実際典型的なまともにモニターできてない音だし
何度もモニター環境の事言われてもスルーし続けてるけど
マジでPCに直接イヤホン繋げてモニターしてるでしょ?
IF、スピーカー、ヘッドフォン何使ってるか言えないでしょ? https://youtu.be/1W5K4BfnCqw
君たちの環境は50hz以下の音聞こえる?
最後のおまけで50Hz以下を出してる >>58
PC直挿しのYAMAHAのMT-8を使ってる そもそも50以下は聞こえるものじゃなくて体に振動として伝わってくるものだよ
なんかいいスピーカーじゃないと50以下は聞き取れないって言う意見たまにあるけど
普通にウォークマンやアイポットでもその振動の有無は当然反映されるからわかるし
アイパット で聞いたけど普通に違いわかったわ 50以下はそもそも聞こえるものではない
別に安いスピーカーでも50以下の周波数は身体で感じることができる いわゆる振動体感ではなく、スピーカーに非線形なモジュレーションが掛かって倍音が揺動するので検知できる程度の話だと思う。 そもそもこういうところである程度ちゃんと意見吸収したいなら自分が何が課題だと思ってるかのところに質問絞った方が建設的になると思うよ
作ってみたんだけど
低域処理はどうか
アレンジはどうか
とかね印象のポイント絞らないといみわからん玄人意見ばっかりになる 話題散らかってすみません、
>>51
おそらく自分の事ですね。想定していなかったのは「リバーブ量を帯域別に調整する」という部分でしたw
EQの事ではないです。
マイクは自前のMXL2003Aを使いたいんですが、前回リハスタでボーカル用にRODEを借りたら、ノイズを拾いまくって残念な録り音だったんですー。
これなら57, 58の方がいいやと。
本録りは静かな部屋なので、ホーン前とオーバーヘッドのコンデンサ二本で録音したいと考えていました。 50Hz以下聞こえたところで、、、って人多いな
俺はこの808ベースが50Hzを多く含んで聞こえにくかったからめっちゃサチュレーションかけて倍音増やしてから不必要な倍音をハイカットした >>67
知識マウントとりたいだけに見えるよね
見たらわかるとおり否定だけで改善点を明確に提示できてない
そんなもの小学生でもできるんだよ 50以下切ったらアカンで
何かしらリファレンスにしてる音解析してみろ
バンバン出てるはずやで >>68
ナマいってごめんなちゃい
たぶん渋谷や上野で演奏を拝見させて戴いて
いつも感謝しております(ような気がします)
音をお聴きして判ってはいたのだけど
今週のインスト氏があんまりなのでついつい・ごめんなちゃい >>72
いえいえ
関東住まいではありませんがコピバンの方は録音控えてるのでまたupします。
前回は意見もらえて非常に有り難かったです。経験ある人に聴いてもらうのは近道ですね。 ただメインメロディこれないんだよね?
やっぱりメインメロが入らないと帯域のバランスを整えるのは難しいんじゃないかな >>71
逆に40〜50をちょいブーストした
30以下を切った >>61
キミ音楽全然知らないでしょw
手に取るように分かるよ >>74
歌が入ればそれ入れてからまたバランス取れば良くないすか? >>76
めちゃくちゃ音楽聞いてきてるよ
90年代ロック、ジャズ(ハードバップ)、フュージョン、ファンク、アニソン、ドルソン、ボカロ何でもござれ
アニソンは素人の自分が聞いててもクソみたいなやつ多いよね
ドルソンはハロプロ以外はゴミミックスだと思う(素人目で見ると) >>77
歌ありきだから現段階でのミックスの出来について語っても意味がない >>78
玉石混交ではあるがアニソンもなかなか凄いやつ多いよ >>80
ミックスはゴミでしょ
良いやつに合ったことないわ
おすすめある? hiphopでもアニソンでもないけど、自分がここ10年で最も感心した音源。
https://youtu.be/rIMm0swerow
主旋律を成す音像がいつの間にか形を変えて立ち消えていく。表題の通り自然の情景を音で表しているんだろうと思います。
楽曲制作とミキシングに求められる要素に垣根がないんだろうと思いました。どちらも音楽表現。 >>81
これが明らかに不快なコードなのを認識できないのはかなりやばいとおもうよ
もっといろんな音楽を聞いたほうがいい
不協和音でも不快なものとそうでないものがある サイドチェインとか不協和音とか騒いでる人は
叩きの定番ネタを並べてるだけだね
問題はそこじゃない trapのオケなんて力入れて作るもんじゃないと思うよ
リスナーが見てるのは作者が何を伝えたいかって方でしょ
比率で言うとリリックが9割でオケなんてオマケ
オマケだけ出されて評価してって言われてもそれは未完成なオマケでしかないわけで たまに何を考えてるのか歌入ってない状態で歌モノの予定ですって上げる人とかいるけどさ
お前歌謡曲のカラオケだけ聴いて善し悪しなんてわかるのかよって話 タイプビートぐらい知っとけよ、完全に世界から取り残されてるな。 無能な人って、自分が相手にされなかったり評価されない理由は他人が無知だからだ、という欠落モデルにしがみつくね。
ニセ科学批判カルトでおかしくなった菊池誠と天羽優子の論法は常にそれ >>78
それを作った事ないなら一般リスナーと一緒だよ
全然自慢できる事じゃないでしょ >>78
それって単なる聴き専ですよっていってるのと同じじゃ タイプビートになってないんだよ
元々のお手本と全然似てないでしょ
まったく音が聞けてない >>83
例えるなら、ダメージジーンズがかっこよく決まってるスタイルをマネしたけど、ただ貧乏なジーンズに見えてしまってる事に気付いてないって感じよねw
それを指摘されても「え?ダメージジーンズだよ?知らないの?w」とか言い出したらもう手が付けられないw Lil Durk Type Beat-"Barefoot"を聴いてみたが、まずビートで一番大事な808のピッチが合ってないかな。
808はサンプル使ってる?それともシンセなどでmidiで鳴らしてる?もしサンプルならCと表記されていても疑うべし。ちゃんと自分でピッチを確認して合わせること。
Cメジャースケールで808を鳴らしてるから上モノも必ずハーモニーとして合う、とも限らない。
あと、単純にハットはもうちょっとしっかりパチパチ鳴ってほしいのと、キック(808に含まれるアタック?)はもうちょっと前に出てきてほしいかな。
低音は別に出し過ぎじゃなくてもむしろ、808の音価が長くてずっと鳴りっぱなしだからビートとしてはノリにくい。前述のピッチがずれてるから音価が長いと余計に目立つし。
ラップが乗る前提ならわりと808は短く、キック的な長さがいいよ。そして、ところどころ音を長くしてメリハリつける感じかな。
まぁ頑張れ! >>93
鋭い指摘だな
トラップやタイプビートに憧れてるけど
誰もそこにリリックやライムは乗せないよって感じ いやトラップってその貧乏なジーンズな音楽なんだよ
音楽としてトラックとしての価値はわざとやってんのかってくらいつまんない
カッコいいダメージジーンズじゃないから駄目だと批判するのは的外れ
そのつまんないトラックにつまんない日常のリアルがリリックとして乗っかると
音楽として刺さる物が出てくるわけ 問題はその貧乏なジーンズらしき物にも>>18は達してないんだよ
ホントにお手本見えてるか?っていう
いくら指摘されてもモニター環境を問題と思ってないのが原因だね ks isの主張及び特徴抜粋
・日本の音楽をぶっ壊す
・有料のドラム音源は買わない
・使ってるソフトはほぼ無料
・trapを知らない奴は時代遅れ
こんなとこか >>101
日本の音楽というかJ-PopなJヒップホップはBADHOPとかかっこいい奴らいっぱいいる >>18聞いたけど、まあ音色は確かにパンチが足りない感がある。
もっとキックとベースが一体になってガツンとくる感じが欲しい。アタック感が出れば解決しそうだけど。
ハットももうちょいアタック強くても良いと思う。
まあでもそれ以前に、メロとかコードがポップすぎるんじゃないかな。
なんかJ-POP感というか、なんならエロゲのBGMっぽさもある気がする。
もうちょっと男らしい感じというかイカつさやダークさみたいなニュアンスが欲しい。
あとコード進行とベースラインが合ってないというか、ルート音がなんなのかよく分からなくて収まりが悪い気が。
まずはワンコードの曲を作ってみたらいいと思う。 問題は音以前。展開も何もない無限ループのミニマルと、ラップトラックの欠落による未完成テクスチャにしかなっていない >>104
メロが無いって指摘されてるのに、メロが聴こえているのは本人さんの自演かな >>104
指摘ありがとうございます
ウワモノはLil Durkを意識してましてメロディライクに歌えるTrapを意識してまして、、、
https://youtu.be/ald6Ma0vEW4
確かに808ベースはライン重視でルート音を完全に無視してますw
3度とか5度6度の音打ってる >>107
メロってウワモノのことだと思ったんですが、、、 シンセで無限ループのテクスチャを弾いているのを
歌物のメロディと混同してるんだろうね
メロディ重視である必要は無いけど
展開も何も無いテクスチャの上物をメロだと言い張るのは、何を言われても言い訳をして成長しない
こころの病気に見えてしまう >>101
他のcakewalkユーザーも巻き込みで被害受けそうだな >>112
お前らが批判しなければ良いだけじゃね?
1人憎かったらその所属してるグループ憎むのって人として最悪だと思うぞ KS ISはベースとハットの手前奥が逆やわ
音像がハッキリしないのはそのせい >>114
もうちょいハイハット出したほうがよかったですかね?
この前刺さる刺さるって言われてちょいビビってしまったんですよね サイドチェインでもっとスッキリさせれば全部解決しそうな気がする >>115
ハットを出すのでは無い
ベースを引っ込める
音の鮮やかさには天井があるから
奥行きは引っ込める事でのみコントロールする このままで上げた所で評価なんてされないから
これにリリック乗せて歌ってくれる人を探すのがこの人が次にやるべきこと
それで歌ついて初めて評価云々のステージに上がれる
ちゃんとしっかり完成させてから上げてほしいんだが
そもそもミックスする段階に至ってないからスレ違いだと思ってるし
ただセンスそのものは悪くないって思ってるよ そもそもトラップって数年前でピーク迎えて減退してるジャンルだし
そろそろ違うお題が欲しい >>117
808下げたらバランス取るためにウワモノも下げるよね?
それとも単純に808が出過ぎてるってこと? >>118
最近USBマイク買ったから歌も頑張ってみます
歌詞作るのやったことないから結構かかるかもしれん >>119
じゃああなたが思うおすすめの音楽上げて
それを元に似たようなの作ってみるから(自身のレベル上げを兼ねて) ダメか?
なんだかんだ話聞いてるし嫌いじゃないわ
と言うかこんな無駄にスレが消費されるのは周りに乗っかって煽るだけの奴のせいだろ >>120
下げるのでは無く引っ込める
上モノはそのままか、下げて出っ張らせる >>127
ありがとうございます
なんとなくわかりました >>120
95で書き込んでる者だが808の音量が出てるとかではなく単純にルート音がウワモノに合ってないってことだよ。
もっと808の音量クソでかい曲も存在してるし。
あとTrapなんだからビートとしてしっかりキックと808だけでカッコいいサウンドにしたら良いよ。あとハットが耳に突き刺さるのを怖がってるようだけどそれはハットのEQ処理の仕方次第とハットのピッチも曲のキーに合わせるべきだよ >>128
コンプを深くする程、音が柔らかくなる。
ぼやけると捉えて良い。
コンプの設定によっては、硬く出来る。
ハッキリすると考えたら良い。
音源中心の場合のEQは、音を明らかに変化させる為じゃ無いなら、出来るだけ掛けないほうがいい。 とにかく>>18は音にメリハリが無さすぎる
前にパラであげてみんなでミックスしたときほとんどの人がしっかりベースの中域削って
キックも重さやアタックだしてハットの刺さりも強調してたと思うんだよ
本当に自分で聴いて何とも思わないのかな? ボストンシンフォニーホールのIRはどこかでダウンロード可能でしょうか? >>18
自分はメロディもレイヤーされている音も好きだけど低音があまりにも低過ぎるかな。キックが一番大きくなるとして、メロディとかは-10〜15db辺り好みで下げるべき。後アレンジが単調な気がするからどこかのセクションでハーフタイムなりエフェクト使うとかで展開増やした方がいいかも。808は埋もれ過ぎてるからアドバイス出来ない。レスの流れ見てないから重複してたらごめん。 スピーカーから聴くとボーカルの高音が問題なく聴こえるんですが、
iPhoneスピーカーで聴くと高音になると何故か小さく聴こえるんです。
この原因は何でしょうか? >>134
一般的なスピーカーとiPhoneスピーカーの一番大きな差はステレオ定位だからね
限りなくモノラルに近いからステレオ音色やステレオ処理した音の音量が大きく変化する
スピーカーで作ってる時にマスターアウトなりモニター回線なりでモノラルに切り替えてチェックしてみるのが良いかも
スピーカーとiPhoneで周波数特性的な違いも当然あるけど、それはオケ全体に影響する事だから何かが飛び出てしまうとか引っ込んでしまう事にはあまり関係ない ご回答ありがとうございます。
DAW上でモノラルにして聴いてみましたが、問題なく聴こえますね。
そうなると、何かしらiPhoneと相性悪いのかもしれないですね。 まあ歌だから変なステレオ処理してはいないだろうけどね
後は実際に音源聴いてみないと何とも… iPhone他スマホ内蔵スピーカーの周波数特性実測グラフをいくつか探して見ると
https://m.imgur.com/gallery/DRbu5
https://images.anandtech.com/doci/13392/IXS_comparison.png
測定上のマイク配置の問題もあるだろうけど
たぶん聞く位置によって妙なディップが生じ易い特性
に見えるね
最初のグラフは2.5kHzちょっと下にディップがある
2番目のグラフはディップだらけで、測定に問題もありそうだけど、聞く位置によってディップが発生し易い傾向を表しているかもしれない あと最近のスマホはテレビと同様に
貧弱なスピーカー配置でステレオ音源を立体的に聞かせる為に、サラウンド処理や周波数エンハンス処理デフォで掛けている筈。
ステレオ定位の音がスマホの外側に広がって聞こえたり、小さなスピーカーとは思えない「臨場感」(presence帯域強調)のある音に聞こえるのがその効果。 以前はサラウンドエフェクトのオンオフとかあったけど最近のiPhoneはそれも無くなったね
掛かってるのか掛かってないのかもよく分からない
あと「音量の自動調節」も邪魔者だね iPhoneのスピーカーはある程度何でも良く聞こえるから凄いと思う
補正オフに出来ないのは痛いけど iPhoneスピーカーの出音は古臭くなくちゃんと今の音なのは流石だなと思う wavesのF6
私はあえてこれを神のプラグインと名付けよう ヴォーカルのミックスについて、メインパートだから2kHz〜4kHzあたりを中心にブーストする、
というよりは、他のトラックの2kHz〜4kHzあたりをカットして、ヴォーカルは何も触らない程度がちょうどいい?
それぞれの帯域のさじ加減が難しいんだ、、、 >>144
その辺りは一番気を付けなきゃならないところ
「刺さる」「痛い」「キンキンする」の元凶部分
削れはすれど迂闊に上げる部分では無い よっぽど酷い演奏じゃない限り3k辺りはカットしなくていい
500辺りが一番音程感がある聞かせどころ、そこから11kまでは倍音が伸びて質感を司る所
3kカットすると逆に質感が出なくなる
極端に演奏悪かったりボーカルだと喉締め声だと3k暴れ出すからその場合、演奏や発声から一からやり直し その辺聞かないとなんとも言えんだろ十分に出てるのにさらにブーストとかになりかねん
リファレンス参考にするしかない 安いコンデンサーとか派手に聴かせる為にその辺強調されてる痛いマイクも多いからね
で、ギターやベースを避けて中低域削り過ぎて3〜4k辺りが頂点の痛い音になりがち 具体的な音源が無いと具体的な話はできないから
各周波数帯域の特徴と初心者向けの調整方法を探すしかないだろうね >>147
500Hz近辺というか音程のオクターブ上(2次倍音)が重要で、人間の聴覚はそっちをメインに聞いているという出所不明の説があったり
スペクトル表示してみると基音より2次倍音の方が音量が大きい例があるみたいね。
全てが全てそうとは限らないんだろうけど だからベース音(基音)は150辺りで500辺りが聞かせどころでしょ >>144
慣れないうちはボーカルとかメインとなるトラックの高域はブーストせず、他をカットするのが良い。
上モノ楽器の高域カットも狙うので無ければあまり宜しくない。
キックとかベースとか低域がメインの音の高域を削るのが一番やりやすい。
そうすれば、ボーカルの超高域とかリバーブの高域とかのEQがしっかり効く様になる。
キンキンしてるのは低域やと思ってる音の高域が他の高域とダブつくから ボーカルとバッキングでしっかりと厚みと質感を作る
超低音と11k〜の超高音の空気感の部分はさりげなく出す カットすることで楽器を特徴付けるのが基本中の基本
ブーストする時はアナログEQで特徴をより強化したい時だけ いろんな帯域暴れまくってる音源渡された時はwavesのF6で緊急オペするしかない 緊急オペの優先順位は動画ニカゲツ先生の頭の方だよ
早く医者に見てもらわないと手遅れになる
あ、遅れてしまってるか あ、ごめん>>147さんの話は楽器の話だけど
>>151はボーカル側の話
その帯域(500Hz)も衝突するから譲り合いが必要。
ボーカルはその帯域が高くなり易く、boxyな音(極端に小さなギターアンプcabのように不自然にこもった音)になるから、ボーカル側を下げるのが定番らしい
問題の2〜4kHzとはズレた話ですまん ボーカルのEQについてだけでも音楽業界の人ってちゃんとした知識がなくて偉い人が断片的にこの周波数を調整するといいよとか言ったことを信じてたりするのかな
悲しいねぇ 「音楽業界の人」って主語が大き過ぎて誇大妄想の域だね。
ボーカル専用プロセッサや音響機材、ソフトウェアプラグインを作っているのも「音楽業界の人」だし
日々のボーカルトラックにプロフェッショナルな処理を施すレコーディングエンジニアやオーディオエンジニアも「音楽業界の人」w
天羽優子@apjの居るような大昔に衰退した業界(ラマン散乱測定専業)のように
天羽レベルの知恵遅れがドヤ顔するのはお門違い そういえば天羽優子@apjといえば、
物理業界論文誌Physical Review Letter相手に
ラマン散乱測定で物性の構造決定ができると称する論文を出してさんざんrejectされた末に
ラマン散乱の電報モデルとかいう誰も聞いたことも無い論文を載せたそうだけど
それから20年経ってその電報モデルとやらは実用になったのかね。
空理空論で結果が出せなくても科学者のフリをできる衰退業界は楽しいねぇw 業界の規模で言うと
・豆腐業界が年商5000億円
・国内音楽業界が年商5000億円
・YAMAHAの年商1兆円
・日本の科学技術研究費が年間2000億円
そして
・天羽優子@apjは科研費Cで年間研究費170万円未満
あれ?天羽優子って月の純益15万円未満の零細豆腐屋と同じ規模なのに、「音楽業界の人はー」とか大言壮語しちゃった事になるね。
貧すれば鈍する
って天羽優子の事を説明した格言だね ベースの上を削るっつうか、削るのは中ほどじゃないの?
中高音は弦のビーンてな音だから、これを削ると生ベースらしく無くなる。
ボーカルをベースのeqにサイドチャネルで渡して、ダイナミックで削ってる。 なかなか抜けの良いボーカルっていないから
ボーカルは1k以上の倍音をEQでいじる人多いんじゃないかな 今回の話はボーカルを聴かせる為にバックの2〜4kHz帯域を削り相互のバランスを取るとが大変だ
という抽象的愚痴で音源無しなので
具体的答えは何も出ないね それこそF6もサイドチェイン使って、ボーカルのその帯域が飛び出た時だけオケの方抑えたりできるよね ↑こいつ、元の書き込みを理解せずに直近の書き込みにひたすら反応し続ける統合失調みたいなbotだな ウザいからNG済みなのにワッチョイ変えまくってるのか ああ、上でF6がどうこうってずっと言ってる人と俺が同一人物だと思われてるのか。
初めてF6のこと書き込んだんだけど。 >>160
主語がでかすぎてすまんかったな
あなたの言ってることがボーカルの特徴を分かってない発言だと思ったんですよ
誰が言ったことなのか知らんけどそんな知識でドヤ顔すると恥かくのはあなたの方ですよ >>170
恥をかくとか恥をかかないという観点で議論する人は無知の知を知らぬ天羽優子のように幼稚で議論に値しない。 500Hz近辺にboxyに響く帯域があるからカットする話は、前回ソプラノサックスのEQの話でも出したのだけど、英語だから読めなかったんだね。
原文
> The sax had some boxiness and I had to clean that by cutting at 492hz. 500Hz近辺がboxyになりがちな原因を探ると
>>151のような話が出てくる。
人間が音程を認識する時にその帯域を無意識に重視するから、その帯域の聴覚が敏感になり飽和し易くなり
他方ボーカル発声やその他の楽器もその帯域を強調する傾向に発展して、結果的にその帯域に音が集まって音響上も音が飽和し易くなるのだろう。 特定の周波数に反応するって理屈なら騒音の中でも言葉を認識できる理由を説明出来ないな。
フォルマント周波数が何を指しているか全く理解してなさそう。 カクテルパーティー効果なんてとっくに音源分離アルゴリズムで解決されてるね
話題が30年遅れ カクテルパーティー効果は20〜30年前にCorneliusが話題にしていたけど、その時点で既に今更感があった
音源分離アルゴリズムによる解決は数年前の話だね 統失メンヘラおばさんの情報源は大昔の匿名掲示板の書き込みばかりだから、当時議論していた人から見ると周回遅れの話題でドヤ顔をする知的障害者にしか見えない フォルマント周りの議論は歌声合成スレで10年ほど前にさんざやった。
当時一般人の間ではボカロのアルゴリズムは全く判らない事になっていて、公式ホームページに基づく解説を書いてもボカロ本の説明と違うからおかしいとゴネる頭の悪い人が他のサイトに居たから
MTGとの共同基礎研究時代の論文に遡って、それ以降のボカロ論文では曖昧にしか書かれていない信号処理アルゴリズムの要点を整理して記事を書いた。
その後ボカロパパこと剣持氏がボカロ技術論書籍を刊行して、イベントやるからちょっと来いという話になって齟齬が無いか確認しに行った。
論文が公開されている基礎研究と、内容非公開の商用アルゴリズムは違う物だから、説明に相違があるのが当たり前なので特に注文や指摘は無かった。 ボカロV4のGrowlとクロスシンセシスの話の元ネタはMTGが2004年頃出した論文
ボカロV4仕様決め段階で何か追加機能は欲しいかという謎の問いかけがあったので、その論文の話をして
ユーザーサイドでもクロスシンセシス用プラグインで外付け処理できる話を示したら
いつの間にかV4の目玉機能として上記二つが実装されていた。
ただし周波数領域のクロスシンセシスの性質上、
ベースとなる歌声DBと
Growlあるいはクロスシンセシス先となる歌声DBの
倍音成分(ピーク包絡線がフォルマント)のマッチングが悪いと処理がうまく掛からないので、音源作りがものすごく大変だという話が事後に出てきて
剣持氏の他部署異動後のv5では機能削除になった。
自分が議論したボカロ周りのフォルマントの話はこんな感じかな 48khz16bitのTDを48khz24bitにアップコンバートしてハイレゾとして売り出してもバレないよな
周波数帯域はアナライザで見ればすぐ分かるけどビットレートは証拠が残らないから
ITBでやると16bitで制作を進めた方が作りやすいんだよなぁ
24bitでやるとデジタル臭くて 聴覚の特性とカクテルパーティ云々を無理やり同次元で語る時点で、絶対論文読んでないニワカって分かる。ガチの文系の癖に理工系を装うからボロが出る。
認知心理学とBSS は別物。 へぇー、カクテルパーティー効果は音源分離アルゴリズムで解決としか書いてないのに
統合失調おばさんは上のレスに聴覚心理学に関する話が書かれていると妄想しちゃったんだ。
それ統合失調の幻視や幻聴の類だから山形大学医学部附属病院精神科で精密検査を受けた方がいいよ
ちょうど強制休暇の話も出る頃だし >>183
具体的に誰がどこになんて書いてあるからそう妄想したのかなw
幻視や妄想による虚言には決してソースは見つからないだろうけど きっと独立成分分析と書きたかっただけだろ
カクテルパーティー効果で聴覚心理学云々は
統合失調おばさんの脳内妄想 もしくは音源分離アルゴリズムに独立成分分析が含まれる事を理解できずに、単語が違うから間違いだ
という小学生レベルの妄想をして
その妄想に聴覚心理学云々の妄想をトッピングした
天羽優子特有のデムパ作文でしょ
その手の幼稚な書き込みは天羽優子の十八番 wavesからまたとんでもねぇプラグインが新作で出たな
RS 124
こいつはバケモノだわ
V compの比じゃない
まさにあのビートルズの躍動感の心臓
ビートルズサウンドの主犯格がついにアビーロードでリリースされたわ。これから本格的にビートルズサウンドがどんどん世に出だすぞ 今回のプラグインは世界中で大ヒットしたSSLチャンネルと同レベルの質だろ 名無しサンプリング@48kHz (ワッチョイ 155a-fdc2)ID:hnStRnPl0
名無しサンプリング@48kHz (アウアウウー Sa21-fdc2)ID:qQlFWL7Fa >>183
元のワッチョイが出せなくて返答できないなら
別ワッチョイでもいいよw
勢いで書いたもののソースが見つからないなら
ちゃんと「ごめんなさい」してねw (ワッチョイ 155a-fdc2)
(アウアウウー Sa21-fdc2)
書き込みスレも活動時間も完全シンクロ
スマホとPCを使って別人を装いながら自演ですかー
さすがにこれは恥ずかしいので晒しage
ttps://i.imgur.com/QZl4mTy.png この荒らし連投してる天羽優子って今日職場通報されて処分が決まるまで大人しくしてないと困る人じゃん
なんか正気を失って完全なキチガイと化しているな >>194
a_watcher対策スレ
https://egg.5ch.net/test/read.cgi/dtm/1535545100/
こいつは稀に見る真正だからな
回線変えても天羽優子天羽優子言ってる本物のキチ >>197
おーありがと
専用スレのある真性だったのね…それでも2回線自演は恥ずかしいわ こんな気狂いを教員扱いしなきゃならない
山形大学の人たちは大変だわ
医学部附属病院の精神科に患者として移動させれば
円満解決なのに この糖質池沼が書き込んだスレ
・DTM板全般
・楽器板全般
・いきなりステーキスレ
・長野市スレ
・糖尿病スレ
・嫌儲の格安メガネスレ
色々お察しなんだよなぁ >>200
で、どのスレにも天羽優子がいるんだろ?w アウアウウー回線で基地外的書き込みしてたのコイツだったのか…
超納得したわ
教えてくれた人ありがとね 多分スレ序盤では
アウアウウー Sa4b-dD3V
ワッチョイ c75a-dD3V
言ってる事読むと知識ある人かな?と思いきや
なんだかどっかの受け売り臭も強く
違和感がつのって誰かに突っ込まれると
天羽ガーで一気に発狂モード
だいたいいつもこのパターン 天羽優子は鬱病だね
妄想ばかりで知能が低過ぎてお話にならない
天羽優子が妄想まみれになる原因は
英語論文をまともに読みこなせないから。
天羽優子が英語を読みこなせない原因は
知能が低くて語学を習得できないから。
詰み キチガイ天羽優子がミックスダウンスレまで荒らすとは天羽優子そろそろDTM板追放だよな
かつては葉加瀬太郎や星野源まで匿名で来ていたスレに、精神病の妄想を書き散らすとか社会のダニだは RS 124マジで凄いと思うわ
これまでのプラグインの常識を覆す出来 RS 124セールで4千円だったけど買ってよかった
ビートルズサウンドがこれだけ簡単に作れるとなると話題爆発してすぐに超有名定番プラグインになると思う
それくらいのポテンシャルがある 飛澤b1にa_watcherに…
もうメチャクチャw >>208=山形大学ストーカー職員天羽優子@apjかな >>210
天羽優子が居なければそこそこ回ってたぞ
ミックスダウン実演でまともな人が居た DTM板のスレって攻撃性人格障害者は天羽優子@apjくらいしか居ないから、@apjさえ居なくなればすごく居心地がいい
@apjが来ると時代遅れな自演や、意味のない書き込みや、意味不明な争い事ばかり起きるから要らない 要するに天羽優子@apjはどのスレでも嫌われ者ってこと >>183
なるほど。妙に疑心暗鬼になってゴメンね。
その話をした人はいつも重要な話の直後に
見当違いなデタラメな話を書く病気の人だから
関連性が無さ過ぎて扱いに困るんだけど
適切なツッコミを入れてくれてありがとう ミックスの時にアナログのアウトボード使う人は
やっぱりもはや超少数派なのかな
バスコンプだけはいいのがないからやっぱり買い直そうと思ってるんだけど 本日のa_watcher
名無しサンプリング@48kHz (ワッチョイ 975a-NIkp)ID:7COKDPfK0
名無しサンプリング@48kHz (アウアウウー Sa9b-NIkp)ID:RYlXNnM4a >>210
本物の飛澤さんに失礼だから動画先生と言い換えると良いよ
動画2ヶ月見ただけで大先生になった凄い人だよ
動画ニカゲツ先生のコメントが読めるのは5ちゃんねるだけ! >>216
本物のアウトボードミックスに必要なの全部揃えるのにいくら予算いるの。。。
プラグインなら10万以内でほぼ必要なもの揃えられるけど
アウトボードとなると100万以上かかるでしょ
そんなことできる人なんて限られてるよ >>216
年齢層で違う印象
30代より下はアウトボード買う人は少ないイメージある
20代より下はほぼいない
ハードで持ってる録音機材はオーディオインターフェイスだけって人多いんじゃないかな
個人的にハードのバスコンプ買うのは良い判断だと思う DTMerが一点だけ良いハードのアウトボード買うならバスコンプの選択は賢いと思う
良い音源多いから入口より出口の質にこだわるのはとても良い
他の人との差別化にもなるからおすすめだよ そりゃ高いもんだし若い人ほど持ってないのは当然では、、、 この道はこの道で、極めると何かがあるんだろうなって思った。ちょっとストレスがある時に聴くと、ちゃんと感覚的に納得できるdiscordを配置してんだよね
びっくり 最初聞いた時は、ピアノの通奏コードの次きっとシンセパッドが載りそして主題が始まる教授風の曲を期待したのに、discord展開。
いつものアレかと勘違いしたけど
このdiscordの響きは妙に耳に残るんだよね。
改めて2回、3回と聴き直したら丁寧な曲なんだよね。
寒い冬の日曜日の晩の焦燥や不安と期待とシンクロした いくら頑張ってミックスしても、CDみたいにボーカルの存在感や太さ、立体感、質感が出せないです。
マイクとマイクプリに数十万使えば似たような感じになるんでしょうか?
今使ってるのは五万のマイクに7万のオーディオインターフェイスのみです。 SHUREのマイク買おう
そして中古の通信カラオケコマンダをプリアンプにしよう >>229
昨今、5万のマイクや7万のインターフェイスでどうにもならない様なダメ製品は無いと思う
録音環境、録り方、歌い方、オケのミックスやアレンジ、その他諸々…
考えられる原因がは多岐に渡るから音を上げて見ないと的を得た意見は得られないかも知れないね たかふぁか1桁万円のアマチュア機材でメジャーみたいな音は作れないよせいぜい同人程度 >>238
逆に高い機材揃えてミックス上手くなった気になってるヤツもいるだろうけどなw 機材もやけど、録音空間やろね。
無音でも空気音が録れるまで機材の感度を上げられる空間の値段が趣味の域では無いな。
それを用意してこそコレまた趣味の域では無いな機材が意味をなす。 >>229
録り音も重要だがミックステクも重要
EQ・コンプ・サチュ等の精度でクオリティは相当変わる
一度プロの人に素材を渡してミックスしてもらえば、
ミックス部分に伸びしろがあるのか否かか分かるはず RODEのマイク直Logicで録った曲がすごい再生数稼いでるという現状 定位と音量のバランスの関係がよくわからなくて平面的なミックスになっちゃう
奥行きのあるミックスってどうやったらいいの? ビリーアイリッシュのbadguyをアナライザーで確認してみると面白いぞ
一番鳴っているのはなんと60
そして8kら辺との帯域は40dbも差がある
日本のミックスマスタリングでは絶対考えられない。日本はべったり下から上まで帯域入れるからね
要はそれが音圧競争時代の音楽、全て詰め込んで迫力を出すというもの
だがYouTubeやサブスクで聴くようになって視聴者が音量上げ下げできるからそれは無意味となった
もっと自由な帯域で音を入れればいい。 >>248
今のビリーアイリッシュの説明とラウドネス曲線がどう関係あるんだよ? 理解出来ない事を自己紹介してくれてありがとう
理解出来てないのだから解説しても無駄だよ 60Hzを鳴らすってのは基本中の基本ですよ
8000Hzとの差が40dB、どのように計測したのかは疑問やけどね スケールは載ってないけどコレ見りゃ一目瞭然
そーゆー構成の曲
https://youtu.be/w2FQO3MoRKQ
コロナ以降はリモート制作が増えたせいか
音や帯域に意識的に隙間を作った曲が増えてる 上のはBad guy remixだから音が違うか
原曲に簡易スペクトラム表示を付けた動画が何本も上がっていて、そん中でまともっぽいのはこれかな
https://youtu.be/SWv4XjQPwg4
ベースとドラムを中心に囁くようなリリックを乗せて、ちょっとシンセが載るシンプルな曲だから
他の人たちもスペクトラム表示がベースとドラムで揺れるのを面白いと思って動画を上げてる 音や帯域に隙間ってのは
普通の手法というか、セオリーやと思うけど
違うのか? コロナ以前は音楽ってフェスやライブでグッズ込みで収益を上げる構造があって、現場で盛り上がる曲が求められてたんだよね。
でもコロナ後はそういうリアルイベントも自粛になったしアゲアゲの曲ばかり作る必要もなくなったってのが多少関係してると思う。 >>258
確かにそれはあるかも
CMや動画で良いと思っても
ライブやと全然やろなって曲あるもんな >>257
普通だよな
ただ多くのJ-Popでは全ての帯域を埋めてくる >>247
逆に上から下まで同レベルで鳴ってる楽曲ってどんなのがあんの?
怖いもの見たさで是非聴いてみていんだけどw 2010年代半ばのアニソンやアイドル系の曲はやたらガシャガシャしてて(サチュレーション?)音圧も高めで下から上までかなり埋めてあった印象。 派手で若年世代にウケがいいから今でも全帯域埋めるのはやるな "全帯域埋める"のと"全帯域同音量"は話が違うでよ
>>247でb1君が言ってるのは音量の話だから 日本だから喧しいっつうか、アレンジが喧しいだけで別にミックスがーマスタリングがー言う事でもないと思うけどな あら綺麗ななで肩
それはさておき帯域埋めるけたたましいアレンジが受けるのって日本以外であんまないよね >>269
私がリファレンスにしてる音楽は
大体そんな感じのが多いな
自分のミックスも結果そんな感じになってる
。
帯域の感じだけならな >>271
とにかく凝り性だよね
大仰なイントロとか、節目節目にキメキメとか
洋楽のイントロなんてオケ中のバッキング持ってくるだけ
節目は軽くドラムフィルだけ
みたいな
"ゴテゴテなガラケーデザイン"と"スッキリシンプルなiPhone"の様な そのシンプルさが成立するのは裏ノリのある海外勢だからだな
そこらの日本人がやると縦軸だけ揃ったただの8拍子になる >>269
そのグラフはスロープの有無と傾きを明記しないと音楽的に意味がない。
・音のスペクトラムは高音になる程パワースペクトラム(物理的強度)が減るのが一般的。
・他方、人間の脳の聴覚情報処理は、その高音低下の「右下がり」グラフ(の特定の傾き、ただし状況により変化し得る)をフラットと認識する(感覚的強度)。
スペクトラムアナライザのハードやソフトは、この物理的強度と感覚的強度の乖離を補正する為に、
グラフ上で高音側の見かけの強度を上げる表示スロープ設定機能を持ち、感覚的フラットを視覚確認できるようにしてある。
ただし最適な表示スロープは音源の種類や音楽ジャンルにより異なり、また聴くひとによっても異なり得る。
表示スロープ設定をしていないグラフの場合は、
スペクトラムに一時直線を当てはめ、
複数の音源間で傾きを比較して相対的差異を論じるのが適切。 >>275
そんなスロープ補正されてるEQは困るなあw >>273
そういう音楽しか聴いてないだけちゃう?
どの国にも色んな音楽があるよ
メインストリームは売ってるのであって売れてるって訳でもないしな とにかく、ミキシングは低め低めを意識せえと言う事よ。
感覚的にやるとどうしても高め高めになるのを、技術的俯瞰で低めにしてこそ
いい音になる >>276
EQ自体にはスロープ補正はない。
ただしEQで感覚的フラットに基づく作業をする時はスペクトラムアナライザ側のスロープ補正をONにして、感覚的フラットを視覚的に確認する事もある。
今回の話は、スペクトラムの右下がりグラフを出しても結論は出ず、グラフに直線を当てはめた時の傾きを各種音源で比較して、
高音強調だとか低音強調だとかかなりフラット気味だという議論をする必要がある。 >>277
夜中の番組終了したFMラジオとかさ、洋楽邦楽ジャンル問わずでランダムに曲紹介も無しで延々と流れてるの知ってる?
アレ聴いてると面白いよ
イントロで「あ、これ絶対邦楽」て分かるのw
音色ではなく手法でね そしてこの表示スロープ補正の話を出して初めて、
フレッチャーとマンソンの名で知られる「等ラウドネス曲線」も考慮した体感音圧特性の議論に繋がる。 >>280
まあ、確かに日本のは独特の感じはあるな。
良くも悪くも薄い モニタースピーカーでミキシングした後、最終的にAirPodsProでミキシングすると納得いくバランスに仕上がるから最近そうしてる
セオリーに沿うより自分の耳を納得させる方向に切り替えたら気が楽になったわ ピンクノイズでフラットな表示にするかホワイトノイズでフラットな表示にするかって事か。 感覚的フラットのスロープは
ピンクノイズのスロープ3dB/oct.固定とは限らない 知識ある事をほのめかすのに全く知識披露しないのに驚く
無茶苦茶ケチなのか知ったかぶりなのか両方かは知らんがろくでもない事だけは間違いない いやお前が披露してるのに他のやつがわかってないから言ってるんだが
全く同じこと言ってほしいんか? よく見たらこっちだった>>285
でもお前もわかってる側だろカス ワッチョイ末尾「-NIkp」はa_watcherなんで相手しちゃ駄目 最近、ヴァイオリン弾きの奥さんと一緒にユニット活動を始めました。
僕は作曲とピアノを担当しています。
ミックスや録音についての知識も技術も全然ないので、
とりあえず小さなホールを借りて録音してみました。
https://firestorage.jp/download/50eb5251ea540d8211339fb1d86c76ba55a4141b
mixで音源をよくする方法はありますでしょうか。
いちおうcubaseは買ったのですが、よくわからずに放置プレイです。。
教えていただけるととても嬉しいです。 >>291
うん。普通にいい音で聴きたい。買うw
自分で録ってミックスして…となるとマイクやらマイクプリやらから始まっちゃうので本業の方に相談してみては…? >>291
素晴らしい演奏ですね
録音はホールの吊るしマイクですか?
ワンポイント録音での場合基本最初の印象を崩さず出来ることはあまりありません
編集を行う前に作品をどの様に仕上げるのか決める必要があります
基本的には
・生演奏を再現する
・作品として面白くする
の二択です
そこから更に細分化したものになりますが初心者であれば大まかに決めれば大丈夫です
楽器が少々遠くに感じられますのでそこを編集する事でより良いものに出来ると思いますが録音の仕方により出来ることは限定されます 同意。切なくなるくらい素晴らしい。
コメントするのがもったいないくらい。 皇族に対して殺害予告して捕まったり実の母親に暴力ふるったりした人が居るって聞いたけど本当なの? 精神異常者 天 羽 優 子 @apj 本人の自分語りでしょ。
キチガイジっすなあ とりあえず再通報だわ。
このスレで他にもストーキング被害に遭っているミュージシャンの方が居られる事と思うけど、
その犯人は>>296に書いた人物の可能性が高い >>296に書いた人物(を自称する人物)による
有名なストーキング被害としては
2017年ピストン西沢氏が被害を受けた例があるから
対応方法等はそちらと相談してみると面白い事になるかもw まあ音楽家やミュージシャンもいろんな人が居るね。
あえて火中の栗を拾うポリシー故に多大な誤解を招き易い方も居られれば
それに噛み付いて妄想を垂れ流すメンヘラの人も居る。教授がかつて主宰したレーベルにもそのタイプの方が居られて閉口した。
優れた感情表現をする為に苦労してスキルを積んでも
大半の人は大きな成功を収める所までは行かず
副業兼業その他音楽関連ビジネスをしながら音楽活動をせざるを得ない厳しい分野だから
メンタルに支障を来たす方も居られるだろうし
そこにつけ込んで板を荒らすメンタル異常の50代婆も来ている。
大変だねw メンタル異常の50代婆の現在の精神状態については
いきなりステーキスレを参照。
スレに要注意人物として警告が貼られたにも関わらず
先に上がった犯罪告白(実の母親への暴力、皇室への犯罪予告で捕まった等)関連の意味不明な話を延々と書く「精神病発作」を起こしている事が確認できる。 ピアノとバイオリン、それぞれ別トラックで録音出来ていれば何とかなるのでは
この音源みたいに全体俯瞰、バイオリンニア、ピアノニアがあればミックスで色々と対応できそうやけど 漠然とした独り言が何回も書き込まれる時はスルーしとけばいいから対応が楽だね ドラムってAD2とかでもルームとかオーバーヘッドでアンビ成分入ってるけど
その場合、リバーブって別にかける必要ない?
ルームなどアンビ成分が入っている音源でもドラムにリバーブって必要? 直近の音源にドラムは入ってないし
音源も無しに一般論は言えない
具体性の無い構って質問 AD2にルームとオーバーヘッドが入ってるけど、
ルームとオーバーヘッドがあれば、リバーブは別途で足す必要ない? それは自分で判断すべき話でしょ
アンビで充分だと聴こえるなら不要だし
普通はアンビとダイレクトだけでは十分な音作りができないから自己判断 専門ドラム音源に一緒に収録されているルームとオーバーヘッドを使うのか
、それを使わずにセンドで立ち上げたリバーブでアンビ感を出すのか やっぱり収録されたアンビ成分使う方が迫力は出ると思うんだよね
一方でルームの響きが気に入らないということもある
自分でリバーブ立ち上げる場合、ルームの響きはコントロールできるからまとまった仕上がりにはなるが迫力はやっぱり今ひとつ 特殊な感じにしないなら
ドラム音源のアンビエントとリバーブそのまま使うぞ
リバーブ加えたいなら曲制作の時点で加えてるはずやん
音源の場合、その音セットを選択してる時点でその音がベストのはずやろ リバーブは本来の残響増やす目的ではほとんど使わないな
リリース切って、音そのものを増幅させるサチュレーション的な使い方をする
リバーブ感はあるけど休符に音が尾を引いて残らないのが現代的なサウンドだと思ってる
例えば4拍目だけ休符にするような曲書いたとして、この4拍目に音残しすぎるとダサくなるという思考 >>313
いわゆるショートリバーブとかいうやつか? >>308
いやー流石動画見ただけでプロになった気がしてる君は言うことが違いますなあ 本当皇族に殺害予告する様な人間ってどこか違うよねw
普通の人間なら実の母親殴ったり出来ないよ この話か。それ妄想質問
【山形キチガイ速報】長期ストーキング&性的ハラスメントで通報された天羽優子@apj、実の母親への暴力と、さる筋への犯罪予告で捕まったと称する妄想文を開陳【統合失調症による妄想症状悪化か?】
295 名前:名無しサンプリング@48kHz (ワッチョイ 57fe-EAs+) [sage] :2021/02/10(水) 21:06:18.86 ID:J3c4vAs30
皇族に対して殺害予告して捕まったり
実の母親に暴力ふるったりした
人が居るって聞いたけど本当なの? 昔ホールで録音してたけど、クラの人は残響たっぷりのウェットな音が好きだよね。
特に外人はこもり気味のリッチでウォームな音を好む。スタインよりベーゼンが好きだったり。
面白いのは照明で外人は眩しいから暗くしろ言うけど、日本人はガンガンに当ててシワ飛ばしてって言うw
>>310 のはオンマイクで録音したのにホールの残響を混ぜるとブライトで一般人向けになると思う。
葉加瀬太郎みたいなもっと現代的にするなら、パートごとにコンプで弦やピアノのアタック出したり音量差を少なくして聞きやすくしたり
EQで音質弄ったりだけど、クラ好きの人向けならこのままでもいいと思う。 今回のはマイクセッティングからやり直さないと無理。 >>321
目の色が薄かったり青かったりする人は暗くてもよく見えるからな。
日本は目の黒い人が大多数やからサングラスかけてるみたいなもんで、明るいのが平気。 >>322
やっぱどうしてもオンマイクが欲しいな。
演奏の録音ってより、風景音の録音に感じてしまうな。 >>323
言われてみるとそうだね、光に敏感だから外人はグラサン。
ってことは高域に敏感な耳だからウォームな音が好きなのか。
J-POPがシャリシャリなのもそんな理由なのかも。
>>291は自宅で別録りしてcubaseでミックスならばみんなアドバイスできる筈。
ヴァイオリンはオンマイクで別録り、ピアノはいっそのことMIDIデータでうpすればみんな喜んでミックスしてくれると思うよ。 「パパが頼まれて発表会を録画してみた風」だったらこれでもいいだろう
目標ないし目的は?ってところが不明確なら結果もあやふや >>325
日本語の音域と英語の音域の違いはあると思う。
日本人が英語が苦手なのはその音が聞こえてないからっていうからな。
確かにRadioをラジオって発音するのは聞こえてないからなのかも。
中国人はRadioをRadioって発音するから聞こえてるみたいなんよね。
ということは聞こえ方の差異は気候や人種では無い可能性が高いから、やっぱ言語ってのが有力に思える。
Jpop独特の音もそこから来てるってのは十分あり得ると思うわ。 >>325
シャリシャリっても主にアニメやアイドル界隈の話だけど、この板に上げられる参考音源の殆どがそっち系な事からも分かる様に5chに来る音楽やってる輩の殆どがそれ系好きだからね
みんなそこ目指しちゃってるもの >>327
東南アジアの人達が甲高い声なのはなんでなんやろね?w
鼻らから上で発生してるような
欧米だと喉より下の部分を鳴らすらしいね
日本はその中間なのかな >>328
・基本はボーカルを中心にミックスする
・日本のメインストリームはアイドルシンガーだから声が薄い
・声の薄さは中低域の少なさで、それに合わせたミックスはどうしても低域を軽くせざる得ない
・低域を軽くすると高域も薄くせざる得ない
って感じなんちゃうかな
日常的に洋楽を聞いてる人からすると、子どもシンガー枠の音って感じは否めないと思う。
>>329
やっぱ、気候からくる空気の重さ(湿度?)が言語にも影響するんかな。 >>330
体格、骨格の違いも大きいだろうけどね
ただ耳はどうだろうな
もし違いがあるならオーディオ再生機器、録音機器にも生産国によって周波数特性に差が出てもおかしくないと思うけど
目の受光量も違うなら日本のアニメや映画は欧米人には眩しいんだろうか?
紫外線とかの話では無いのだろうか なんの不思議もないよ、単になにもかもへたくそなだけだよ
へたくそにありがちな音
お互いに遠慮してへたくそなのを良しとしてる日本人が悪い >>330
石造りと木造の文化の違いって聞いた事あるよ。
西洋の石造りの建物だと音が反響するから、低い発声をする様になったとか。 >>331
映画とか、多分まぶしい可能性あるな。
なんせあっちは夜の照明がやたら暗い。あれで見えるんやから、日本は何かにつけ明るいんかも。
>>333
そうかも。木造は音を吸収するもんな。特に高域になるほど吸収される。 たまに中国ドラマとかみるとライティングがやたら白っぽくて眩しいね
オーディオ再生機器も、バブル期あたりの3ウェイとかハードドームでシャキシャキだったね、
録音機材もそうだった、マスターに必ずエキサイターかます、みたいな。
BOOWYとかバービーとかブルハとか当時のバンドブームの音聴くととみんなドンシャリ。 過去にちゃんとうまい奴はいたのにそれを少しも引き継がない御遠慮文化
うまい奴を連れてきて全部任せてそれを見ながら一緒にうまくなるというメリケンには負けて当然
他人との違いを認めず、少しでも出る奴を警戒する幼稚な文化 >>336
バンドブームの時代の音ってのもあったと思うけどな。
リマスタしてないやつ聴くと、その当時はその音が精いっぱいやったんちゃうかな?って思う。
今はやろうと思えば当時の何百万円分の機材を投入した音もシミュレートとは言え可能やもんな。 もう遅いから外人を連れてきた方が早いよ
ネットで頼むだけじゃなくて一緒に作業しなきゃうまくならない
よくわからん在日じゃなくて一線の一流を
しかしコロナでそれもできなくなったけどな >>336
BOOWYもそうだけど、バブル期なだけあってみんな海外Recやミックスはしてるんだけどね
ドンシャリっていうかレンジが狭いというか
それでも同時代のマイケルやマドンナはそんな事無かったよな ミックスだけへたなんじゃないから
演奏がまったく違うし、エンジニアとちゃんと相談して音作ってるし
ギターストンプ並べるだけだってしっかりレベル合ってないとだめよ
そういう細かいところの長年の蓄積、それもう絶対追いつくのムリ >>340
別に出来ないわけじゃないと思うよ
例え海外で一線のエンジニア呼んでミックスしてもらっても日本のメーカーを通す段階で多方面な関係者の意向でハデハデにマスタリングされちゃうよ
クライアント「うーん、もっとハデになりませんかねえ」
技術より文化の問題の方が大きい >>342
外人マンセーし過ぎw
海を越えてこっちに伝わるのは何億人の中のトップレベルだけ
自宅で音も出せない楽器も弾けない日本人に出来ることは限られてる >>343
それはそうだね
判断まで全部を任せないと結果は出ない
こっちがあっちに行く方が早いか10年ぐらい
だたそうだと解ってても実際にはできないんだよな 結局渡米しても全てを外人で置き換えて終わりだな
全員がメリケン標準以下なわけだから
もうふてくされて寝るしかない
これから吸収伝承しても30年はかかりそうだ >>345
プロデュース構造が違うのがデカいよね
アーティスト文化より芸能界の方が強い国だし >>341
ミュージシャンとしての違いもあったのでは
マイケルやマドンナは演奏も超一流の人ばっかやった
テクニックというより、出す音そのものが違うってのはあると思うな。 バブル期の精一杯っていうか一生懸命レンジ広げようと無理してドンシャリなってたのかも。
時代の音だね、NYパワーステーション系だって同じ傾向だった。
ていうか日本のエンジニアが真似してただけか。 日本のミックスは例外なく耳が痛くなるもしくはキンキンした高音が出過ぎている 自慢のミックス聞かせてよ動画ニカゲツ先生
ご高説通りPro Toolsの良さも宣伝出来るし
フリーのミックスパラ素材ネットに色々あるからやってみてよ >>350
アニソンばっかり聴いてないで色々聴きなよ 今は指一本で鍵盤押すだけで何もしなくても立派な音が出ちゃうじゃん
昔は何もかも人力で音作りしてるんだからしょうがないな
当時の12ビットの音聴いてみたらいい
それでもこのCDの音なんだから本当に恥ずかしい Tiny Desk Concertの録音は上手いよね
特にマイキングはめちゃ参考になる >>291です。
>>310さん、MIXをありがとうございますm(_ _)m
お返事が大変遅くなってしまって申し訳ありません。
こちらはコンプレッサーをかかなりかけているのでしょうか。
だいぶ音が近くにかんじるようになりました。
録音したとき遠目から録音してしまったので、もっとおもいっきり近づければよかったです。
ほかの方もおっしゃっているように、オンマイクにすべきなんですね。
オーディオインターフェイスとか全然使いこなせてないので、今度録音の練習で使ってみようとおもいます。 オンマイクでデッドな空間でレコーディングするのがいいかと
アンビ成分まで上手に取るなんてプロでも難しいのでは?
毛布をマイクスタンドで囲めば簡単にデッドでレコーディングできます そのデッドでとった素材をあとはホールリバーブで足りてやればそれだけで使える音になります。
リバーブについてはリバーブレシピにオンマイク用のルームなど色々な設定方法が記載されています 素人環境やと録音のハードルが高いと思うわ。
電子ピアノで良いなら、ピアノ奏者もバイオリン奏者もヘッドホンモニタで演奏。
電子ピアノはライン録音、バイオンリンはオンマイク録音の2トラックあれば
あとはミキシングで残響足したりして何とかなるのではないか。 録音の時点で残響はないほうがよかったんですね。
毛布をマイクスタンドで囲むという方法もあるんですね。
やはり最初の時点で残響がありすぎて、後で処理しようがないですよね。 こういう音楽の場合、いくら音がきれいに録れても、お互い同じ空間で同期しながら気持ちよく演奏出来ないと意味ないと思うんよね。 >>327
日本語と英語の音域の違いっていうとどんなところが違うの? 別に日本人だって向こうに10年住んでりゃ英語もぺらぺらになるんだから聴こえてないとかいう事は無いだろう
「ラジオ」だって単純にRADIOをRAJIOというローマ字読みが日本語に合うから定着したに過ぎないよ
「アメリカ」だろうが「ミュージック」だろうが >>361
確か英語のが周波数が高い。
中国語とかは近い
ディエッサーも恐らくは英語やから余計に需要あったんやと思うよ。
>>362
音域は数か月で適応してくるみたいよ。
例えば日本人同士で「あれはフジサン(富士山)」ってそのままリピートできるよね。
でもRadioはラジオに変換されてるってことはそのままリピート出来ないからやん?
なぜ外来語がそのままじゃないの?って疑問ある。
中国人とかは大概、発音はそのままやねんな。それに漢字あててる。 ふーん
また誰かの受け売りで知ったかぶりしてるみたいにしか思えないな
ありがとう >>364
言語別の周波数表を見たことがあるな
ググればすぐでると思う そうですね知識っていうのは全部受け売りって言ってしまえばそうかもしれんけど、なんかあやふやで自分の頭で消化しきって理解したものではなさそうだなって気がしたのです 日本人でこの人はすごいミックス上手いって人いる?
いなければ海外でも可 >>366
ググっだらいっぱい出てきた
俺が無知なだけかすまんかったね でも巷に溢れてる言語別の周波数範囲とか言う図を鵜呑みにするのはどうかと思うね
日本語の周波数範囲は125〜1500Hzとかわかりきったみたいに書いてあるけど、マイクに向かって出した声のスペクトラム見たら実際には日本語の母音でも6kHzくらいまで振幅があったり、4~5kHzが強いピークの音があったり10数kHzまでちょっとレベルは低いけど広がる音があるわけでしょ
喋ってる声のスペクトラムを統計的に見たら言語別でエネルギーの集中しやすい帯域の違いがあるってことは確かなんだろうけどね >>363
日本語の文脈の中でネイティブな発音、発声は無理でしょ
ギター弾きながら途中で一小節だけピアノ弾くみたいなw
「(高めの声で)いやあ、昨日の深夜「réidiòu←(低く響かせながら)」聴いてたらさあ…」
ルー大柴みたいにならね?w どうやってミックスしたってボーカルに元々存在しない迫力や魅力を増やすことはできない
誤魔化すことならできる >>367
雑談みたいな話まで相手にそこまで要求するメンタルもナカナカやね。
>>371
今の日本語やとおかしいわな。変換英語が周知されてる訳やからね。
言語の周波数の話は、なんで変換されてるん?って事よ。ワザワザ変換する必要はないのに変換されてるには理由があるはずって事で、それは言語の音域で聴こえにくい周波数(慣れてない)が含まれてるからちゃう?って事ですよ。 >>373
周波数以前に口の使い方でネイティブ発音を途中に組み込むのは難しいんじゃないかな
シンセで例えれば、日本語ってフィルターは可変させないで喋るけど、英語や中国語は「みゃう」とか「すぅい」とかフィルター動かすじゃん
時にはベンドダウンすらさせたり >>374
確かに、口の動きあるかも。ミャミムメミヨとかシャシシュセショとかかな。 >>310
好きなように弾いてて楽しそうで良いね
ヴァイオリンはこれで良いけどピアノはもっと前に出すか引っ込めるかした方が良いと思う。今のままだと中途半端すぎる
ミックス以前に曲のアレンジ的に噛み合ってない感じがする 音響学で習ったと思うけど人の声って第一フォルマントF1やF2
ぐらいが1番エネルギーが強いから、その人の声らしさは成立するんだけど
オシレーター(声帯)をレゾネーター(喉、食道、口、鼻など)共鳴体で作られる訳で
波形を分析すると実は人の声の発する周波数ってもともと幅が広いんだよな
ビリージョエルは喉でワザと共鳴させる様に歌うテクニックを持っているし
小田和正さんっは頭のk,t,pなどの子音に強いストレスで後に続くロングトーン聴きやすくするように歌っているし 声帯オシレーターが出すホワイトノイズみたいのをキャリアーって言ってたっけ?
学校で習ったことの大方は忘れてしまったけど
レゾネーターから帰ってきた波形をキャリアーにぶつけて声が出来上がるんだよね、確か なんか結論ありきの雑談みたいだったからためらってたんだけど一応書いとく
ヤマハやカワイとの比較ならともかく
スタインよりベーゼンが好まれるってのは論理的に破綻してるし
クラシックではウェットな録音の方が必ず好まれるってわけでもない
そもそも室内楽なんかはサロンとかで演奏されるのが本来のありようだし
残響たっぷりなほうが違和感あるかな あと…コマーシャルなJ-Popが高域偏重気味みたいな話は概ね同意だけど
日本人の優れたエンジニアだっていっぱいいると思うよ
Goh HotodaとかSadaharu Yagiの例を挙げるまでもなく
昨今80年代のシティポップが海外でも評価されているように
日本の音がおしなべて劣っているってことはないでしょ >>380
一番大事なとこ間違ってるんじゃないか?忘れてたこと勉強し直してから書き込んだほうがいいよ みなさんトップエンド(10〜15K)を伸ばすのにどのような工夫をしていますか?
ここはハイハットなどウワモノを上げると明らかにハイが出過ぎるし、ウワモノを控えめにするとトップエンドがなかなか伸びません
プラグイン処理などでしょうか? サチュレーションかなぁ。
Decapitatorで歪ませた音をすごい薄く混ぜるとか。 >>384
金物がつられて困るならもっと上(16〜20k)でコントロールしても良い
それでもダメならそれ用のツールでも良い
>トップエンド(10-15kHz以上の領域)のシェルビングをブーストをほんの少し加えることで、トラックに空気感を与える効果がもたらされます。可能性として危険なのは、シンバルやハイハットのレベルが、その他のドラムキットと比較して上がりすぎてしまうことです。サウンドの鈍さを解消するための別の方法は、Aphex Vintage Aural ExciterやVitamin Sonic Enhancerのような高域強化用プラグインを使用することです。
https://www.minet.jp/contents/article/waves_mastering_eq_tips/ >>384
あとはEQのシェルピングカーブがQによって凹むタイプのEQも上手く使ってみては?
https://i.imgur.com/ZVonbaX.jpg >>384
何がどう伸びてないのか音ないと判らんよ。
低域固めてないからハイが馴染まない時もあるしな。 文章読んで分かる範囲で答えればよろしい
何ならお前が音上げて例を示しても良いよ? じゃあ、低域ブヨブヨなんちゃうかな?
特にベースはしっかりと潰してる? >>396
どのくらいのレベル?
金出して習うべきと思うかどうか?
この人が金とってミックス講座開いてるのかは知らんがw
あとこの人
https://youtu.be/OcGFB5-uELc
実績はすごいかも知れんけど金払ってどこまでミックスが上手くなるのだろうか? >>392
特に「おお!」って所は無いし
普通にちょっと手慣れたアマチュアって感じかな >>397
動画での、やることはこの2つだけってやつでしょ?
この人のやってるのはミックスでは無いと思うよ。
ミックスされたもののマスタリング工程(音圧上げ)やと思うで。
ミックスなしで仕上げるってのは可能。
ミックスされたトラックセットを使って楽曲制作したらできる。
現にそういう音色セットも売ってるしな。 >>400
本人はミックスって言ってるけど?
あとスタジオワン付属のやつ(それも1つや2つ)しか使ってないって言ってるけど、、、 DAWの新規プロジェクト立ち上げで最初にサンプルレートとビット数を設定するけど、
これってサードパーティでの打ち込みに影響する?
例えば24bit 96で立ち上げて、外部音源で打ち込みすると、その音源は 96に対応してなかったとか。
やっぱり外部音源を使う場合は16bit 44、1で設定して新規プロジェクトを立ち上げるのが無難? >>404
他の機器と違ったら違ったらで96から48にでも16にでもプロジェクトをダウンコンバートすれば良い
それが出来ないDAWなど知らない >>402
ミックスが整った音色の組み合わせたら、いわゆるミックスは音量調整だけやからね。
それをミックスと呼んでも差支えは無い。
そういう制作の仕方もアリやと思うし。 但し、1トラックでも生録音が混じると、他の音を調整する必要が出てくることが多いと思うから、ボカロとかエレクトリックなインストとか音楽ジャンルは限られてくる事になると思うよ。 スレチかもしれないけど教えてほしい
買ったばかりのギター音源にMIDI CC7を〜とか書いてあるんだけど
具体的にどうやって使用しますか?
使いたいキースイッチのノート打ち込んで、、とかで使うわけじゃないってことですかね。 MIDIトラックのコントロールチェンジ7番に数値を入力するんやろ 音源のcc7向けのメッセージをDAWで書けば動く。
cc7ってボリュームだから普通はFader でやるけど。 >>400 の考え方でやってみたよ
https://20.gigafile.nu/0220-bd3d7dd1614d6488665ae5dbfb7b87dab
同じクリエイターの音色を並べて、DAWのMIDI自動生成で構成、各トラックは出来るだけそのままで、マスタにchannel7→IK Oneで仕上げた。
マスタのOneは慣れてるから使っただけで、他のリミッターでもイケると思う。
曲は自動生成やからあまり突っ込まんといてほしい。
適当に展開して人間リード演奏したらそこそこかもw
ベースの音が気に入らないけど、これしか無かった。そういう制約は出てくる。
結構そのまま音色並べるだけでもイケるけど、多少無理あるな。
ローカットが必要な音色あるし、リバーブに送るトラックは出てくる。
この辺を曲制作での音色設定と捉えるか、ミックスダウン時の設定と捉えるかやね。 SSL通すだけで音がプロみたいになるというのは本当だと思う >>412
これは音色ってより、(今の私が出来る)自動生成の限界って感じかな。
自動生成を基にして演奏入力→クオンタイズすればGM感は減ってくると思う。 >>413
かつ、出過ぎやから、リバーブもやけど、更にコンプとEQで滲ませて引っ込めたいな。
あと、自動生成やからコードのガイドトラックに合わせて白玉弾き直すのがなw
ピッタリクオンタイズにするにせよ、なんやかんや人間演奏が効率いいわ >>417
マジかー!
RIP ルパート・ニーブ…
素晴らしいお人だった
心から御冥福をお祈りいたします この方は本当に良い人で仮に家に強盗が入ってきた時良い音楽を一緒に聞いたら改心出来るのではないかという思いを抱くくらい優しい心を持った人だったという
音楽を本当に愛していた人だったと思う
ありがとうルパート・ニーヴさん 調べたらコロナが原因の肺炎で亡くなったそうじゃないか!
くそコロナ絶対許さんぞ
個人的にコロナに対して復讐することを決めたわ
音楽で復讐してやる
なお中国には恨みはないです 英語良く読んだらコロナでは無い肺炎だった…
頭に血が上って冷静でいられんかったわ…
もうニーヴさんが作った新作買うことは出来ないんだと思うと悔しくて悲しくて涙でるわ 残念だなぁ。新しい彼のデザインはこれでおしまいか。 >>383
>一番大事なとこ間違ってるんじゃないか?忘れてたこと勉強し直してから書き込んだほうがいいよ
何処が間違ってるの?教えて
こっちも大学出てから20年も経ったからうろ覚えな所も有るし
そもそも音響学自体がそのまま作家にとってはに十分に利用出来る物でも無いし
ミックスの段階でどうのこうのという話は別の話だからね 動画ニカゲツ先生のおおよその年齢が判明しましたね
動画ニカゲツ先生もこれを機会にニーヴ氏に敬意を表して真面目にミックスに取り組んで欲しい >>424
声帯から出る音がホワイトノイズみたいのってところが間違ってる ついにニーヴさん亡くなったかぁこれからも新旧お世話になります 専門音源ってそれぞれ「ビット数とサンプリングレート数」って公式に載せてないんだね
16ビットなのか24ビットなのか、44.1kHzなのか48kHzなのか96kHzなのかわからないわ
AD2もスペクトラソニックスのも全部のってなかった
打ち込みベースで楽曲制作する場合、最初にDAW側でビット数とサンプリングレート数を何に設定すればいいのかわからないじゃん。
暗黙の了解として24ビット48kHzに合わせてあるのか? 専門音源はそれぞれ公式HPに
この音源は24ビット48kHzです
とか載せておいてほしいわ。
ビット数とサンプリングレート数の不一致がどれだけ楽曲制作の妨げになるのか、DTMしている人ならわかるだろうに ニーヴさんの思いを受けていっちょ俺が立ち上がるか♪ EastWestが44.1kHzってのだけ知ってるな
Goldが16bitでPlatinumが24bit >>430
作業上の妨げは特にないだろ
一般的には44.1k素材の音源でもそのまま96kだろうが48kだろうが、其々の環境下でコンバートされて使えるからあまり問題視はされてないし、そのコンバート負荷、精度もそれほど皆気にしてはいない
厳密に言えば当然ロスは出てるだろうが「所詮シミュ音源」という妥協もあると思うな
「そこまで言うなら生で録れよ」という
サンプルライブラリー44.1Khzが主流問題
https://masafumiiwasaki.com/blog/sample-44k-problem/ 購入した後で良いなら、ライブラリの素材ファイルを見ればその素材のフォーマットは分かるべ サンプル素材が44.1kならプロジェクトも44.1kがベストなのかも知れないが、それに拘るとサンプル素材が48kの製品はそのプロジェクトで使えなくなってしまう
大容量サンプル音源の素材が全て96kになったらそれはそれでストレージスペースや読み出しの負荷など制作上の負担も大きくなるだろうしな それが大問題なのです。
GA5をDAWサンプリングレート96で使っていたところ、何か音が少しだけおかしいでも放置していましたがその違和感が大きくなってきました
原因がわからず、放置。
でもおかしい、そして原因探求をしました
色々調べた結果、DAWのサンプリングレート数が原因でした
44.1や48ではトップエンドが正常で出ますが、なんと96では15K以上のトップエンドがごっそり消えていました。
これはアナライザーで確認したら誰でもわかることです。
致命的です。
録音だけなら96がいいのでしょうが、打ち込み音源を使う場合は44.1か48がおすすめです。
96では帯域が抜け落ちていく専門音源が出てくるのです 製品がビット数とサンプリングレート数を書かないのは本当にあかんわ
これは利用者に対する最大の冒涜行為
絶対許せん ソフト音源のサンプリングレートが分からないのは結構問題かも
プロジェクトとレート違ったらどこかで変換してる訳だし
それがDAW毎に音が違うって話にもなってくるのかも >>439
Groove Agent 5なんじゃないの? >>437
その音源はそうだとして、その他の音源はどうだったのさ
それ(GA5)を持ってないユーザーには縁の無い話じゃねえの? >>441
素材フォルダにあるサンプルファイル見れば分かるやん
(まあ独自のパッケージになってるのもあるけど) >>445
ほぼ独自パッケージじゃない?
EastWest、Native Instruments、Spectrasonics、reFX、IK Multimedia、XLN Audio、Steinberg見たけど全部分からんかった DAWはPTでもcubase でもS1でも全部結果同じだった
GA5はハイハットが顕著だったけど、それ以外もハッキリとは出ないけど、なんか少しトップエンドが伸びてないのは聞いてもそうだしアナライザ見てもそう感じる GA5+Cubase10で検証してみたけど
24/96だと48kまで伸びてる点を除いて
24/48の場合と比較して特定の帯域が著しく異なるとかはないね いくらコンバートで変質があるにしても15kから上がバッサリってのはさすがに他に何か原因あるんじゃないのかね 念のため同じキットで試してみたら再現されたよ
キットによって問題が出る場合と出ない場合があるみたいだね >>452
モダンパーティーだとトップエンド消えちゃいましたかね?
DAWやIFが発展していって32bit浮遊点や 96以上に対応したとしても、
ライブラリーが44、1のままじゃ >>437
それって単にエリアシングノイズの反射が
なくなってるだけだよね 一応検証したファイル上げとくね
https://47.gigafile.nu/0222-b259e2164b2437a4406123139923a6680
Init The Kit 24/48
Init The Kit 24/96
Modern Party 24/48
Modern Party 24/96 どうもサチュレーション系インサートの
オバサンが悪さしてるみたいよ どう考えても明らかにエリアシングが消えただけだよね 意味がわからなければGearslutzにそれ専門のスレッドがあるから見た方がいい
44.1kでプラグインの音が悪いのは
サチュレーション系のエリアシングの反射のせいなのが検証されてる 自分で確かめたければ10-15Kあたりのサインウェーブ出してみたら
どこにおかしな倍音が出てくるか見えるから一発でわかるよ 問題点がよく判らないな
96kで不具合があるとして、48kで作業したらNGって事? 内容:
結局、 96kでDAW立ち上げると、アナライザで確認したらトップエンドが抜けることがあるというのは結果としてそうなんで、DAWを48で立ち上げれば良いということですかね
確かにGA5にはデェフォルトでテープサチュレーションが内部インサートされています。それが 96kでDAWを立ち上げると悪さするって事でしょうか その辺がよく判らん
確認できないマズい事がありそうなら、避けて作業するって訳にはいかんの?
48k作業では解決策にはならんって事なんか? 各パーツとキット全体に挿さってるサチュ系FXのオーバーサンプリングを全てオフれば
24/96でも問題は発生しないよ
24/48の時と質感は少なからず変わっちゃうけどね
よってGA固有の問題だからスレチかな >>463
もちろんかなりのプラグインでそうなるよ
サチュレーションで20K以上の倍音加えてる上に
オーバーサンプリングしてないんだから たしかに24ビット96Kでも、内部インサートを全て解除したらトップエンドが出るようになりました。
ここで質問なのですが、GA5でまったく状況(内部インサートを全部したまま)で24ビット48Kと24ビット96Kで、トップエンドの音の出に違いが出たのはなぜなのでしょうか? >>465
ヤマハに聞くかCubaseスレの方が良いと思うけど。
GAのコンバージョン時のデジタルフィルターの問題。 素直にメーカーに報告してやった方がいいんでないの?
バグみたいなもんだからね >>426
>声帯から出る音がホワイトノイズみたいのってところが間違ってる
声帯だけの音を大学で聞かせてもらったことある?
あとラジオ放送局のキャリアーの音とか聞かせてもらった事あるけど
小さな音のホワイトノイズ(みたいな)音だったぜ
音響系の専門学校ではそういう授業は無いのかな?
必要ないかもしれないけどね、フォルマントや振動論や周波数変調とか b1って事は動画ニカゲツ先生かな?
トンデモ理論にかけては本当一流だよね 音質とか音そのモノの話しばかりしててもしゃーないよね。
料理の議論で材料の良し悪しや産地だけ語るようなもん。 ほんそれ
ミックス嫌いなの?ってレベルでミックスの話題で会話しないよねw ボーカルにオートメーション書きまくるの楽しい仕上がりが断然良くなるし ミックスにオートメーションは必須だよな
必要ない楽曲もあるけど基本的に書いたほうが良い ライブじゃ絶対に再現できないから虚像だよな〜と思いながら書くオートメーション そういう時はライブを想定したオートメーションを書けば解決 オートメーションはどれくらい大袈裟に書くか?ってのはあるな。
ある意味ライブ(演劇)の再現、観客の視点の誇張として誰か一人だけライトを当ててる感じにするのか、なんとなく全体を俯瞰した感じの調整として書くのか。
歌ものとかやと臭い位に誇張すんのもアリやんね 生録、生演奏メインだからかあまりオートメーションは補佐的にバランスの補正で使うくらいだな
録音、演奏時に抑揚付いてるから変に表現として付加すると気持ち悪い事になりがち
そもそもダイナミックスはボルュームの変化だけでなくトーンや気持ちが変化しないと意味ないから、抑揚や表現を加味したいなら打ち込みや演奏をやり直す >>479
そういう意味ではなく、ボーカルの出番になったら極端に以外のフェーダーを下げるとか、オケの中の細かいフレーズが出てきたら極端にパン振りするとかそんなやつ。 >>480
なるほど
まあでもボーカルとかメインのデカい音量が出でくればトータルコンプで周りは自然と下がるけどね >>481
トータルで処理されるってのもアリやけど、能動的にやってますって感じのも割とええんよね。 そもそも歌モノで生演奏だと気の利いたプレイヤーなら歌中ではそれなりのトーンに落とした演奏に自然としてくれるから、その曲がカラオケになっても「あ、ここから歌なんだな」感を出してくれるけど、ループとか使うと一辺倒になるから工夫もいるだろうな 打ち込み生シミュのドラムでもイントロのパターンを歌中にコピペするとかしないで、ちゃんとトーンを落としたパターンにすると能動的(人間的)になって"演奏の意思"みたいなのを感じさせられるからね
演奏のテンションはそのままで音量だけ上下させても中々それは演出出来ないものさ >>484
それはあるな
所詮は演奏が全て
midiなら打ち込みが全て いくら演奏で抑揚つけても録音物にする時はオートメーションが必須だよ…
ワンポイントで録音するのでなければ生演奏でもオートメーションは必要
どれだけのマイク使ってどれだけのパート重ねるのか知らないけど基本的にはオートメーション無しでミックスなんて考えられない
どんなに腕いい演奏家の録音でも録音物の最終型を決めるのはミックスエンジニアだよ 演奏がダメなら何をやってもダメ
滑舌や発声が悪ければ何をやってもダメ
エンジニアみなそう言う オートメーションもピッチや各種編集も補佐としてあるモノ
しっかりした演奏や歌にコンプが適切にかかってればオートメーションはちょっと使うだけ なんでそんなんを、ミックスのアレを言われなアカンのや! 演奏が大事なんて誰でも知ってる事でドヤる奴はレコーディングスレでも作ってそっちでやってくれよ
このスレの意味確実に理解出来て無いんだからさ 演奏の抑揚に合わせ
更にフェーダー書くかって是非やね
抑えて小さく演奏してるのを
あえてクローズアップさせるべくフェーダーを上げるってのもアリそうやけど >>493
わかる
ハイハットと被り過ぎなんだよ系のボーカルとかいるんだよなー >>494
自演おじいちゃん年金暮らしだからって何を言っても良いわけじゃ無いんだよ?
今世間では年寄りに対して冷たい視線送る人が増えてるけどおじいちゃん達自身の行動が大きな原因なんだよ? >>495
そういう弱い音をコラージュ的にレイアウトする様な演出なら別トラックで良くね?って気もする
トラック数は無制限なのだからオレなら多分そうするかな
多分EQやコンプの処理も変えたくならないかい? 最高の音をミックスで仕上げる事をできる人は結構いるけどダメな音を合格ラインまで持っていける人はあんまりいないんだなって最近気づいた
あんまりやりたくはないけど >>498
確かにそうやね。
違う設定のリバーブに送るとかもあるかも。
フェーダーだけやとDJみたいな荒さを敢えて押し出した感じとかかな。
>>499
駄目な音って例えばどんなん? >>500
予算がなくてアマチュアが演奏したものや歌が本業じゃないアイドルさんの歌とか一聴してマジかと言いたくなる奴
ADSRやダイナミクスを作ったりいじったりやってる事はもはやエンジニアじゃなくてアレンジャーだけどクライアントには喜ばれる ドヤ顔して超こまかいオートメーションを見せられても
ああミックスが下手だからいちいち上げ下げ必要なんだろなって思う
上手い人ほど上げ下げいらない、演奏もミックスも
そう意識して反省しないといっこうに改善されないよ >>501
これはアイドルソングとか声優が歌ってるアニソンとかだとあるあるだけど、まあどっちかっていうとミックスというよりはピッチ補正やボーカルトリートメントの要素が大きいよね。
まあ外科手術レベルで上手い人とかいるけど、本来のミックスとはかなり別の作業だと感じるw >>501
請け負うのならやらねばならない事だけど、外科手術自慢がミックス自慢だとドヤ顔されてもそれは別の話だからね
良いミックスをする為にデコボコな材料を綺麗に加工するのだから、ミックス作業に入る前段階の作業の話だと思うけどな
ここで凸凹フニャフニャで部屋鳴りしまくりな歌トラックをどうすれば良いか相談しても先ずは「練習しろ、録り直せバカやろう」と言われるのは当然だし、それに対して"直す技術が無いの?"と煽るヤツもバカだろ? てこんぷってさ本当にちゃんとできてる?
ちょっと遅れたりしてないか、だとしたらレベルぐちゃぐちゃってことだよ なるほどわかった抑揚のないアイディアのない平坦なループサウンドなんだな
そりゃ上げ下げ盛大にやらないとな、どんどんやってくれ
一方的に文句つけて悪かったよ この板おじいちゃんっぽい人が多いのは何でなん?
話してる内容が古臭いんだけど >>504
アナログ卓のフェーダーで手コンプするのと、上げ下げしても劣化の無いDAWのフェーダーで手コンプするのと、その味付けは一緒では無い気もするけどなあ どうせ素人レベルよ
ここに手マンチョで俺に勝てるやつは居ないね 手コンプというかオートメーションはトラックがパートを跨ぐ場合はほぼ必須だわ
イントロもサビも同じ設定で良いわけがない 同じ設定で良いように演奏すべきかと オートメーションありきの録音ってゆがんでんな オートメーションの必要性理解してない素人さんは好きにすれば良いよ
歪んでる以前に録音の意味さえ理解出来てないという自己紹介で草しか生えん オンマイクでレコーディングするとどうしても、音量が固まって入る瞬間がある
遠くからマイクセッティングしたらそうはならないけど、オンマイクだとどうしても避けられない
その部分だけオートメーションで平すには必要なんじゃない?
あとはマイクの距離が少し変わってパートごとに音量差が出た場合は全体を調整する意味でオートメーション >>518
オートメーションが必須な素人さんも好きにすれば良いんじゃないか?w
どんなエンジニアに聞いても「必須では無い、必要であれば」というだけだよ
コンプだってEQだってそう
「必須では無い、必要であれば」だよ
別に盲目的にかけても良いけどさw >>519
コンプでだいたい揃うけどね
それでもダメな時だけだね
オートメーションの出番は 商業エンジニアは国内外問わずオートメーション書いてるのにいらないっていう人はまぁいいんじゃない?それで 「必須」ていう事は100%だからジャズにもクラにも使うんだろ?
ここのプロの人はマメだなあ >>522
このスレに「オートメーションいらない」ってレスある? >>522
100%?
瑛太の「香水」とかオートメーション使ってるかなあ? なんかオートメーションの意味が噛み合ってなさそう
フェーダーの動きだけじゃなくプラグインのパラメーターも曲中まったく動かさないってそうそうないでしょ >>526
それは「演奏」だよ
モジュレーションでビブラートかけるのもミックスかい? え?ビブラートのCCもピッチベンドもサスティンペダルもミックスに於けるオートメーションの話題に含めるまさかの展開?w アウアウウーは室内でこもりきりのネット情報検索おじさんなんだろ
色々と勘違いしてるというか録音物というものを全く理解してないのが見て取れるから 言ってもない極論を持ち出して相手をレッテル張りし議論を茶化すことで
永遠に自分だけが正しいポジションに入れると思い込んでる お前らまた喧嘩してんのか。笑笑
ゼロイチで話するからだと思うぜ。 ジャズとかクラシックがオートメーション書かない前提っぽい話してる時点でお察しだよね
あと動画ニカゲツ先生は脳内で生成した情報じゃなく現実に経験をつんで理解した事を書いてくれよ アウアウウー Sac3-GgAZ
みんなが追い込むから後戻りできない基地外みたいな挙動し始めてるじゃん
やめたれって あらま、発狂しちゃった
ちょっと揚げ足取りし過ぎたかなw そもそもバンドの生演奏の録音にCCなんて出てくる要素もないしね
100%でも無い事を必須だ必須だなんて迂闊に言うもんじやないよ
子供がマネするぞw 横からだけど
昔のことだが誰でも知ってるプロエンジニアにミックスしてもらったことあるけど
最後の方はSSLのかなりの数のムービングフェーダー動きっぱなしだったぞ
歌モノはフェーダー操作でプロっぽくなるんだなと思ったわ
今はもう別にプロっぽいのだけが偉いわけじゃないからどうでもいいと思うが 揃える、整えるフェーダーなんて当たり前なんやから
揃える意味では必要ないけど、敢えて攻めるフェーダーの話にシフトしていくのが正解や
無理やり話しを展開させたらええねん >>542
逆にアニソンとか無名のエンジニアがやってるのは
サビでオケが厚くなる場面で急に歌が下がってたりとか
おいそこ盛り上がるところだろみたいな あえてデモ風の作品作るのでなければミックスでオートメーション活用しない選択肢は無いと思うがDTMでは面倒で使わない層がいる気もする アニソンの複数で歌ってるやつはサビで急に人数増えたりするからボリューム難しいんだよね。
サビで複数感を出すためにボーカルごとに左右にパン振ったりするけど、その分センターは薄くなるわけだし。 十何人で歌ってる奴はもうそういうものだと思って諦めてる アニソンのミックスは年々緻密になっていく印象あるな
複数人ボーカルの演出も話の内容に合わせてたり歌の上手い声優を活用してたり聴き応えある >>541
当時は同じひとつのトラック、限られたミキサーチャンネルを様々なシチュエーションに合わせていくのだからね
シーンの切り替えは必須だろう
だけど昨今トラック無制限、チャンネルストリップ無制限な環境下でそこまでの必要は無くね?
ヒラ歌とサビで別チャンネル、レベルもインサートも違う設定など雑作もないこと 「サビだけ歌もうちょっと上がるかな」というリクエストに対して、「オートメーション書き直し(編集)」と「別トラックになってるサビのトラックのフェーダーをちょっと突くだけ」と、どっちが楽かな?
オレは後者でやる派だけどね >>550
もうアニソンしか聴いてませんて白状しろよw >>551
バスに送ってまとめて上げるのはダメなの? アウアウウーはアニソン蔑視の音楽レイシストだと白状したね
音楽に貴賤は無いよ
この人言ってる事がおじいちゃん臭いとは思ってたが結構な老人じゃなかろうか >>542
特にそんな意図的なオートメーションは感じないけどね
コンプで整えられてるだけでしょ
「トゥールトゥットゥ」だけ別トラックで別エコー感処理だろうね
https://youtu.be/9MjAJSoaoSo >>551
これさあw
バスのコンプとかマスタリング考えると頭痛いわな
眠くなってるしもうマスタリングでなんとかなるだろ
という感じで突いて終わりじゃないの?
普通w >>554
レスに困ったらとにかく"おじいちゃん"だなw
もうちょっと反論がんばれ 相手にしてもらってうれション垂れ流しの子犬みたいなレスだなw >>553
AメロBメロサビとかそれぞれ別トラックに配置してバスでまとめてるよ
共通のインサートやセンドはバスでかけてね
要望があればそれぞれを出し引きするだけ
サビで加わる楽曲やアレンジに対応してEQとか変える場合もあるからね
それを一々オートメーションでなんてやらない >>558
おまえも当然オートメーション要らないケースもある事は重々理解できてるだろ?
そこまでバカだとは思っちゃいないぜ
ただ無責任に必須だ必須だ言うのをやめろとオレが言うのは、トビサワb1みたいな情報過多に飲まれるヤツが「そうか必須なのか、じゃ使わなきゃ」てなるからさ
ミックスに於いてEQもコンプもオートメーションも「必要だが決して使わなきゃイケナイ物では無く必要に応じてる使うものだ」と言っておかないとダメだとら思うぜ >>560
いや、そんな事はないよ
そもそも録りの段階でそれらを分けて録る場合も多々あるからね
空のボーカル4〜5トラックをバスでまとめてる状態を初期フォーマットにしてるよ
とにかくオートメーションは「変更」があると何かと面倒な事になる
もう触らないという箇所の奥の手でしか使わない 君たちはまだまだおこちゃまレベルやからもっと頑張らな 君たちはprotoolsさえ持ってないでミックスしちゃうレベルなんやから >>562もういいだろ、こういうお子ちゃまだらけだから日本の音がわるいのはしょうがないよ
世も末だからあきらめてほっとこう
b1ニカゲツまで来ちゃったし 急に基地外に賛同する単発が出てくる
ん?妙だな、、、 >>517
ライブでも曲の最中にミキサー動かすの普通なんだが >>568
その為にはモニター回線はプリフェーダーで返しておく必要がある
中小規模な会場の殆どがポストフェーダーのAUX回線で返されてるからフェーダー弄るたびにモニターのバランスは変化しプレイヤーは困惑する事になる
だからちゃんと解ってるプレイヤーはソロはソロ、バッキングはバッキングの音量をちゃんと自ら調節するよ
キミがPAやることがあるならプリなのかポストなのか気を付けてね
プレイヤーの人怒っちゃうから >>561
オートメーション必須な理由が本当に分からないならそれで良いよ
前々から思ってたけどアウアウウーは知識が中途半端だ
真剣に音楽やってる人間には思えない メタリカと交響楽団の共演動画やと、ミックスの人がステージにおるな。
アンプサウンドとオーケストラをライブで混ぜるとなると、スタッフレベルではなくパフォーマンスレベルの技量なんかな。 多くのプラグインを10年使ってきて最近気づいたんだけど、
プラグインって挿しただけで全体の音質の7割は決まってしまうんだな
wavesのプラグインは挿しただけで7割wavesの音になるし、UADもsoftubeもOZONEも全て一緒
あとの3割はメーカーが出したモデリングの差異だったりパラメーターの調整による差異だったり
この考え方を見つけてからミキシングがシンプルになった
存在感を高めて強調したいと思った時は解像度高めのUADやslateのプラグインを使う選択肢に絞れるし、
解像度を下げてアンサンブルに馴染ませたいと思った時はwavesを使う選択肢に絞れる
あとはメーカーの中にあるプラグインを使ってどう調整するかで3割が決まる
ミキシングは選択肢が多すぎるからこういうシンプルな考え方で追い込んで行った方が時間も無駄にならないと思う
俺はこれに気づくのに10年かかったけど今から始める人はすぐにでも使える視点 >>572
後で音源にもするから相当な手練がやってると思う >>575
レンジの広さ、キメ細かさ、上品な質感みたいな
wavesはよくチープな音って表現されるけどそれがマッチするケースがかなり多くある
特にEDMとかをslateで音作ろうとするとレンジが広すぎてまとまりにかけたりする
wavesのSSLGチャンネルで音作るといい感じにレンジが削がれて聴きやすくなる 音源パートは音源に入ってるエフェクトセットを使う時あるわ。
下手に悩まんでええし、結構いい感じに収まる。 wavesって一口に言うけど、最近発売されたものもあるし20年前に出たのもあるわけで、全部同じ音の傾向なわけないじゃん。
まあ発売年だけの話じゃないけど。 >>570
そいつは残念
思ったよりバカだったか
因みにa_watcherもアウアウ使うから混同するなよw >>579
L1もQ10もリニューアルしてる
wavesのプラグインは新旧、大体質感は揃ってるよ >>572
動画観てなくて言うのは忍びないけど、それはモニター卓では無くて?
メジャーなアーティストのホールレベルのツアーでは表(客席側)のミックス卓とステージ脇にモニター専用卓があるシステムが普通だけど 古いプラグインと言えど音変わってしまったら過去のデータの再現がダメになるからそれは困るねw WAVESは叩かれすぎ
音がチープとか変な先入観があり過ぎだと思うわ
逆にslateは持ち上げられ過ぎ
特にコンプ系は何これ??とかなるのが多い なのでリニューアルしたから質感揃ってるよってのは流石にない話 UADとか Acousticaなら確かに質感揃ってるとか言われてもそうかもなと思うが
WAVESは玉石混交すぎてゴミから超使えるやつまで全部質感同じとかありえないよ
アルゴリズムもデザインもいくつかの違うチームがやってるのは測定すればすぐわかる >>582
探したけど、どの動画か判らなくなったわ。
ミキサーのおっさんがステージの中に座ってたと記憶してる。
四周観客に囲まれたステージやから、卓の置き場がそこしか無かったのかも知れない。
私がオーケストラ競演の場合はミキシング作業も演奏メンバーの一人と位置付けたのかと感じただけなのかも知れない >>588
客がいるなら尚更外にいて客が聴くスピーカーを聴かないと客の為のミックスは出来ないし、中にいるなら中音(モニター)用のミキサーじゃ無いのかな
普通モニター卓はステージ袖に居るけど隠れるとこないのだろうし
外音(客用ミックス)の卓は別にどこか外に居ると思うよ >>584
>>586
トータルリコールの話だけど
何十年前のprotoolsと2021年のprotoolsって音質違うじゃん?
それと同じでトータルリコールは完璧ではないんだよね
プラグインが音変わってもらったら確かに困るけど、DAWは時代とと主に必ず変わって高音質化するし
プラグインも時代と共に高音質化してリニューアルしていくものなんだよ 一時的はwavesよりuad
今はwavesよりオゾン
まぁwavesとオゾンは使い方が違うけど
結構時々で意見変わってきてる パソコンのスペックも年々向上していることもあって
ネイティブプラグインがグンと発展してきているには間違いない
いちいち外部機器付けてDSPでプラグインさすのとかだるいでしょ
たった一つのノーパソで全完結する時代が来たのだ >>589
なるほど。
おっさん映ってる動画探してみるわ。
そんときはミキサーが(メンバー的に)入ってるわーって感じでしか見てなかった。 >>590
DAWはミキサー部分のエンジンが一新されたり内部処理の精度が変わって良くなってるってのはあるだろうね。
というかメーカーがそれを謳ってたりするよね?
でもDAWがそうだからといってプラグインもそうであるという断定に繋がる根拠にはならないよね。
あなたはL1がリニューアルして音質が良くなったというけど、俺は画面が変わっただけじゃね?って言ってるわけじゃん。
それを否定する割には根拠が出せてないんだよな。
それにプラグインが時代とともに高音質化しているならAPIもSSLもL3もVcompも全部高音質化しているということになるけど、それならなぜL1とQ10(の画面)がリニューアルした例を出してきたのかも理由が分からん。
ってかL1なんかあのちょっと音が潰れた感じがデジタル初期の感じでいいなと思って古さを出すためにトラックに掛けたりするんだけど、音が今風になったら意味ないじゃん。 >>590
マスターからの出力がトータル的に変わるならまだ良いのさ
トラック毎に挿してる其々のプラグインのサウンドが、方やリニューアル、方やそのままで、それらが混在するとミックス、バランス的に困るだろ?
「トータル的に音良くなってるね」は良いけど
「サイドのギターだけやけに音良くなってる!」ってのはさw >>595
確かQ10が最初にリリースされたwavesのプラグインだよね
後にアップデートがなされて192khzに対応したんだよね
SSLGチャンネルは未だに96khzしか対応してないみたいだが
俺は時代とと主に新旧の質感がある程度揃うようなリニューアルされてると思ってるんだけどな
開発者から話を聞いたわけじゃないから予測でしかないわけだが
>>596
ミキサー内も変わるからなぁ
トータルを聴きながらプラグインで作り込んでいくから細部の仕組みも一新しちゃうと結構原型から離れちゃうんじゃないかと思ってる
だからトータルリコールって役に立つようで役に立たないというか
大昔に作ったプロジェクトを7割くらい再現するイメージ まあ昔のバージョンのプラグインをまたインストールして現行のと比べて検証でもしないと本当に音が変わったか確認しようもないよね。
とはいえ古いプラグインは古い音だなぁと今でも感じるし、その古さが欲しいから使ったりしてる部分もあるので、本当に音が今風にリニューアルされてるかっていうとホンマかいなという気持ちはどうしてもあるけど。 WAVESの古いのってRシリーズぐらいしか使わないな
というか考えてみたらそれももう何年も使ってないか
WAVESに限らずプラグイン自体どんどん使用頻度が減ってるし >>597
まあソフトだけで無くハードの問題とかもあるから、なんだかんだ結局はオーディオデータにして残すんだけどな まぁwavesも新製品どんどん出してるから
その度に音質向上しているってことでしょうね 最近の邦楽のほとんどが、音量しぼってやるとボーカルとドラム以外全く聴こえない
これが正解なのか そうだな、まあ歌だけはとても高い機材を使ったいい音のが多いけど
マスタリングも歌にしか焦点が合ってないし、とても日本的
歌が聴こえないよりはましかな
他の楽器が聴こえないのはつまりただローカットしてシャキシャキにEQしすぎてるってこと ドラムがきこえるのはマスタリングですごく低い低音をやたら上げてるから
あんな安易な低音いらないのに高域を上げてるから下も上げるしかないんだろ
すべてが幼稚園 まあ俺はそんな流れは無視して音量しぼってもオケが聴こえるようなミキシングで作るけど
ダイナミクスあるのは勿論良いんだけど、ボリューム落として聴いてる時、歌引っ込んで間奏のピアノソロになった瞬間なにも聴こえないみたいなのはさすがにダメだと思うんだよなぁ どの曲のこと言ってるのかわからんが
上と下あげるというより
中域のボーカルの邪魔にならんように
オケの中域下げてるだけだと思うんだが違うの? 全員がドンシャリスピーカーでやってんだからそうなるよ
全部の高域あげてるから高域だけでバランスを取るようなもの
中域のバランスなんて取れてない聴いてない >>603
そうかい?
ヒゲダンでも米津でもボリューム極小でもプラスやストリングスも聴こえてるけどな
アニソンやボカロ限定の話ならよく知らんわw
https://youtu.be/6lnS-8FVod4
https://youtu.be/SX_ViT4Ra7k ボリューム落とすと低域から聴こえなくなるのと環境を選ばない音にする対応はおんなじようなもん。
ドラムセットのパタパタとベースのビビビが残るから
ドラムセットのモモモとチチチのモモモが消え
ベースのモモモとジジジのモモモが消える
このチチチのジジジの出過ぎが耳痛ミックスの原因
チチチとジジジに頼らないミックスを目指すのだ そうそう
だから逆にボリューム極小でも豊かな中低域が聴こえてたら普通の音量ではモンモンサウンドだからねw 日本のミックスは音程はしっかり聞こえるのだが、全体的にリズムが感じられず、どこか微量の攻撃的な音が含まれており、尚且つ高音が出過ぎていて耳が痛くなる 知ってる人いたら助言お願いしたいです。
ギター音源にV-Metal使ってて、ビブラート打ち込みたいんだけど、
モジュレーションかけてもほとんど効果なし。
マニュアル見たら、アフタータッチで出来るって書いてるけど具体的にどうやりますか? >>611
日本のMVは演奏形式でも映像の演奏構成と出音構成が全く違うよね
テレビのライブ映像でもそう
当てフリであれ、音の構成くらいは合わさないのかなって思うわ
視聴者を馬鹿にし過ぎでは Cubase で書き出しのときに注意する点てありますか?
ピークに触れない-0.1とかにして書き出せば外上部でしょうか?
配信とCDで2種類必要なんですかね? リバーブレシピ通りのパラメーターでリバーブディレイかけてみたらこりゃかかりすぎだな
見本見てもかかりすぎてる
原音が押し込められてるわ
あくまで影程度にうっすら、リバーブは自然な響き程度のさじ加減が大事やな >>620
はじめはそう思うかも知れんけど
それくらい要るで
ドップリかけられるように精進がいる >>620
んなもん曲の方向性によりけりだわ
臨機応変ってものを覚えろよ 動画ニカゲツ先生またの名を書籍一読先生か
本当にろくでもない >>589
https://www.youtube.com/watch?v=0m6smR-M2qg&list=PLXIdhrTXbAT2POy1mzlMzBz8asDl9BsvT&ab_channel=Metallica
0:30あたりにチラっと映るオッサンがアクティブにミックス作業してるのかなと
バンド、オーケストラ、指揮者、に加えてミキサーも重要やと表現する為に中におるのかと思ってな。 >>618
にわかの俺のうろ覚えだが、配信とかで圧縮音源にすることを考えると1.5dBだか2dBくらいヘッドルームあけたほうがいいんじゃなかったっけ >>624
中にいたら上から吊るしてるメインスピーカーの音聴けないからやっぱりメインミックス卓は外にあると思うよ
中は中でこれだけのイヤモニ、ヘッドフォンのシステムだか
それだけで手一杯だろうね
https://i.imgur.com/40LUdq1.jpg >>634
どうみてもモニター担当のおっさんや、勘違いにもほどがある
現場に綺麗事はいっさい関係ない、実用性あるのみ >>626
なるほど。中の人は中の人向けに作業するって感じ? >>629
そうだよ
全ての回線は分岐されて其々モニター卓とメイン卓に送られてる
モニターの人は楽器のマイキング、セッティングなどもしながら演者とコミュニケーション取りながら演者のモニター環境を作り上げる
メイン卓の人は客が聴く表の音を作り上げる
ホールクラス以上のライブではそうやって其々の仕事に注力する完全分業が普通だよ
ていうかそれらの(演者と観客の為の)膨大なチャンネル、回線を一人でリアルタイムに熟すのはムリがあるからね
因みに表のミキサーの方が客に対しての責任があるので偉い人(チーフ)がやる事が普通
モニター卓はマイクセッティングや雑用も多いので二番手の若手が担当したり
ライブハウスクラスになると規模的に扱うチャンネル数は遥かに少なくなるけど、とは言えひとつの卓で一人でやらなきゃならない >>630
となると、映ってるオッサンだけでなく、もう一人くらいは中の人用の要員いるのかもね。
演奏者の人数おるもんな >>630
このスレでそこら辺の話がまともに出来るようになっただけで大きな進歩だね。
つい1〜2年前まではステージ周りとモニターとFOHを1人でやるとか言い張る人が張り付いていて、まともな話は全くできなかったっけ >>631
日本でも普通のメジャーアーティストのツアー音響さんで3〜4人くらいだね
チーフ(メイン)二番手(モニター)補佐(1〜2人)
補佐はセッティングはもちろんモニター卓と反対側のステージ袖にいたりしてミュージシャンのモニターリクエストを中継したり、ステージ上のトラブル対応やケーブル介錯したり、何かあると飛び出してくるのはその人達
別途、楽器エンジニアも数人居て彼らもステージに良く現れるね
因みに録音、収録は別チームがやるよ >>632
中々表には見えない部分だからね
オレは20〜30代前半までツアーのマニュピレーター、イクイップメントテクニシャン(楽器エンジニア)で色んなアーティストのツアー回ってた裏方の出身だから
旅先の夜に色んなミュージシャンやエンジニア、スタッフと語って色々教わったのが良い肥しになってるよ 知り合いのスタジオエンジニアは
ここ十年ぐらいでどんどん職を失ってるけど
ライブの人は仕事減ってないの? ライブやコンサート関連はコロナでみんな死にました
エンジニアに限らず
スタッフも仕事ないから家にこもってDTMとかやるしかない状態 配信とかその辺まで技術があれば仕事はあるみたいだけど 急にDTMやり始めてもすぐはモノにならないから大変そうだな ニュースとかで見る限りでは
エンタメ廻りは変な空気よね >>635
音響屋も照明屋も組織で会社だからそうそう失職はしてないだろうけど、フリーランスの人もいるからその人達は厳しいね
中にはUberやって凌いでるなんて話も聞くし
ツアー専門のトランポ屋も一般運送に回ってるらしいけど なんせライブ関連は名指しで中止を迫られてる業界だから、文化庁が独自にイベント関連企業を救済してる助成金とか色々国の補助はあるらしいしそれらも受理されやすいだろうけど、逆にレコーディングとかスタジオ業務の方がそういった補助受けるのは敷居が高いんじゃなかろうか
何にしても何処もガタガタだよね
ヤフオクとかもPA機材、Rec機材の出品も増えてるし 感染症(が蔓延してる社会的)対策って失敗してるよな
公平性が失われてるし、何より
保護エンタメ業界が自立エンタメ業界をスケープゴートにしてる エンタメは何をおいてもまず真先に社会から切られるからな日本では特に コロナカ動画とかでリモートでセッションみたいなやつあるやん?
リアルタイム風で制作してるけど、リモートでリアルタイムセッションなんて可能なんか? 一般的な回線ではなく、それを可能にする回線が存在するん?て意味ね まあスレ違い以外の何者でもないよな
PA・SRスレを出禁になった長期荒らしが
ミックスダウンスレでスレ違い自演をしているのが現状 >>647
3年くらい前の時点でこんなCMやってたくらいだし技術的には可能なのでは?
https://www.youtube.com/watch?v=clP4BztPTlU
素人がやるリモートセッションの場合は使える機材にも当然制限が出てくるから
どこまでこれに近い精度を出せるかはわからないが・・・ これリアルタイム編集動画やん。
ミックスダウンとは関係ない。
この手の奴は、各地点ローカルで音楽鳴らしてそれに同期してダンスしてもらって、三つの動画の通信遅延を考慮して動画上で時間軸を合わせて合成して配信。
音楽のリアルタイムセッションの場合も、通信回線他のタイムラグを小さくするのは当然だけど
それだけでは体感遅延があって演奏者側のタイミング合わせしにくいから
予めリハーサル的音源を各地点に配っておいて
演奏者はそれに合わせて演奏して
配信側は時間軸を合わせてライブミックスして配信
というのがガチな方法 >>649
ダンス配信の同期は遅延同期、遅延配信で視聴者に問題なくライブ配信は可能やと思うのよ。
ライブ演奏の同期が可能なのかなって。
可能、将来可能になる予定ならライブレコーディングの方法やブースの在り方が変わってくるよね。 ミックスでディレイ をドバッとかけたら
特にボーカルは最後の語尾特に伸ばす所の最後でだらしなくリバーブがべったりすることがあるんですが、それはディレイ のオートメーションで対応しますか? >>651
0.02秒(20msec)かぁー。
遅延感覚演奏のコツ要るって感じかな 東京-ロンドン間は9,556km、光速で約32ms
東京-ニューヨーク間は10,840km、光速で約36ms
ロンドン-ニューヨーク間は5,404km、光速で約18ms
ネットワークのパケット往復速度はもっとずっと遅くて東京-ニューヨーク間の場合200ms程度が相場。
ライブ動画のやり取りの場合は、それに動画プロトコル側のオーバーヘッドがかかるから
数百msオーダーの遅延を前提に
リアルタイム共演しているように見せるアプリ側のテクニックが必要になる。 >>651
遅延20msは国内でベストのネットワーク環境の場合だろうな。たとえば東京-大阪間ならパケット往復5msという値があるから、プロトコルやアプリの遅延込み込みで20ってなるんだろうな。
海外だと一桁上の遅延 まあとにかく、某所を出禁になったスレ違い荒らしが
ミックスダウンスレでスレ違い荒らし自演をするのは
筋違い。
ここも出禁だな >>655
光速の壁を超えられない以上はリモートライブ演奏は不可能って事かなー。
ドラム→ドラム聴きながらベース→ドラムとベース聴きながら上モノ
お互いに戻り無しってライブ演奏?なら、まあ可能っちゃ可能か。 やっぱりリバーブレシピはリバーブディレイ かけすぎだわ
のっている数値の−3〜5dbくらいが丁度いい
見本聞いても、いい感じのもあるけど、特に曲全体の聞いたらぼやけて風呂場になってる >>654
作品レベルは難してくも、打ち合わせや簡易なリハーサル的な事には使えるんじゃないかな
まあ物理的にムリがあるやね そんなセオリー通りに作って名曲が出来上がるくらい単純ならもうとっくに機械に仕事取られてるからね セオリー通りっぽい制作と
戦略に沿ったプロモーション 音圧上げ切ることしなくなって久しいけどある程度は洋楽だったりハリウッドらへん参考にしてそれなりに上げなきゃな マキシマイザーはOZONEのアシスタントで勝手につく位しか使ってない
今はよほど偏ったジャンルでない限り海苔波形なんて歓迎されない
クラシック並にダイナミクスある音源の方が好まれる limit掛かる前に-14超えちゃうからね
ほんの少し抑える使い方では何使っても同じ
とは言っても未だに音圧高めの楽曲主流だよね さすがに音量低すぎるからどうにかしたいんだが
マキシマイザーでええのか?
低音歪んでバランス崩れたりするんだが挿してから再調整するもん? マキシマイザで良いけど、トータルマスタリングプラグインも手軽で良いぞ >>675
なんそれ
いぞとぺ?
Waves金とロックオンで割と安く買えるしとりあえず持ってたほうがいいのかな 大して変わらないんじゃないかな
低音モリ過ぎでもう上げれましぇん、て事だから 音圧上げたいけど低音が歪むなら、キックとベースをサイドチェインするとかそこら辺が定番の処理 たぶん単に下手すぎて低音デブなだけだと思う
ただマキシマイザー噛まそた後調整ってどうなのかなって思って
キックとベースをサイドチェイン覚えときます、ありがとう マキシで押さえるってもせいぜいリダクション3〜4dBくらい
常に10dBくらいリダクションしっ放しじゃないの? マキシマイザは
音がデカくなるのでは無く
空間がデカくなる
そうで無いならミックスがマズい 下手じゃない。低音聴く環境が無いだけだ
下手なやつなんてこの世にいないよ
生まれてから音楽を全く聴かないで育ったなら別だが今の時代そんなのありえん ギターの音を聴いた事無いやつなんて居ないだろうからギターが下手なヤツなんて居ないってか? ちゃんとした環境で聞いたらドブドブ低音は誰でも判るって事やろ
ギター演奏もホンマに下手なやつは聞いたら一発で判るやんか
上手い人を日常的に聴いてるからやろ 自分の飼ってる犬やネコすら上手く描けないヤツはいくらでもおるで
自分の親兄弟の顔なら誰が見ても分かるくらい上手く描ける自信あるか? 子供の頃からドラえもんやアンパンマンは散々観てるけど、実際に描かせるととんでもない事になるヤツとかおるやんw 自分の顔かけなくても自分の顔いつもと違えばわかるだろ >>688
わかったところでそのいつもと違う顔をパソコンで正しく修正出来るかどうかだよね 皆さんリミッターを個別でかける場合どこにかけることが多いですか?
やはりドラム全体にですか?それともボーカル? あとは料理のド素人でも美味いか不味いかわかるのとかも同じだね
かといって自分で美味い料理を作れるとは限らない
いくら五感が肥えていようが模倣すらできない物事は世の中にたくさんあるね きゅーべ使ってたら勝手に音像デカくなるから個別リミッターとか意識しないんだけど、
PT使い出してから、そのままの出音だから、音像が足りないと気づいて
そこから個別リミッターの重要性に気づく リミッター使ったらアタック消えて奥にいくけど
同じ音量で比べりゃすぐわかる EDMの人は徹底的にトラック潰してるよなソーセージとかで EDMは音源のコンプで充分よ
音色として潰すもんや
イチから音合成の場合やと何か挿したコンプは音源側として設定するんや この曲の始まり4秒くらいのドラムが一気に音量上がる演出ってどうやってるの?
https://youtu.be/UFQEttrn6CQ
普通にドラムのオートメーション? 最後にボリュームついてるのかもしれんけど普通に抑揚つけて打ち込んで他の楽器と一緒に適切にミックスしてやればこうなる
実際この曲もドラムと他の楽器が重なって音量が大きくなってるように感じるだけだし >>673
一人はイビザあたりで遊んでた
貴族だったらしいよな >>674
まずリミッターかけない状態でも
普通にちゃんとした音で聴けてないと
何をやってもごまかした
どこか変な音にしかならないよ puremix契約したンゴ
PT、waves、puremix、これでアメリカの超一流のエンジニアからそのまま技術学べるンゴ〜 やっとOZONEのアシスタントを微妙だなと感じられるようになってきた
俺がミックスで死に物狂いで出した透明感を消しやがる ozoneは自分でできるようになるとそのの邪魔さが分かる みんなアニソンってバカにするけどさ、ヘタにセルフプロデュースのミュージシャンに弄り回されてるミックスよりずっとバランス取れてると思うんだけどな。 アニソンを馬鹿にする奴は多分プロの現場を知らないんだよ
いい意味でも悪い意味でもあれは完全にプロの仕事
だから感心するところもあるしゴミみたいなところもある ちょっと違うんだけど、アニソンには良いものもある、悪いものもあると思うんだよね どんなジャンルだろうと良いものは良いし悪いものは悪い
ただそれだけかと・・MIX的な事に限ったとしてもそうだと思う
仮にジャンルに偏りがあったとしても製作期間とか予算の偏りを無視したらいけない アニソンはあれ、OPEDの映像ありきだからね
突き詰めるとミックスも映像ありきになるんだよ
ガンダムのガシャーンとかジャキーンみたいな効果音付きのOPとかまさにそれで 予算と納期大事
でも足りなくてクオリティ落として評価下げるのはアホだと思う やっぱ餅は餅屋にお任せでさ、たまに演歌とか流れてると音が良くてビビるんだよね。
YAZAWAとかバカにしてたけどじっくり聴いたらドナルドフェイゲン並みにすごかったりさ、
半可通が口出ししないできっちり専門家が仕上げてるのがいいと思うんだよね。 >>710,711
だから一概にアニソンと言ってもタイアップのアーティスト曲と、主題歌用に作った専用曲とでも方向性違うからね
Get Wildとアンパンマンのテーマを一緒に語ってもさw
どっから何処がアニソンなの?みたいな アニソン馬鹿されてるって言うけど
どのジャンルも馬鹿にされてるぞ
馬鹿にしてる奴は〇〇って言い方が正解よ バカにするしない以前にプリキュアのオープニングとかどんな曲かなんて知らないものw
一般チャートに上がってこないしアニメ観ない人間は単に知らんのよね
だからアニソンは「アニメ好きな連中だけが聴く音楽」として見られてるし、世間でアニメ好きと言うと「アニメ好き=オタク=ロリコン」なんてイメージが強いから怪訝な目で見られるんじゃねえの? アニソンタイアップのJ-POPの話が出てるけど、結局今って声優がアーティスト活動みたいなことも兼ねてるから、結局J-POPアーティストが声優に置き換わっただけで同じことっていうケースも増えてるよね。
今は(ここ10年くらい?)アニメにも合うし声優自身の曲としても成り立つみたいな、両方を兼ねてる曲が多い。
月9のドラマの曲とかも同じような構造になってるけど。 人によるやろね。
書き下ろしを上、タイアップ曲を下に見る人もおるやろし、セールスの実態もアニソンのが大きいやろうしな。 つか一般的なアニソンよりそこらの作家事務所が上げてくる毒にも薬にもならない無味無臭なアイドルソングの方がダメだわなんだあのありきたりな記号と積み木の組み合わせは >>719
まあ結局「請負仕事」だからさ
タレントの実力範囲内で何とかしなきゃならないし、その曲調もサウンドも全ての方向性は事務所の意向が100%なんだから
その制限下で作家やエンジニアを評価するのも酷な話さ よくここでも日本のミュージシャンはダメだ、日本のエンジニアはダメだ言うけど、ホントにダメなのは日本ならではの芸能界というしがらみだからな
みんなそれなりに技術も知識も持ってても芸能系の仕事ではそれを発揮させてもらえないんだから 作家事務所に文句言ってもさ、結局クライアント側がコンペとかでそういう曲調のオーダーをしてるってのが先にあるからなぁ。
事務所側は曲調にどうこう意見できるほどのパワーはないよ。
事務所がサウンドプロデュースまで請け負ってるなら別だけど、よっぽどレコード会社やテレビ局お抱えの事務所でもない限り今時そういうのないでしょ。 アニソンのミックスってゴミのイメージあるんだけど、、、 >>721
日本にも海外で通用する人はおるもんな。
それをプッシュしないで、当たり障りなく回収出来そうなのがプッシュされて、プッシュする側もそれを良しとは思ってないのが透けて見える。
これはテレビ枠商売の在り方がかなり関係してると思う。 各音楽ジャンルに特化させたり
それらをミクスチャーさせたりしてるのに
『アニソン』だけで括ってる時点で( >>724
何をもってアニソンかだよ
ルパンや銀河鉄道999もアニソンだしな >>708
俺アニソン5000曲聴いてきたんだけど、そんな俺が感じるのは
良いものもある、悪いものもある。 >>726
だいたいそういうのってごちゃごちゃし過ぎててダサいよな https://youtu.be/L9Q1HUdUMp0
このラジオで流れてるくらいスカスカなのが音楽として丁度いいと思う
そういうのとか特にミックスがうまく感じる
てかミックス上手くないとこういうスカスカな音楽はペラくなって聞けたものじゃなくなる EQは600を基点としたシーソーゲームである
一点だけEQをいじればそれで解決ということではなく
トータルでのシェイプをどのように仕上げるのかと言う問題、
あとは一点だけ穴をあけるということも帯域整理には必要である ここは抜けを良くしたいと言う時、
多くが8、7を上げる
それも一つの方法だ
もう一つはローを下げること
すると相対的にハイが上がり抜けが良くなる
600を基点としたシーソーをイメージするとわかりやすい 動画ニカゲツ先生!
持論はもう良いからお手本ミックス上げて下さい!
ミックス素材は無料のものがいくつもありますから トムハックさんは曲すごい毒だよね
ただミックスが酷い
LLLとか聞いてみて本当に酷いから >>722
そうそう
作家も大半はただの会社員みたいなやつが大半ってことを忘れないほうがいい スパセルのryoも凄いスタジオ所有のやっかみ合わせてすごいひどい言われてたなミックス実際ヤバかったが >>733
ここの連中は皆んな知ってる事だからブログに書いてなよ ryo嫌いじゃないけどな。ミックス酷いってのはわからんでもない
いかにも音圧戦争時代ド真ん中を生き抜いてきたパンパンな音、なんだけど
これはこれで1つのジャンルになってる ryoのやつソニーが絡んでるやつはまともだけど自主で出してたやつは変なバランスでバリバリいってたな EQをいじればいじるほどプラグインをかければかけるほど泥沼化していくけど
案外スッピンが一番良い場合もある
LA2Aとかは薄化粧プラグイン
1176は厚化粧プラグイン
そこが案外大事だったりする 言いたい事は分かったから何かミックスして上げてみなよ動画ニカゲツ先生 >>744
皆んな知ってる事だからブログに書いてなよ puremix見てたら
ファブフィルター、uad使っているエンジニアマジで多いな
後はオックスフォード、protools付属、wavesらへんも多い ファブフィルターのデモ使ってるけど無いとダメな体になりそうで怖い
こういうのって未熟者には良いっていうより他の使った時に悪いで気付くことが多い ファブフィルター使いやすいのかね
俺は持ってないけど
個人的にはオックスフォード欲しい、でも調べたら高い、高杉 Oxfordって古くさいUIで、内部設計も古そうだけど、そんなにいいの??
普通に考えて、プラグインのようなデジタル技術は最新=最良じゃない?
それともFF3の飛空艇のような、常人には解析不能の謎技術が使われてるの? 表世界のボスがwavesやUAD
裏世界のボスがオックスフォードなんじゃないの?
ずっと待ってるんだよ、マーケティングもせず最新商品も出さず、この境地に立てる人間を LA2Aとか毎朝秒で仕上げすぎてmattみたいな質感になってるおばさん厚化粧だろwww プラグインはUIと宣伝文句の商売やろ
演算エンジンは数える程しかないと思うよ >>756
ほんとそれ、つくづくそれ
UADだって全部同じコンプ、サチュ
f特だけ変えただけであとはUI画面に騙されてるだけやな
パーツでモデリングしてるメーカーだって所詮全部同じエンジンの音 昔と現代のプラグインを比較すると、高負荷なUI(見た目)はグラフィック機能の進歩に比例し、格段に向上しているが、プログラムの基本設計自体は今も昔も大差ない。
そのため、今でもプログラマーの多くがコードの記述に旧式ラップトップを使っているのは有名な話。
要するに、確かな音響工学の知識と高度なプログラミング手法を用いて作られたプラグインは、グラフィカルで動的な現代プラグインにも、音質面では決して引けを取らないということがわかると思う。 音質が良いとか悪いとか基準が曖昧だしミックスに使うプラグインやアウトボードは単なる道具だから使いやすかったり自分なりにいい方向に持っていけるいけそうならなんでもいいじゃんと最近思う なんでもいいわけないだろ、ちゃんとしてなきゃこまる
GUIにだまされないでちゃんと選ばなきゃあかん 古くても新しくてもいいという意味ならそうだ
いまだにbombfactoryやUADのLegacyを使う奴もいる、実際悪くない 質問なんですけど例えばボーカルの処理で
・LA2A
・1176
・パルテックEQ
・コンソール(neveかSSL)
・プラグインリミッター
・プラグインディエッサー
・プラグインEQ
これらを全部使うとして、プロスタジオの機材基準だとどういう接続中で繋ぎますか?
コンソールが先なのかLA2Aやパルテックが先なのかレコスタ現場でのアナログ機器の繋ぎ方が調べてもわかりません
それとアナログ機器とプラグインを両方使うときもどういう接続順になるのか知りたいです 録られてる音次第で順番はかなり変わる、楽器でも変わる
全部試して自分の耳で判断しないと他人の真似だけでは成長しない >>762
コンソール
LA2A
パルテック
(コンソール)
(EQ)
1176
EQ
ディエッサー
リミッター
無理矢理全部使うなら >>764
ありがとうございます!
実機では一度コンソールに来て(というよりコンソールから出すでしょうか?)、そこからアウトボードに送り、またコンソールに戻って来てからプラグインへ行く、というルーティングになるという理解で正しいでしょうか?
コンソールは特に実機を使ったことがなく接続等全く未知でしたので参考になります ハードを効果的に使うならプラグインは先の方が良いよ
一例
DAW(プラグイン)
パラアウトで接続
↓
コンソール(パッチベイで接続)↔ アウトボード
↓
マスターレコーダー プラグインは道具でPCも道具やから、ある程度は世代合わせた方がええんちゃうかな。
何の理由で不安定になるか判らんし。
その理由で、あまり古いのは使わないわ そんなEQ使ってたら絶対バグると思う
EQは天秤だから、いじればいじるほどバグる
EQは一発勝負。一発目聞いた瞬間、低音ボワついてたら、そこをカットする、高音出過ぎていたらそこをカットする、バランスよければそのまま。
これで終わり。後は帯域整理でそれぞれ少しだけ穴をあけるだけ
無意味に高音ブーストしたら次は低音も上げんといけんくなる、そしてどんどんバランスが崩れて泥沼化する
EQは一発勝負。10秒以内に決めろ EQでバランス整える→コンプでサラッとならす→必要ならでィエッサー→音像小さいならリミッター
これで終わりや、そんなたくさんプラグインかけて時間かけてても仕方ない ただパルテックだけは別物だから、これが必要ならEQの後EQかな ディレイ無いな
響きゼロでもディレイ絡ませると便利やで クリスロードアルジは
SSL EQで音源調整→1176→コンプ→後はリミッターやセンドでディレイ コンプ
これだけ >>771
隠し味ディレイとか良く使うよ
フィードバック無しの微かな一発ディレイとかも哀愁あって好きやねん >>762
そもそも全部使おうって考えが大間違い。
コンプもEQも無しで済むよう録音するのが基本。
それでもコンプ、EQかけようって場合は何のためにそれをかけたのか説明できる必要がある。
何のためにそのコンプ、EQを使って
どうしてその順番なのかを説明できないのは効果を理解できてないって事。
むやみに数を増やす前に1つ2つでどこまで追い込めるかやってみて、
その上で〇〇足したらこんな効果出たと分かるようになれば、
機材のチョイスや順番も自分で決められるようになる。 俺はボーカルいじりはハードでやってた時は
EQ→コンプだったけど
プラグインでやるようになってからは
コンプで叩いてEQの順番 まずローカット って考えがダメ
バンド形式の場合、キックとスネアの頂点が大体62と64 らへん
だからそこを譲るためにそれら以外の楽器のその帯域を減衰させるだけや
じゃあ、弾き語り(バッキングとボーカルだけ)の場合は?
ローカット いらん。むしろ、60ら辺が必要なパターンや。
そこを削ったら逆に低音スカスカになる。
EQ=ローカット って考えがなーんにもミックスわかっとらん人間の考えや 録音物でやむを得ないでローカット する場合、リカバリーが必要や
どの道60はいるねん 無闇矢鱈なローカット(ハイパス)は厳禁な事など当たり前
同じ帯域を処理するのにハイパスとシェルピング、パラメトリックで結果が違うなど当たり前
当然使うところには使う、使わないところには使わない
まさか自分が発見したとでも思ってるのか?w そもそもローカット(ハイパス)なんて20〜30Hzあたりの不必要なノイズや振動を除去するもの
60Hzあたりの話でローカットがどうのとか何のこっちゃな話だわ この板は昔から低域処理とローカット同列に語る奴多くて「あ…」って思ってたよ エンジニアは綺麗な音を作ろうとする
だが、リスナーが本当に聞きたいのは汚い濁りきったど迫力ロックだ 動画ニカゲツ先生ブログ始めると良いよ
がんばって!
そしてここには来ないでね スネアが被るから楽器は200削れだのベースはキックに被るから譲り合いwだの実はどっちかのハイ削れだのギターはハイを極細で21削れだの結局素材次第だしアドバイスとか音源なければできる訳ねえ。コンプの設定とかブログで言ってるバカも意味わからんし、糞歪んだギターにさらに昔コンプかけて解説してる馬鹿もよくわからん。それが答えが無い理由だわねえ >>785
ハイハットなんかは地面からの低音が響いてくるから200Hzあたりから下はスパッと切ることもあるけど。
どの周波数から切るのかなんて場合によりけりじゃないの? 確実に言えるのは、「1か0か」みたいな極振りしか出来ないのは素人ミックスってこと
やりすぎは良くない。やらなさすぎも良くない
どこまでやったらやりすぎで、どこで止めると丁度いいのかを知らなければいけない LA2Aの後に1176っていうのもすごいものがあるな >>792
もちろん不必要な物はそこから切り捨てて良いんじゃね?
その為のハイパスだろうし
あくまで60付近での被りがあってそこの住み分け処理の話だからさ 【アレンジ】女神転生II DEATH MATCH 〜 死闘 - REFINE https://nico.ms/sm36444490
50秒くらいから凄い
昔からこの投稿者のファンなんだけど、一向にMIDIだけでこのクオリティまで持っていける気がしない…
真似したくてAmpliTube買ってみたんだけどなんかどう弄っても余計なビンテージ感というかモワッとした雑味が邪魔してきて理想の音になってくれない
かといってドライ寄りにするとやっぱクリーン臭いショボい音になるしでストレスマッハなんよ…
もしAmpliTubeで再現できる人おったら設定教えてくれ…
できればイコライジングも併せてお願いしたい
音源はV-METALで打ち込んでます 言葉が足りなかった
ずっとバッキングで刻んでるギターと、1:40ぐらいからのメインメロのギターの2つを再現したい
マジで打ち込みとは思えんわ… リアルストラトとアンシミュで
特に工夫なくてもこの音は出るで
どう聴いてもベタ打ちやしな V-METALはクリーンギターの音源で、エフェクトは付いてないのでこの話とは関係ありません
キースイッチが多くて奏法が細かく表現できるってだけの音源です
AmpliTube側での良い設定を知りたい プリセット廻していったらええやんか
あと、音源側のブリッジミュートの設定ちゃうかな >>802
そのアンシミュ側の設定で悩んでんのよ
プリセットも巡回してみたけど空間系効きすぎてたりクセが強かったりで全部大味すぎて理想通りになってくれん 動画にもあるけどベンドの打ち込み方とかアレンジとかSSHにそっくり >>804
レス感謝
MIDI側かあ
わかったもっと歯切れ良く打ち込み直してみるわ >>805
それオケが悪いねん
メタルギターはドライに聴こえても、相当響いてる 正直ピロピロ系とかの打ち込みギターって不毛過ぎて何が良いんだか分からない >>809
勢い無かったんで横着した
次からそこ使うね
スレ汚し失礼した ギターのあの楽器感は他の楽器じゃ出ないからな
シンセいくらいじってもムリ
他に替えが効かないから、使おうと思ったらその人に使えるギターで妥協するしかない
ちゃっちぃ付属音源からプロの生録まで
ロックなら使わないという選択肢もない
もしギターを縛ると今の邦楽ではほとんど通用しない そもそも>>798ってクオリティ高いの?スーファミとかメガドラっぽいショボさしか感じなかった
そういうノスタルジー再現が狙いなのかな? 毎度イントロ1分くらいチップチューンみたいにして遊ぶ人なんだよ チープパート以外も打ち込み丸出しやし
チープパートのチープさも足りない
ペタペタと打ち込めば割と早くに達成出来ると思うよ マジか
他はどんなメタル聴いてるの?
キミも三か月あればクリエイト出来るようになるよ。 でも、結構面白そうやぞ。
・細かく打ち込みしない
・フレーズは出来るだけ繰り返し
・MIDI自動生成使う
これでササッと制作して音作りでどこまでいけるか?
それを試すのにもってこい リファレンスを調べたら-0.3dbの-6lufsとかの
音源ばかりなんですが-14lufsだと結構音が小さくなりませんか?
tune coreに上げるのは音圧パンパンで良いんですかね?
ozoneで-14に合わせる感じがベストなんでしょうか?
ドカドカメタルなんですが。
因みにリファレンスはnamba69のchangesです。 あれはOP-本編-EDという想定で作られているんだから、
いい音量に調整した後に、基準に入るまで語り続けなさい リバーブの難しさって、音量でガラリと変わるところだよね
これで丁度いいと思っても音量変えたら全然違ってくる
素晴らしいモニター使ってる人ならそんなことないのかな 音量で聞こえ方変わるなら
部屋鳴りとかの影響でしょ
リバーブとか空間系はヘッドホンとかで
確認するのもいいよ 音量を小さくすれば低音の方が早く減衰してシャカシャカして聴こえるから今までマスキングされてた部分が見えて来る
つまり通常音量の時のミックスが(若しくはモニターが)低音に頼り気味になってるからじゃないかな 10Mみたいな低音あまり出ないスピーカーもひとつあると低域にジャマされずに中域作り込めるんだけどね 10Mや900STを未だに使ってる人って現代の一般的な再生機器での出音を想像できるんだろうか? それしか使ってないなら問題だけど普通は併用してるでしょう >>828
スピーカーもヘッドフォンもひとつずつしか選べない縛りでもあるんのかい?w 多分スタジオで一年中寝泊まりしてると思い込んでるんだろう つか、一般的な再生機器ってイヤホンやヘッドフォン以外は意外とショボいんだけどね
店舗スピーカー、テレビ、パソコン、スマホ…
低音モリモリなモニタースピーカーだけに頼るとそんな一般環境ではベースもキックもさようなら
マスキングされてて気付かなかった部分がこんにちわ 未だに10M置いてるスタジオも多いけどやっぱりアレは良く出来た物差しで、アレである程度作り込んでからラージや今風のスピーカーで低音加味、補正してやると色んな再生機器に対応出来る音源にしやすいんよね
モニタースピーカーって言うかフィルターみたいなもんだねアレは 周波数帯域のバランスも重低音以外は概ねいい感じだけど、
中高域のスピード感というか立ち上がりが異様に速いのも特徴的だと思う。
トランジェントが嫌な感じの時に変に悪目立ちするから、そういうのも整えやすい。 >>834
アレにバスレフ付けたりしたらもうダメなわけで、ホント全ては偶然の賜物なんだろうなあ 何でミックスしてようが
ちゃんと出来てたら何で再生しようが音が変わるだけやで
音が変わって気になるなら失敗してるねん 大昔このスレに来てた(っぽい)葉加瀬太郎氏、
坂本龍一氏が前衛舞踏家モリサ・フェンレイ
のために出したアルバムを今も聴いていて
インスト曲なのに音に合わせて歌うっ
て話をしていてほのぼのした なんで10M廃盤になったのか知らなかったけどワシントン条約で10Mに使われてたコーン紙が輸入できなくなったせいなんだってな 全部打ち込みの曲ってミックス要らなくね? ミックスしながら作業してるようなもんだし
他人に弄繰り回されたら違和感しか感じないんだが MIDI音源にコンプ掛ける意義は確かにわからない
スーパーで売ってる刺身から小骨探すようなもんだと思ってる >>845
コンプはたしかにそうかもな
EQは普通にいる
あとサチュレーターで少しだけ倍音足すもありだと思う
あとは一体感与えるためにバスで一気にリバーブかけるってのはやるよね
俺は基本上モノとドラム系で分けてバス作って上モノにはロングリバーブ、ドラム系にはショートリバーブをかけてる >>847
だがすべての人間にこのコメントしてるわけじゃないだろ?
しかもこの黒人のおっさんはいいいね押してくれたし
あとこのサイト見に行ったんだけど金払ったら再生数とかいいねとか決まった数押してくれるってことでOK? ksis感覚が幼稚すぎて哀れすぎる…
ちなみにksisって何て読むんだ? >>849
なんで幼稚になるのかわからんがケーエスアイエスって読む ぱつんぱつんのロックピアノもわざわざプリセットの探して使うの? >>851
適当に決めた
特に意味ない
GoogleのアカウントそのままSoundCloudに持ってきた感じ >>854
一応ちょっと意識してみた感はある
ニックネームとかつけるの苦手なんだよな >>845
いや、その刺身(切り身)は単に材料だからこれから其々の料理に合うように調理するのさ
生楽器の演奏を素で録音した感じをシミュした打ち込みと音源なら生録音と同様にコンプも使ってミックスするのは当たり前
(もちろん音源に内蔵されてるEQやコンプもそのひとつ)
どの曲やどんなアレンジでもコンプ処理済みのプリセットで済むなら刺身専門店でも良いんじゃね? MIDI音源だろうがコンプが必要なら掛けるでしょ。
というかMIDI音源って何のことを指してるんだ?
広い意味で言えばBFDなんかもMIDI音源だけど、元がすごいナチュラルな音だし、自分で音作りするために普通にキックやらスネアやらにコンプかけるでしょ。
それが例えXV-5080のドラムボードだろうが同じことだよ。 俺が言いたかったのは買ったソフト音源そのままで正解なんて大抵ありえないでしょトランジェントなりいるいらない帯域あるんだからコンプやEQかけることもある 他人に弄られたら違和感は分かるが
全打ち込みだからミックスいらないって宇宙すぎてわからない 作曲やアレンジしてる時点で、音色選んでコンプやEQ調節してはめ込んで行ってるからその都度ミックスは進行してる
(作曲とミックスが同時進行してる)
だから別途「TDの日です」ってスケジュールは要らないって事だろw >>858は元はと言えば>>845に対するコメントね。
>>859の言ってる内容はその通り。
>>843の、全部打ち込みならミックス要らなくねっていう意見は、要するに中田ヤスタカスタイルというか、打ち込みと音作りとアレンジとミックスが一体化してる曲作りの人なんだろうね。
まあクラブ系の人はそういう人よくいるし、これはこれでわかる部分はある。
というかクラブ系の曲作り自体がそもそもエンジニア的な資質が求められるみたいな部分があるよね。
まあ打ち込みオンリーだとしても、例えば一般的なアニソンやポップスなんかはエンジニアにミックスしてもらったほうが音が良くなる率は高いよね。 >>862
混ざり合わせるときいるだろ
バス使わないの? それ(ミックス要らない)に対してどっかの誰かが勘違いして「音源はコンプ要らない(処理要らない)」とか言い出して脱線してるけどw >>864
何言ってるかよく分かんないけど言いたい事あるなら>>843に言って ミックスって誰かに頼む行為じゃなくてEQ、コンプやリバーブとか駆使して音を混ぜ合わせることだろ?
バスをいじってる時点でもうミックスだろ なんか話がゴッチャになってるけどもうこれみんな薄々分かって書いてるだろw
ミックス自体は必要だけど、特にクラブ系の曲作ってる人は繰り返し同じ箇所をループさせまくって音作りしながら曲作るからミックスと曲作りが同時進行なんだよな。
だから曲完成後に改まってイチからミックス作業をする必要はないってことでしょ。これは>>862の言う通り。
まあここら辺は曲作りのスタイルにもよるんじゃない?
やっぱりループ系の人の方がこういうのやりやすいだろうけど。 つまりその同時進行した作曲とミックスが切り離せない物を人に頼むのが嫌なわけでしょ?
「ミックス要らない」=「自分の意思が反映されなくなるからあらためて他人に委ねたく無い」という
それに関してはクライアントやメーカーがどうしても外部ミックス(エンジニア)入れるって言うなら入念な話し合い、打ち合わせするしかないよね
もちろん譲りたく無いとこはかっちりオーディオ化して固定させたステムを渡すとかしてねw
若しくは「いやあ、このままが最高すね」と言わせるだけの物や実績を作るしかないでしょ >>843
人や曲によると思う。作りながら済んでしまう人もいるだろうね
ただやはり自分の曲長時間聴いてると耳がバカになってくる部分はあるから
全トラック把握している自分と初めて聴くリスナーでは確実に違って聴こえるはず
だから細かい調整は必要だと俺は思ってる 打ち込みの場合に要らないなら打ち込みじゃない場合も要らないんじゃない?
論点が定まってなくてコロコロしてるし言葉の綾だとは思うけど フル打ち込みだとしても、アイドルやアニソンの打ち込み曲なんかは普通に考えてミックスエンジニアが必要なケースがほとんどだよね。
でもメジャーのやつでもリミックス系なんかだとアレンジャー側でミックスまで済ますケースもまあある。
劇伴でもエンジニアなしでアレンジャー側でステム書き出して終わりってのもあるし。
まあ結構ケースバイケースだなw >>870
>ただやはり自分の曲長時間聴いてると耳がバカになってくる部分はあるから
元からじゃね? 自分の下手なミックスでいいんならそれでok
もっとうまくやりたいんなら他人に全部まかせよ
他人を操作できたって(できないけど)自分が操作するんだから結果は一緒で無意味 音源構成やテンポ、エフェクトとかが同じ曲を制作するなら
ミックス済のテンプレ使って制作するってのはあると思うわ。
後は制作者の中での作業上の線引きやと思うで。
いうたら演奏やトラックメイクを作曲と捉えるかどうかも人によって違うわけやしな 結局、ミキサーをいじればミックスなんだよ
DTMとか持ち出すからわけわからなくなる 過去にこのスレから生まれた有効なミックスダウンテクニックってなんかある?
ミックスとは違うが数年前にドンキーコング2のタルタル鉱山のツルハシの音がタンバリンのピッチ下げで再現できるって言い当てた人ぐらいしかここの猛者を知らんのだが youtubeの動画を2ヶ月見ただけでプロになった人がいるよ タンバリンのピッチ下げはこのスレか音作りスレか忘れたけど何度か答えたことあるな。
でもそれってR-8やSC-88のプリセットでSparkという音色名で元々そういうのが入ってるんで、その機種持ってた人なら多分全員普通に知ってると思うよ。 >>881
カラオケ職人の人はピッチやフィルターを駆使して128個の限定された音色からとんでもない音作り出すからねw
あの発想力には恐れ入るわ シンセで言うとこのADSRを似せれば、かなり再現出来るらしいな SPLがやってるミックスコンテスト出ようぜ
全然参加者居ない そういうミックスコンテストって外人に勝てないというか、そもそも邦楽は土俵が違うことを思い知らされる 海外とか日本って分ける必要ある?
日本のポップスでもグラミー賞もののミックスやったら普通にウケるでしょ ちなみに国内だと、二月にGIUがミックスコンテストをやっていたよ。
みんな参加した? >>888
そうだよ
だけど日本には海外のプロみたいなすげぇミックスできるやつがいない 編曲が日本人向けなだけで、
ミックス自体は日本はかなりいいと思う >>891
そうか?
例えば誰がうまい?
参考にしたい >>894
海外で仕事してたけど日本に来た人みたいね
ありがとう聞いてみる NOKKOの旦那とかもそやろ
逆輸入タイプのエンジニアさん
名前ど忘れした 日本は技術者大事にしないからみんな海外行ったんじゃない? ニラジさんのスタジオはアウトボードいっぱいあって楽しそうよね
ttps://www.youtube.com/watch?v=q4BZw95mxw4 SPLの中の人もかなり細かく批評くれてるみたいだから勉強にはなるぞ
海外は土俵が違うとかいう人はどうぞそのままで 昔世話になったエンジニアさんのバンドの曲
個人スタジオ持ってた
https://youtu.be/vhoJ5772Rag 俺にはこのミキシングの良さはわからんが、本業以外にもゲスト講師任されたりしてた
大半の依頼主はエンジニアの腕がどうこうの前にエンジニアの太鼓判が欲しいだけなんじゃないかと思ってる >>898
そりゃCHARAの旦那や
GOH HOTODAだった だいたい市場の好みが違うんだから出来る出来ない以前の話
ここにいる(オレを含めた)おまえら如きが「海外のミックスが良い」なんて感じるって事は当然プロのエンジニアも感じてるって事さ
技術を持った人間がそれを理解してるならマネは出来る
だからと言ってそれをやって良い市場じゃないって事
日本でバカでかいアメ車売っても軽自動車の方が売れるのさ DTM板のメンツってこんな奴らばっかりだもんな
・a_watcher
・メグデス
・動画ニカゲツ
・アウアウウー
・ハシヤ
・関西おやじ
・ヨシダ
・宅エム
・メルちゃん
・専卒フリーター
・老害煽りボーイ
・昔やってたけど今ってどう?おじさん
・ksis ←new! >>905
ミックス技術ってより
声に合わせたらそんな音ってだけに思える >>906
ksisが「トラップにサイドチェインは必要ない」とか言ってた時は
マジでこいつ頭おかしいって思った >>909
だから日本人サイズに合わせたら軽自動車が合うんよね そのまま頑張ってくれ
お前らに聞く事は何も無かったわ 海外エンジニアは渡された音を良いと思ったらどんどん変えていくんだけど日本の場合良し悪しがわからない人が多いし変えて責任取りたがらないから印象そのままで絶対変えたがらないんだよな >>906
売れない音楽家やってるさぃたまおじさんも追加しろよ >>915
良くない
ペラッペラの使えないタイプビートもどき
ド直球で申し訳ない感想だけど音楽の才能ないよ
世の中のラッパー全員がライム載せたくない糞音 >>913
役職というか立場が違うからね
海外ではエンジニアはアーティスト扱い
日本ではエンジニアはオペレーター扱い >>915
正直ハードシンセとかのアルぺジェーターの方がマシだと思う >>915
何度も言われてるだろうけど自分の作ってる物が手本にしてるような物と比べて
ショボく聞こえないならモニター環境が問題外なんだと思う
表面撫でてるだけで何の起伏もない感じ 初心者の頃はなかなか違いがわからんもんだよ
というかプロとの違いが明確にわかるようになったらそれだけでもう実力的にはプロ1歩手前だからな
それがほとんど最初から出来る人間もいれば何十年やっても出来ない人間もいるから不公平な世界だよ まともにアドバイスできないお前らもまだまだだけどな >>921
以前から何度も事細かくアドバイスを受けていながら何ひとつ変わらないからみんなもう諦めのレスしかしない
おまえがそう言うなら後は責任持って対応、指導しろ
いいな? >>921
的確なアドバイスよろしく
え?出来ないの?
だっさw なんだ本人か
アレだけ無料で色々教わっておきながらとうとうおまえらのアドバイスが悪いとか言い出したかw >>927
今までと何も変わってないからアドバイスなんてあるわけないだろ
もう一回一から指導しろって?
驚くなあ >>928
何も変わってないことないだろ
ちゃんと聞け 一流企業で働いてる割に平日にの午前中に書き込んでしまうカスイズさん >>929
おまえが変えたつもりのところなど何の意味も無いって事だ
おっと、つい素晴らしアドバイスをしてしまった >>931
まともなアドバイスできないから人格否定して逃げてるだけだろ? 普通の人だったらリバーブがどうとかこの音とこの帯域とこの帯域がぶつかってるからこの帯域どっちか下げたほうが良いとかドラムはもっとコンプかけたほうがいいとかそういうこと言うんだよ 12万のスニーカーを買ったり18万のジーンズを買ったりするけど
DAWは無料のCakewalkに拘るksisさん
(自称)大企業勤めのksisさん
サイドチェインの概念がない(Trapには必要ない)と言い張るksisさん >>935
無料のDAW使ってるのはそれが唯一無二だからだろ
S1とか潰れたらCubaseいけば済むけどCakewalkは他に代替品がない >>936
うんうん、君はそれでいいと思うよ
10年後も同じ階層にいるんだろうな
四捨五入したら0の領域で糞トラックを量産 >>937
何年も同じ階層にいるあなたに言われたくないんだが? 評価されることを恐れてるあなたに成長はないと思うんですけど? >>938
JASRAC会員しか見られないページなんだけど
普通に印税収入もあるんよねー
https://i.imgur.com/LzBFw2e.png
申し訳ないけどkisisさんとはまったく違う階層で生きてるのよ というかラップの乗ってないオケだけなんて評価したことないからどうにもならん
ラップ乗ったら当然ミキシングも変わる >>941
印税収入も雀の涙ほどだろ
そんなんでドヤるなや
結局自分の曲挙げないんだよね
それ逃げてるのと一緒だぞ >>942
歌詞がむずいんよね
曲自体は作れるけど >>934
前スレや最初の頃と違ってもう皆んなが呆れたレスしかしなくなってる理由を考えてみたらどうだい? >>930
その人を擁護するつもりは毛頭ないが、今は一流企業は大抵TWなんで、日中も自宅に居てもまったく不思議ではないよ。 一流企業に勤めてるのにワッチョイが理解出来ないksisさん
英語も読めないしサイドチェインの効果的利用法も理解出来ないksisさん
理解出来ない事多くて草 >>947
そりゃ分野が違うからな
サイドチェインの効果も知ってるしな
なんで関係のないワッチョイも理解する必要あるのか謎
社会出ろよおっさん >>950
プロだったらすごいの?
お前は曲で判断しないのか?
俺はプロでもクソみたいな曲作るやつをたくさん知ってるから別にプロだからすごいとかない 例えば音ゲーの音楽作ってる奴らもプロだろ?
だがああいう曲のミックスすごいと思うか?
たしかにすごいうまいやつはすごいって思うけど曲単位の判断だろ? 音ゲー曲作ってる人ガチャガチャと早い四つ打ちなだけで破綻してるけど人気だよな売れないけどね >>953
オタクにはとりあえず小難しいことしとけば良い感じだよな
小難しいことしてたらそれだけでうまいって感じさせることができる
だからごちゃごちゃしてるような音楽が流行るんだよ
アメリカは音数少なくしてシンプルにしてる
その分ミックスで勝負する感じ マジレスすると音ゲーってボタンを叩くと音が鳴るbeatmaniaってゲームが元で、
高難易度化するにしたがってテンポが速くなって大量の音が詰め込まれた曲が増えたっていう経緯がある
音ゲー曲作る人が海外っぽい曲を作れるかとは無関係だけど一応解説
音ゲーっぽい曲が好きじゃないと音ゲーやらないだろうし、ビジネスとしては成り立ってる >>955
ビジネスとしては成り立ってるのはわかるよ
ただ俺はそれだからすごいとはならない >>943
3ヵ月毎の振り込みだけど年間400万だから良い副収入だよ カスイズは最初この板の住人にしては作品をアップするし反骨心?的なものあるし個人的に期待していたがその後のレス見てると単にお金を全くかけずトラップで一発当てたいだけの貧乏人だとバレてしまったので「ksis=カスイズ」という認識になった
音楽制作に必要な知識も無料で手に入れようとしてるし現実の実態だけ見れば本当にコジキカスとしか言えない
精神的にも幼いし見てて哀れになる >>958
ksisさんがどの企業か知らないけど
こちらも東証一部上場企業なので
で、本職とは違う分野での印税収入があるんで
青色申告は毎年大変なんすよ
途中に介入する出版会社に3割搾取されてるし
ksisさんがどういう雇用形態で「大企業だ」って自慢してるのか知らんけど
バイトじゃなく新卒入社の立場なんで、なんかいろいろとごめんね
年間で2回がっつりボーナスも貰っててごめんね >>960
俺も年2回ボーナスもらってるけど?
どんな企業勤めてるかは言えないけど源泉徴収見せようか?w 大企業入れるくらいのスペックなら
作曲家としても成功するんじゃねぇか? >>961
>源泉徴収見せようか?
そんなもんこの板ではどうでもいいんで
せめてJASRACの印税画面とか
ミックス・マスタリングで小銭稼いでるスクショください
ksisさん、あんたすっごい狭い世界で生きてるんだよ
そろそろ自覚しようぜ 社会に出ろと他人に吠えるカスイズ君は5ちゃんも一つの小さい社会でありルールも存在することは理解出来るかな?
ワッチョイ理解出来ないみたいだから教えてあげるけど君が自演してる可能性高いレスを貼っとくね
932 名無しサンプリング@48kHz (オッペケ Sr4f-VmFY) 2021/03/09(火) 12:30:12.75 ID:2+HLS/v/r
>>930
代休消化してるだけなんだよなぁ
946 名無しサンプリング@48kHz (オッペケ Sr4f-Rgwq) sage 2021/03/09(火) 15:24:52.88 ID:yWgl7P/Er
>>930
その人を擁護するつもりは毛頭ないが、今は一流企業は大抵TWなんで、日中も自宅に居てもまったく不思議ではないよ。
ワッチョイの仕組みから分かることだけど
オッペケ →Softbank回線でandroid端末使用
次の4桁 →IPアドレスから作成されるもので一致してれば同じIPアドレスの回線から書き込まれた証拠になる
最後の4桁 →端末情報から作成される
つまり
同じプロパイダ
同じ種類の端末
同じ回線
違う端末
で書き込まれたのが君のレスとそれを擁護してるレスな訳
ほとんど同一で端末だけ違う書き込みって他人だとしたらタイミング的にどんな奇跡がおこってるの?って話
擁護してくれた人と同居でもしてるの? >>963
曲名も金額も書いてないのにそんなにイキるなよw
プロじゃないんだから印税もらってるわけ無いだろ >>964
自演とか興味ないんだが?
代休だって言ってんだろ 人から評価されるのを恐がってる時点で印税あろうがなかろうが終わってんだよ それにしても大企業勤めてる人がSoftbank回線のandroid端末かぁ…
DAWはCakewalk(無料)
トラック作るのにはMPC Beats(無料)
音源はフリーのもの(無料)
携帯回線はsoftbank(他会社より安め)
携帯端末はandroid(安い)
コスパ気にするのは悪いことじゃないがカスイズがカスなところは有料の商品や機材を大した理由なく完全否定してるところなんだよね
心も財布も貧しいからこそ音楽で一発当てたい輩は世の中に星の数ほどいるね 売ってる曲じゃなくてもボツ曲で良いからミックスして上げれば良いのにな
印税もらってるんだからボツ曲でもさぞいい出来なんでしょうね わぁ顔真っ赤で連投始めちゃったw
これがksis流ミックスに役立つテクニックなのかな?
連投するとミックスがまろやかになる的な?
動画ニカゲツ先生を超えたな >>965
ksisさんに厳しい現実を突きつけることになるけど
本職でも個人活動でも両方プロなのよね
恐らく同じ年代(20代中盤)だと思うけど領域がもう違うのよ
ミックスやマスタリングで小銭稼いだことないでしょ?ksisさん
オファーに応えて自分の曲が商業ペースに乗ってカラオケ印税とか入ったことないでしょ?ksisさん >>968
Sektorっていうシンセは有料だが?
あとFlux:のスタジオセッションバンドルを買ったが?
DAWはCakewalkで十分というか他が使えない(使ってたらイライラする) >>972
だからないって言ってるんだが?
とりあえずお前が作った曲晒してみろよ
話はそこからだろ? >>970
本人がケーエスアイエス言ってるじゃん
テロ組織意識して付けたんだと
850 名無しサンプリング@48kHz (ワッチョイ 9fb1-VmFY) 2021/03/06(土) 22:47:28.41 ID:I9IGkI/R0
>>849
なんで幼稚になるのかわからんがケーエスアイエスって読む
854 名無しサンプリング@48kHz (ワッチョイ 8bfe-jY4A) sage 2021/03/06(土) 22:53:06.95 ID:oB3OVxtN0
>>850
なんかテロ組織っぽい名前だな
856 名無しサンプリング@48kHz (ワッチョイ 9fb1-VmFY) 2021/03/06(土) 22:54:08.01 ID:I9IGkI/R0
>>854
一応ちょっと意識してみた感はある
ニックネームとかつけるの苦手なんだよな >>974
>とりあえずお前が作った曲晒してみろよ
しません身バレするから
とりあえずTwitterのフォロワー数が万桁で
フォロー数が100人ちょtっとってヒントだけは出しとく カスイズはもう無職のカスだってバレバレなんだから連投すればするほど恥の上塗りになるぞ
若いって勢いはあるけど知能と冷静さに欠けるよな
ところで自分が仕掛けたトラップにハマって真っ赤になるのがksis流日本の音楽をぶっ壊すって事なのか? カスイズのおかげでミックスダウンスレというよりダウン症の連投テクニックスレみたいになってきたな カズイズ一理あるで
即興であれ何か上げないと評価しようがない >>977
なんで?
ボツ曲すらあげられないの?
お前が誰かとかなんか誰も興味ないんだが
お前が作る音楽に俺は興味がある >>980
だよな
プロ=それで食ってる人なだけで別にすごいわけではない >>983
してるけど?
毎週音源うpしてるじゃん ここは匿名の掲示板
何かを上げる必要も無いし、プロの証明をする必要も無い
ただし自ら音を上げたのならどんな評価でも受け止める覚悟で上げろ
それに憤慨するなら初めから上げるなって事
詳しいアドバイスが無いだと?
アドバイスしても無駄だったという証明を自ら犯しておいて何言ってんだ
甘えんじゃない >>985
だから受け止める覚悟で上げてるだろ
お前にコメントする覚悟がないのはわかったからもう死んどけ >>981
>ボツ曲すらあげられないの?
申し訳ないけどボツ曲って概念がないんだわ
コンペ競争とか越えて「〇〇〇〇〇さんの好きなようにどうぞ」
って企業オファーが来るんよ
先方のエンジニアさんに敬意を表して2mix納品するけど
リファレンスとして附帯させたミックス&マスタリング音源がそのままCDに採用される事も多々ある
>お前が作る音楽に俺は興味がある
ksisさんの大嫌いなJ-Pop領域だよ
間奏でTrapのお世話になることもある >>986
実に素直なコメントをしてやってるだろw
>>918 こういう流れになると双方ともみっともないよ
問題は何故ksisはいろいろ指摘されたことをスルーして何の進歩もない音源を上げて
意見を求め続けるのかということ
あまりの進歩の無さにみんなウンザリしてどんどんマトモな反応なくなってるだろ まず最低限のリスニング環境がないと、そもそも本人が認識できてない状態だから進歩はないだろうね
聞こえないことにはどうしようも無い >>984
あれじゃ評価しようがない。
単に鳴らした音を吐き出したのとなんら変わらん
何の手も加え無いのなら、ここで情報収集する必要はない。 おーいksis >>994の言った事伝わったか?
覚悟してるとか理解してるとかキレイな言葉はもう良いからちゃんとした形として示せって事 これは想像の域なので申し訳ないけどksisさんって1分前後のデモ破片を量産するだけで
「4分越でリスナーを飽きさせない」曲って一回も完成させたことないでしょ?
サンクラも一通り聞かせてもらったけど正直退屈な音だなーって思った edmで4分飽きさせないって相当難易度高いと思う
それができたらプロ級やわ >>998
あ、俺は>>941の通りEDM方面の曲でも印税収入あるわ
根本はジャズ畑なんだけどね このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 43日 0時間 7分 36秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。