1 名前:デフォルトの名無しさん [2006/04/21(金) 07:54:35 ] 音のプログラミング処理について語りましょう 各エフェクタの組み合わせとか、 プログラミング外の話題はDTM板の方がいいよ サウンドプログラミング2 pc8.2ch.net/test/read.cgi/tech/1091054082/ サウンドプログラミング pc5.2ch.net/test/read.cgi/tech/996171508/
348 名前:デフォルトの名無しさん [2006/12/15(金) 12:52:55 ] 22050Hz から 11025Hz にする場合、たんに間引けばいいだけじゃん? 平均取ると何か良くなる?
349 名前:デフォルトの名無しさん mailto:sage [2006/12/15(金) 13:10:50 ] >>347 WAVのPCMに関しては、そう。 それ以外の文脈だと、符号有り8bitや符号無し16bitのPCMももちろん使 われることがある。
350 名前:デフォルトの名無しさん mailto:sage [2006/12/15(金) 16:48:16 ] >348 それだとエイリアシングノイズ乗るでそ。 344のでも1/2以上のリサンプリングで乗るけど。 詳しくはFIRとかIIRとかで調べてみて。
351 名前:デフォルトの名無しさん mailto:sage [2006/12/15(金) 17:18:03 ] >>348 サンプリングレート変換の時はLPFを通して先に高域をカットしなきゃダメ。 中途半端な周波数落としをするときはウェーブレットなんかで補間したほうがノイズが減る。
352 名前:デフォルトの名無しさん [2006/12/20(水) 14:26:55 ] FIRフィルタ(ローパス/ハイパス)のインパルスを カットオフ周波数をパラメタとしてリアルタイムで生成したいんですが、 どこかにcコードサンプルとかないでしょうかね? 数学を理解して自分で書くのは無理そうでして・・・
353 名前:デフォルトの名無しさん mailto:sage [2006/12/20(水) 21:48:52 ] >>341 幾何学的な手法なら、三次曲線で補完とか、ガウシアンフィルタかける方法もあるぞ。
354 名前:デフォルトの名無しさん mailto:sage [2006/12/21(木) 00:15:30 ] >>352 sinc関数 sinc(x)=sin(x)/(x) にあなたの好みの肩特性の窓関数をかけるだけ だが、あなたの好みが判りません。
355 名前:デフォルトの名無しさん mailto:sage [2006/12/21(木) 00:16:19 ] >>353 結局全て LPFなのさ
356 名前:デフォルトの名無しさん mailto:sage [2006/12/21(木) 01:54:43 ] >>354 そんなにシンプルな感じなんですか? でもすいません、sincだけでは意味がわからないです・・・ xはなんでしょう?どこでフィルターの種類やカットオフはどこで決まるのでしょう。 窓はhammingでよいかと思います。
357 名前:デフォルトの名無しさん mailto:sage [2006/12/21(木) 07:05:28 ] 判ったよ。手取り足取り教えてくれというわけだ。 sincは検索用のキーワード これで検索しろって意味だ w:=2*π*f0/fs として xが0でなければ sin( x * w) /x xが0の時 w xを整数で±の窓関数の範囲で、窓関数を掛け算 で,ゲインがπあるから、それは除算するし、窓関数のゲイン分も掛け算すると
358 名前:デフォルトの名無しさん mailto:sage [2006/12/21(木) 07:14:27 ] フィルターの種類は、実際に係数を設定してどんな特性になるか見てみりゃいいだろ 理想LPFと理想HPFは 足せばフラット = 1 になるから 中央値以外は符号が反転するだけだ
359 名前:デフォルトの名無しさん mailto:sage [2006/12/21(木) 10:34:01 ] >>355 そうなんだけど、フーリエ変換しないでいいからとっつきやすいかな、と。
360 名前:352 mailto:sage [2006/12/21(木) 15:28:35 ] >>357-358 おしえていただいた内容と、徹夜でネットをしらべまくった結果、 数学はさておき、無事うまく動作するコードが書けました。 思ってたよりシンプルなコードになったので驚きです。 ハイパスはローパス用のインパルス応答の振幅が反転された形になるんですね。 プログラムが生成したインパルス応答からフィルタ特性を解析したところ、特性も良好でした。 どうもありがとうございました。
361 名前:352 mailto:sage [2006/12/21(木) 21:24:16 ] すいません、ハイパスについては間違えてたみたいですね・・・
362 名前:デフォルトの名無しさん mailto:sage [2006/12/21(木) 23:33:28 ] サンプリングレートが44100/1secだとすると、この場合の1sec/44100の単位はなんて呼称すれば良いんでしょうか
363 名前:デフォルトの名無しさん mailto:sage [2006/12/21(木) 23:55:15 ] 1sec/44100 → (1/44100)秒
364 名前:デフォルトの名無しさん mailto:sage [2006/12/22(金) 01:01:27 ] sec per samplingrate?
365 名前:デフォルトの名無しさん mailto:sage [2006/12/22(金) 01:48:01 ] いちサンプル
366 名前:デフォルトの名無しさん mailto:sage [2006/12/22(金) 03:34:30 ] sample per rate
367 名前:デフォルトの名無しさん mailto:sage [2006/12/22(金) 07:19:21 ] >>361 もう判ったと思うけど 中央の係数のみ 1-a の関係になって、他の係数は負数にすればいいだけ
368 名前:デフォルトの名無しさん mailto:sage [2006/12/22(金) 13:42:29 ] ASIO SDKのhostサンプルがシンプル過ぎるのもどうかと思う今日この頃。 やっと音が出た…orz
369 名前:369 mailto:sage [2006/12/23(土) 22:12:57 ] なんかディスクI/Oが少しでも集中すると再生が途切れる…。 やっぱりスレッド使って処理を分けないとダメか。
370 名前:368 mailto:sage [2006/12/25(月) 10:56:31 ] なんか適当にスレッド作って 読込処理を非同期にして 少し多くバッファリングしたら 飛ばなくなった。 出来たプログラムはwavの非圧縮PCMしか 再生できないけどなんだか嬉しい。
371 名前:デフォルトの名無しさん [2006/12/25(月) 22:03:51 ] ゲームに関して何だけどPCにマイクを接続して喋ってるんだけど EAXを使ったゲームを起動するととたんに俺のヴォイスにエコーが かかるようになる。どうもそのPCゲームがEAXを使っているとそれに つられてマイク入力の音声にもエコーみたいな効果が強制的に かけられてしまうらしい。これって現状仕方がないことなん(´・ω・`)?
372 名前:デフォルトの名無しさん mailto:sage [2006/12/26(火) 00:08:53 ] >>371 板違い。
373 名前:デフォルトの名無しさん mailto:sage [2006/12/26(火) 02:36:50 ] >>372 ゲーム系のサウンドプログラムもこのスレの範疇かと。
374 名前:デフォルトの名無しさん mailto:sage [2006/12/26(火) 05:49:50 ] サウンドプログラム? どこが? ゲームの設定かOSの設定だろ?
375 名前:デフォルトの名無しさん mailto:sage [2006/12/26(火) 07:49:50 ] >>371 ゲーム作ってるの?
376 名前:デフォルトの名無しさん mailto:sage [2006/12/26(火) 10:06:05 ] >>371 非サラウンド環境でEAXを使ったら、そらエコーがかかっただけみたいになるがな。
377 名前:デフォルトの名無しさん mailto:sage [2006/12/26(火) 15:12:35 ] >>371 クリエイティブのサウンドカードだろ? 仕様だ。 市場を一社独占させるとどうなるかの好例だな。
378 名前: 【吉】 [2007/01/01(月) 03:43:35 ] あけおめ♪
379 名前:デフォルトの名無しさん mailto:sage [2007/01/01(月) 13:25:07 ] 黙れよ
380 名前:デフォルトの名無しさん mailto:sage [2007/01/11(木) 20:06:07 ] …FFTで… いや、ごめん。 いいや……。(´・ω・`)
381 名前:デフォルトの名無しさん mailto:sage [2007/01/15(月) 21:13:43 ] ぉぃぉぃ…
382 名前:デフォルトの名無しさん mailto:sage [2007/01/16(火) 20:41:58 ] 低速フーリエ変換ってないの?
383 名前:デフォルトの名無しさん mailto:sage [2007/01/16(火) 23:35:48 ] DFT?
384 名前:デフォルトの名無しさん mailto:sage [2007/01/17(水) 00:14:21 ] 筆算
385 名前:デフォルトの名無しさん mailto:sage [2007/01/17(水) 10:20:29 ] >>382 バタフライ演算をしなけりゃ低速だよ。
386 名前:デフォルトの名無しさん mailto:sage [2007/01/17(水) 16:11:17 ] 普通にDFTでええんちゃう?
387 名前:デフォルトの名無しさん [2007/01/18(木) 21:42:16 ] >>6 >>13 >>17 /* Risa [りさ] alias 吉里吉里3 [kirikiri-3] stands for "Risa Is a Stagecraft Architecture" Copyright (C) 2000-2007 W.Dee <dee@kikyou.info> and contributors See details of license at "license.txt" */ /* Phase Vocoder (フェーズ ボコーダ ; 位相ボコーダ)の実装 参考資料: www.panix.com/~jens/pvoc-dolson.par Phase Vocoder のチュートリアル。「ミュージシャンにもわかるように」 書かれており、数学音痴フレンドリー。 www.dspdimension.com/ 無料(オープンソースではない)の Time Stretcher/Pitch Shifterの DIRACや、各種アルゴリズムの説明、 Pitch Shifter の説明的なソースコードなど。 soundlab.cs.princeton.edu/software/rt_pvc/ real-time phase vocoder analysis/synthesis library + visualization ソースあり。 */
388 名前:デフォルトの名無しさん mailto:sage [2007/02/13(火) 23:56:25 ] WAVで16bitの場合はサンプルごとにshort型にいれてるんだけど、 24bitの場合はどうすんの? 32bitは各サンプルをfloatにぶち込めばOK?
389 名前:デフォルトの名無しさん mailto:sage [2007/02/14(水) 00:31:38 ] longでええやん
390 名前:デフォルトの名無しさん mailto:sage [2007/02/15(木) 07:11:45 ] パソコンで処理をする目的なら、入力が何bitだろうと64bit浮動小数点で処理するのが楽だろう ・・・・整数演算の方が早いというような事を言いたい人なら別だが
391 名前:デフォルトの名無しさん mailto:sage [2007/02/15(木) 11:31:37 ] >>390 16bitはshortに入れているのに?
392 名前:デフォルトの名無しさん mailto:sage [2007/02/15(木) 12:19:02 ] wavファイル(RIFFフォーマット)の話だろ? WAVE_FORMAT_PCM(=1)は整数の8bit,16bitしか定義されてないんじゃね?
393 名前:デフォルトの名無しさん mailto:sage [2007/02/15(木) 13:29:51 ] しかしBitsPerSampleにはいくらでも入れられる 入れるだけなら自由だ
394 名前:デフォルトの名無しさん mailto:sage [2007/02/15(木) 17:36:11 ] 本気で言ってるなら池沼。
395 名前:デフォルトの名無しさん mailto:sage [2007/02/16(金) 00:41:30 ] 内部は64bit浮動小数点、外部とのやりとりは24bit整数、あたりが標準的?
396 名前:デフォルトの名無しさん mailto:sage [2007/02/16(金) 04:09:13 ] >>395 全然。 例えばそこらのアプリの音声再生プラグインは、音質よりも軽くしたい場合が多いでしょ。
397 名前:デフォルトの名無しさん mailto:sage [2007/02/16(金) 04:11:09 ] 逆に、音声処理で精度が欲しいってんなら、内部80bit浮動小数点が使える環境を利用するだろうしさ。
398 名前:デフォルトの名無しさん mailto:sage [2007/02/22(木) 20:54:32 ] 複数のPCMを単一のPCMにミックスしたいんだけどどうすりゃいいのかわからない。
399 名前:デフォルトの名無しさん mailto:sage [2007/02/22(木) 22:06:11 ] >>398 加算した後でレベル調整でもすればいいんじゃね?
400 名前:デフォルトの名無しさん mailto:sage [2007/02/22(木) 23:50:53 ] レベル調整は先にやったほうが良くない?
401 名前:デフォルトの名無しさん mailto:sage [2007/02/23(金) 07:55:27 ] PCMは8bitか16bitだから 32bit型に一度入れてから割り算すればいい たとえばA,B,Cを 30%:20%:20% でMIXする場合 int vrA=30; int vrB=20; int vrC=20; int total=vrA+vrB+vrC; int w= A*vrA+B*vrB+C*vrC; return w / total; }
402 名前:デフォルトの名無しさん mailto:sage [2007/02/25(日) 13:09:25 ] >>399-401 みんなありがとう。 やっぱ足して割ればいいのか。
403 名前:デフォルトの名無しさん mailto:sage [2007/03/15(木) 11:42:48 ] ステレオWavデータのPAN設定のやり方教えてくださ ぐぐったけど、どうも該当するものが発見できなかったんで
404 名前:デフォルトの名無しさん mailto:sage [2007/03/15(木) 20:48:50 ] 左右に振るだけじゃないの?
405 名前:デフォルトの名無しさん mailto:sage [2007/03/15(木) 21:06:13 ] たぶんパンを振るとき左右それぞれにどういう演算するかって話だろ その辺のシンセとかだと、右チャンネルの場合 L 0% - C 50% - R 100% って変化してたと思う この場合だとセンターの時音量下がって聞こえるけどね。 DirectXだとセンターが両方とも100%で、右に寄せるときは左を下げてくんじゃなかったかな。 この場合センターの時音が大きく聞こえる
406 名前:デフォルトの名無しさん mailto:sage [2007/03/15(木) 21:22:13 ] >>405 > その辺のシンセとかだと、右チャンネルの場合 L 0% - C 50% - R 100% って変化してたと思う > この場合だとセンターの時音量下がって聞こえるけどね。 つか、左寄せの場合もセンターの場合も右寄せの場合も同じ音量 > DirectXだとセンターが両方とも100%で、右に寄せるときは左を下げてくんじゃなかったかな。 > この場合センターの時音が大きく聞こえる この場合は正解。センターの時は、左寄せ, 右寄せの時の倍 (+6dB) になる
407 名前:デフォルトの名無しさん mailto:sage [2007/03/15(木) 21:29:00 ] >>405 ・音のエネルギーは振幅の2乗に比例する ・聴覚は対数特性 この辺がヒントになるかも。
408 名前:デフォルトの名無しさん mailto:sage [2007/03/15(木) 22:24:48 ] ハードウェア・ミキサーだとセンターは3dB落ちがデフォ。 PAN振りっきりならスピーカーは1本しか鳴らないけど センター時は2本同音量で鳴るから音量は3dBアップ。 これを補正するための3dBダウン。 これでL-C-RとPAN移動させても横一直線で移動する。 6dBダウンは再生/演奏時にモノ・ミックスされるケースを想定してのもの。 (回路内のミックスは電圧なので6dBアップ) ハードウェア・シンセはモノ・アウトも装備する関係でそうしてあると。
409 名前:デフォルトの名無しさん mailto:sage [2007/03/15(木) 22:36:58 ] >>406 ん?センターは-3dbでしょ? 20*log(sqrt(0.5^2 + 0.5^2)) = -3.010299956639811 でいいんだよね? だからDirectXの場合だと+3dbだったと前勉強したときは思ったんだけど・・・ 間違ってる?
410 名前:デフォルトの名無しさん mailto:sage [2007/03/16(金) 02:09:49 ] 正解は >>407-408
411 名前:デフォルトの名無しさん [2007/03/19(月) 12:27:37 ] 誰かDAW作ってくれ
412 名前:デフォルトの名無しさん mailto:sage [2007/03/20(火) 10:48:51 ] >>411 frieve
413 名前:デフォルトの名無しさん mailto:sage [2007/03/31(土) 10:17:20 ] エフェクトのコーラスのうねりは時間で変化させるんですか? それともpitchを変化させるんですか。
414 名前:デフォルトの名無しさん mailto:sage [2007/03/31(土) 10:39:30 ] コーラス: 入力音を二つに分岐させる。 片方にモジュレーション(周波数変調)をかける。 二つを加算して出力。
415 名前:413 mailto:sage [2007/03/31(土) 10:55:39 ] コーラスとフランジャーは モジュレーション大きさだけの違いだけなんですか?
416 名前:デフォルトの名無しさん mailto:sage [2007/03/31(土) 11:45:55 ] ・モジュレーション幅 ・モジュレーション速度 ・フィードバック量 ・分岐させた二つの加算割合 などを変化させることによってコーラス/ビブラート/フランジャーなどが作れる。
417 名前:デフォルトの名無しさん mailto:sage [2007/03/31(土) 11:50:26 ] >>416 それの大きさで呼び名が変わるってこと? なんどもすんません。
418 名前:デフォルトの名無しさん mailto:sage [2007/03/31(土) 12:30:34 ] そういうこと。 モジュレーション幅が広めで速度が速いとコーラスっぽくて、 モジュレーション幅が狭めで速度が遅いとフランジャーっぽい。 フランジャーの場合はフィードバック量も関係してくることが多い。
419 名前:413 mailto:sage [2007/03/31(土) 12:34:58 ] サンキュです
420 名前:デフォルトの名無しさん mailto:sage [2007/03/31(土) 12:36:08 ] いえいえ。
421 名前:デフォルトの名無しさん mailto:sage [2007/04/01(日) 18:59:37 ] ぉぃぉぃ 一応混じれ酢すると ふらんじゃー: 数ms以下の短いディレイに変調をかけ、元音とミックスして、 中〜高音域のコムフィルター効果でメタリックな響きを出す こーらす :数十〜ms程度の比較的長いディレイに変調をかけ、元音とミックスして、 (たぶん超低域のコムフィルター効果で)アンビエントな音のウネリを出す
422 名前:418 mailto:sage [2007/04/01(日) 22:34:53 ] >>421 補足サンキュ。418では変調速度と変調幅だけしか言及してなかった。 (変調幅を大きくする≒ディレイ値を大きくしないといけない という勝手な理解をしてしまったよ。) 確かにディレイ値のほうが大きな影響があるな。
423 名前:デフォルトの名無しさん [2007/04/02(月) 00:32:07 ] だけど、コーラスのきついやつがフランジャー、って理解でそう間違ってないでしょ?
424 名前:デフォルトの名無しさん mailto:sage [2007/04/02(月) 00:33:53 ] おまぃに関してはおまぃの判断に任せる
425 名前:デフォルトの名無しさん mailto:sage [2007/04/02(月) 01:31:19 ] コーラスのディレイの短いやつがフランジャー、って理解で間違ってない。
426 名前:413 mailto:sage [2007/04/02(月) 12:28:37 ] 勉強になります。
427 名前:418 mailto:sage [2007/04/02(月) 16:25:13 ] 理工系の大学とかで学術論文にアクセスできるのであれば、 Jon Dattorro. "Effect Design, Part 2: Delay-Line Modulation and Chorus". Journal of Audio Engineering Society, October 1997. とか、あとは「DAFx」という書籍もエフェクト関係の勉強になる。 両方とも英語なのがタマニキズ。
428 名前:デフォルトの名無しさん [2007/04/02(月) 17:10:08 ] >>425 登場経緯的には、フランジャーが先だよね? 浅めに(?)かけてみたら 12 弦っぽい 効果があって、それ目的でパラメーター調整しやすいようにアレンジして製品化した、と。
429 名前:413 mailto:sage [2007/04/04(水) 09:16:25 ] >>427 DAFxはいろいろ載ってておもしろそうですね。 Jon Dattorro Effect Designは見れなかった。残念 ただ、英語はダメなので気長にみてみます。
430 名前:デフォルトの名無しさん mailto:sage [2007/04/04(水) 09:21:13 ] 基本的にはパラメーターのレンジを変えた、同じエフェクトと思っていいと思うけど、 実際には目的の違いから異なるアイデアを盛り込んでる場合が多いと思うよ。 たとえばコーラスはぶ厚く広げるのが目的だからディレイラインがすごく多いものとか、 変調が周期波形じゃないものとか、イロイロと。 そのへんがエフェクターの個性になってくわけだが。
431 名前:デフォルトの名無しさん mailto:sage [2007/04/06(金) 04:03:47 ] 今までDSP買ってエフェクターやら作ってたんだけど、ふと思った。 いい加減今のPCならリアルタイム入出力のFIR処理くらい出来るんじゃないかと。 これが出来ればあらかじめフィルタ係数用意して切り替えるようにすれば ソフトウェアエフェクターってできそうだし。 で、作って見たがあえなく撃沈。音途切れ途切れ。 何が問題なんでしょう?? 100万タップくらいのFIRなら余裕で動くと思ってたのに。
432 名前:デフォルトの名無しさん mailto:sage [2007/04/06(金) 07:58:42 ] あまり詳しくないのであれなんだが とりあえずSSEは使った?(PowerPCならAltivec 大きいFIRはFFT利用して劇的に計算コスト減らした実装ができるんじゃなかったけか?
433 名前:デフォルトの名無しさん mailto:sage [2007/04/06(金) 08:02:06 ] ちなみにリアルタイム入出力のコンボリューションリバーブとか普通にありますよ。
434 名前:デフォルトの名無しさん mailto:sage [2007/04/06(金) 09:20:49 ] たいてい432の言うようにFFTかましてるよね。だからレイテンシーが問題になることも。
435 名前:デフォルトの名無しさん mailto:sage [2007/04/06(金) 12:33:04 ] >>431 ハードウェアのことあんまり詳しくないんだけどフィルタ係数や入力信号のバッファ がL1 L2 超えて外部になると一気にメモリ転送の問題が発生する気がする メモリのレイテンシーって結構デカイ気がするけど詳しい人教えて >>433 ちょっと俺も興味あるんだけど そのソフトの詳細希望 >>434 リアルタイムでFFTだとレイテンシーもだけどブロック間の繋ぎがどうなるんだろ
436 名前:デフォルトの名無しさん mailto:sage [2007/04/06(金) 13:31:52 ] >そのソフトの詳細 今時のPCの音楽制作環境のことまるで知らないの?? コンボリューションリバーブなんかはここ数年流行っててすでに一般的。たくさんあるぞ。 「コンボリューション VST」とかでぐぐってみなはれ
437 名前:デフォルトの名無しさん mailto:sage [2007/04/06(金) 14:05:58 ] >>436 こういうのってリアルタイム入出力できるの?
438 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 00:06:50 ] >>435 ブロック間のつなぎはoverlap-and-addでやるだけなので、大丈夫。
439 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 07:49:56 ] >>437 DSPプログラミングやってて、今時そうゆうの知らないことのほうが驚きですよ。 音楽制作と無関係な業界でやってる技術者だったりすると案外そうゆうもんですかね。 「DSP」っていう言葉も昔は主に専用チップ、Digital Signal Processorのことを指していたけど、 汎用PCによるリアルタイム処理が台頭してきた今は、 意味が広がってデジタル信号処理全般、Digital Signal Processingというニュアンスですよ。
440 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 08:12:27 ] FIRネタの書き込みは、どの板も具体的な話が欠落してるなw 厨?
441 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 08:18:37 ] >440 単純に大量のかけ算するだけなら簡単だが、 FFT応用するとかいうと詳しい人なかなかいないんでしょ。 そうゆうおまいは?
442 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 08:23:46 ] >>441 それも既出。
443 名前:デフォルトの名無しさん [2007/04/07(土) 10:12:17 ] >>435 ここでは板違いかもしれないけど、 たとえば、foobar2000のイコライザは8192Tapの firフィルタで、畳み込みにfftを利用している。 foobar2000のプラグインのconvolverは、大きな インパルスファイルを指定してやれば、 数万Tapの畳み込みも音がとぎれず再生する こちらも畳み込みにfftを利用。 (Tap数は表示されるFFT Length の半分) firフィルタはどうしてもレイテンシがでかくなるから リアルタイムの演奏や画像との同期は難しいけど パソコン上のファイルを変形させるならかなり使える。 「fft overlap save」でググるよろし。 こことかは、お勉強の過程が書いてあって 参考になるかも。 ttp://junzo.10gallon.jp/
444 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 15:15:53 ] 結局のところ今のPCじゃ時間軸での畳み込みはまだ無理ってことでFA? 多分 436はその辺は考えてなかったんだろな 知識ひけらかす前に 431の質問を汲み取ってやれ
445 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 15:43:51 ] すいません、畳み込みリバーブのプラグインとかは時間軸での畳み込みとは違うんですか?
446 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 16:45:19 ] 今手元に可逆圧縮済みrawがあって、これをwavにしなければならないんですけど、 ・rawデータはwavのヘッダ無し波形 ・どういう形で圧縮されているのか分からないのでデコードしようがない 一体圧縮済みrawはどういうフォーマットなんでしょうか?
447 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 17:22:42 ] >>445 畳み込みリバーブと書いてあっても 実際はインパルス応答 入力信号を両方FFTしてオーバーラップ法を使った 周波数軸での畳み込みをしているのでは無いかということ この辺りは説明書とかみると書いてあるのかな? 実際に最近のCPUで誰か真っ当な時間軸での畳み込みやって 何タップくらいいけるのか測定してみてくれYO ぉ サウンドプログラミグっぽくなってきたなおぃ
448 名前:デフォルトの名無しさん mailto:sage [2007/04/07(土) 17:25:30 ] あ もちろんリアルタイム入出力での話ね オフラインなら何億タップだろうがメモリがあるかぎりいけるだろうからw