- 1 名前:デフォルトの名無しさん [2007/07/25(水) 14:07:56 ]
- 音のプログラミング処理について語りましょう
各エフェクタの組み合わせとか、 プログラミング外の話題はDTM板の方がいいよ サウンドプログラミング3 pc11.2ch.net/test/read.cgi/tech/1145573675/ サウンドプログラミング2 pc8.2ch.net/test/read.cgi/tech/1091054082/ サウンドプログラミング pc5.2ch.net/tech/kako/996/996171508.html
- 802 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 11:32:52 ]
- >>801
本気で頭悪いのか? 理論と有限桁での実装の誤差ってのは何にしてもついて回るもんだから議論するだけ無駄。
- 803 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 11:34:18 ]
- >>801
周期関数の結果は非可逆だよねぇ。情報量はどうなるんだろ。 そう言えばFFTして逆FFTすると、強度の情報が失われないかな? 音や画像みたいに正規化しやすい場合はいいんだけれど。 # 演算誤差は目を瞑ったとしても。
- 804 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 12:32:27 ]
- 0.001www
- 805 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 12:40:18 ]
- >>799
すばらしい説明をありがとう。 情報量を圧縮って意味がわからないよなそもそも。
- 806 名前:801 mailto:sage [2008/09/29(月) 19:17:35 ]
- >>802
誤差が無ければ議論できるの? #include<stdio.h> int myrand(void){ static unsigned long seed=377743; seed=seed*8209+6469; return (seed>>8)&0xffff; } int main(void){ int i; for(i=0;i<10000;i++){ printf("%d\n", myrand()); } return 0; }
- 807 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 20:56:03 ]
- >806
出力結果からそのソースが一意で起こせるならな。 ってか揚げ足取りがしたいだけだろお前。
- 808 名前:801 mailto:sage [2008/09/29(月) 21:10:07 ]
- スマン
情報量云々を見るとつい…
- 809 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 21:53:24 ]
- 2次元の話がずいぶん広がってしまったな。
なんか音の話題ないの。
- 810 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 12:09:50 ]
- ここにいるおまいらが今まで作った音響アプリの代表作って何よ。
俺はリズムサンプラー。
- 811 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 13:15:36 ]
- >>810
そういうのはマ板でやれ
- 812 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 16:31:04 ]
- 音響アプリなんだからいいだろ。
このスレ貴重なんだから盛り上げていこうぜ。
- 813 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 16:54:45 ]
- 自分語りがしたいならマ板。
技術スレでする話題じゃねーわな。 糞スレ化するからいらんよ。
- 814 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 17:43:26 ]
- すいません技術的な質問です。
オーバーサンプリングって単純にプログラム内でサンプリング周波数の倍のデータとして扱えばそれでいいんでしょうか。 データ間は0をつめるとして、なぜそれでエイリアシング対策になるのかが理解できません。 たとえば44.1khzのWAVファイルを倍の88.2khzで扱ったとして、元データは44.1khzのデータしかないので、結局音そのものはクオリティ変わりませんよね。
- 815 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 18:57:58 ]
- キミが言っているのはオーバーサンプリングではなくアップサンプリングじゃないの。
例えば、20kHz以下の信号をAD変換したい時に、サンプリング周波数を 44.1kHzではなく88.2kHzにするのがオーバーサンプリング。 こうすれば、AD変換の前に必要なアンチエイリアシング・フィルタに必要な 遮断特性が緩和されるというメリットがある。 アップサンプリングについて説明すると、データの間に0を挿入してデータ数を 2倍にすれば2倍アップサンプリングになる。アップサンプリング後のデータには エイリアスが発生しているので、それをFIRフィルタで削ってからDACで出力すれば、 DA変換後のスムージング・フィルタに必要な遮断特性が緩和される。 図が無いと判りにくいだろうから、詳しくは下記リンクを参照。 blackfin.s36.coreserver.jp/2191/program/polyphase/polyphase02.shtml
- 816 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 19:28:25 ]
- >>815
なるほど、まず用語の使用が間違っていたのですね。 さらに実際はアップサンプリング時でもLPFをかけることが肝だったんですね、納得しました。 ありがとうございます。 参考:www38.tok2.com/home/shigaarch/OldBBS/20definition.html ただ、そうなると良く分からないのが、たとえば>>405の記述で見られるような、 デジタル信号処理の計算の部分でオーバーサンプリングしろというのはどういう意味なのかということなのですが。 エフェクト処理でアップ(オーバー)サンプリングすることで、一体どんなメリットがあるのかわからずに悩んでいます。 もの分かりが悪くて申し訳ないです。
- 817 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 23:15:53 ]
- >アップサンプリング
漏れなら同じデータで穴埋めちゃう。 当然、波形がカクカクするが気にしない。 画像の拡大もカクカクしてるのが好きだから。
- 818 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 23:54:53 ]
- Lanczos3で補間したら適度なLPFにもなってるんじゃないの?
高級オーディオメーカWADIAの昔の製品はB-Splineだったな。 20kHzに近い波形はレベルも位相もボロボロになってるかもしれないけど どうせサンプル数が足りないから長tapのFIRでも大差ないでしょ。
- 819 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 01:13:56 ]
- >どうせサンプル数が足りないから長tapのFIRでも大差ないでしょ。
ここ詳しく。
- 820 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 01:29:01 ]
- >>817
音の「カクカク」はジッターノイズになって苦痛じゃない?
- 821 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 16:45:43 ]
- 高周波が出ますナ
- 822 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 22:23:45 ]
- おまいらフィルタの設計時ってどんなツール使ってる?
- 823 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 09:34:09 ]
- dsPICworks
dsPICつこてるので。
- 824 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 12:24:11 ]
- 職場では MATLAB
自宅では GNU Octave
- 825 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 14:59:12 ]
- GNU Octave って、FIRやIIRのタップごとの計算とか簡単にできたりするの?
GUIでスペクトル確認しながらとか。
- 826 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 18:15:28 ]
- GNU Octave は、基本的に対話型コマンドライン環境だからCUIになるけど、
(コマンド列をテキストファイルに書き出せば、スクリプト実行も可能) フィルタ設計コマンドでフィルタ係数を求めて、フィルタ特性をグラフ表示するのは簡単にできるよ。
- 827 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 19:17:53 ]
- へー、おもしろい。使ってみます。ありがとうー。
- 828 名前:デフォルトの名無しさん mailto:sage [2008/10/03(金) 12:42:06 ]
- >>826
gnuplotと組み合わせてるのかな?
- 829 名前:デフォルトの名無しさん [2008/10/04(土) 16:46:17 ]
- MAXMSPとかでパッチ作ってあそんでるんですが
pluggoブリッジじゃなくて純粋なOSXのプラグインを 作りたいんですが、何から手をつけたらいいんでしょうか?
- 830 名前:デフォルトの名無しさん mailto:sage [2008/10/05(日) 01:45:43 ]
- あー....。
- 831 名前:デフォルトの名無しさん mailto:sage [2008/10/05(日) 08:21:52 ]
- 結構色々調べたんですよ
CoreAudioのプログラミングXcodeでやるんですね SourceForgeなんかにAUシンセのソース等みながら やってみます
- 832 名前:デフォルトの名無しさん mailto:sage [2008/10/06(月) 11:42:35 ]
- MACはCoreAudioとかあるからなあ、結局サウンドプログラミングの出番ないよな。
- 833 名前:デフォルトの名無しさん mailto:sage [2008/10/06(月) 19:09:06 ]
- んな訳ない。 波形を自分で作ったり加工したり…
- 834 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 05:05:08 ]
- それだけ?
- 835 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 07:31:43 ]
- サウンドプログラミングじゃないじゃん
- 836 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 12:14:18 ]
- サウンドデバイスプログラミングやAPI使用法はスレ違いだからすっこんでろw
ここはもっとアカデミックで高尚な話題のスレなんだよ
- 837 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 14:22:35 ]
- デバイスなめんな
- 838 名前:デフォルトの名無しさん mailto:sage [2008/10/08(水) 04:37:48 ]
-
>>830 それにしては、>>752の話題はこのスレでは光ってるよな くそワロタ
- 839 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 05:07:21 ]
- 質問です。
自分の声って自分の耳で聞いた場合と、何かに録音して聞いた場合とでは違って聞こえますよね。 他人が実際どのように自分の声を認識しているのかを知りたくて、 それを聞けるようにするアプリを作ろうと思っているのですが、 そもそも技術的には可能でしょうか? どうしても大好きなあの子がどんな風に自分の声を聞いているのか知りたくてたまらないんです。 よろしくお願いします。
- 840 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 08:57:35 ]
- 頭部インパルス応答ってあるじゃん
あれの応用で、音源を喉部に固定して測定すればいいと思うよ
- 841 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 09:06:37 ]
- >>839
変態キモイ死ね 骨を伝ってくる音の特性を再現すれば出来そうだけど、 個人の骨格の違いでどの程度変わるのかってーのと、 そもそも個人個人で聞こえ方に差異があるはずだから無理じゃね?
- 842 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:05:50 ]
- >>839
頭の模型を作って喉にスピーカー、耳にマイクを仕込んで、IRを取れ。それつかってコンボリューション。
- 843 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:30:03 ]
- 作ろうと思ってるなら自分で理論考えて作ればいいじゃん
そのための脳みそがないってんならご愁傷様だ
- 844 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:40:39 ]
- 単に他人の耳の位置にマイクを設置すればいいんじゃないの?
- 845 名前:デフォルトの名無しさん [2008/10/09(木) 10:41:29 ]
- 普通に録音して聞けばいいだろ。その子の聞こえ方をシミュしても、その結果を聞くのは自分なんだし
- 846 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 17:08:52 ]
- >>839
単に録音してそれを自分で聴くだけでいい。 難しいのは、自分の声を自分がどう聞いているかを 相手に聞かせることだ。
- 847 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 20:06:19 ]
- >>840-842は質問を勘違いしてるな
- 848 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 20:26:39 ]
- >831の者です
グラニュラ・・・そしてFFT・・・・ 新しい音響はヒットチャートも揺るがしますよ みなさん頑張ってね!
- 849 名前:840 mailto:sage [2008/10/10(金) 00:43:36 ]
- ・・・俺が>>841-842を誤誘導したっぽいな
- 850 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 02:30:07 ]
- このスレで聞くくらいだから、まさか録音して聞けば済む程度の質問されるとは思わない罠w
でもまぁ全く同じには聞こえないだろうけど。
- 851 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 19:14:27 ]
- その子の頭部を物理シュミレーションするしかないわな。
でもそれが測れるくらい仲がいいならもう付き合ってるよな。
- 852 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:01:27 ]
- >>850>>851
それを言い出すとキリがないんじゃないか。 例えば「大好きなあの子がどんな風に自分の顔を見ているのか」知りたいのなら、 普通は「鏡を見ろ」と答えて、それで十分な答えだ。 あの子の水晶体や網膜の特性、視覚に関係する脳の働きまで考慮しないだろう。
- 853 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:13:04 ]
- みんな勘違いしているようだが、>>839は
その子自身の発した声を、その子自身がどう聞いているかを、知りたい って意味なんだよ。
- 854 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:13:25 ]
- ところで、non causalなら理想ローパスってつくれるんでしょ?
- 855 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 00:44:48 ]
- まあ、non causal ならねぇ
- 856 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 11:32:49 ]
- 一瞬カジュアルって読んでしまった
理想ローパスって有限長でできるの?無限長なら先読みできたところで意味ない気が… 理解間違ってたらすまん
- 857 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 13:20:16 ]
- >>853
なるほど。全然気付かなかった。 「自分」という言葉を使ってるから両方の意味にとれるんだな。 その方法は俺も知りたいと思っていた。 適当なフィルタをかけて、どちらが似ているかを本人に選ばせ、 パラメータを微調整していく、というのくらいしか思いつかない。
- 858 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 13:35:05 ]
- >>853
日本語の「自分」は1〜3人称全部に使えるからわかりにくい〜
- 859 名前:854 mailto:sage [2008/10/11(土) 19:40:18 ]
- >>856
あっしの理解では、フィルタが無限長でも データが有限長なら可能かと。
- 860 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 23:20:43 ]
- ダウンサンプリングするプログラムつくりたいんだけど、
間引くデータはどう選んだらいいんですか?
- 861 名前:デフォルトの名無しさん mailto:sage [2008/10/12(日) 00:49:11 ]
- 1/2にするなら1/4fsでローパスして1つ飛ばしすれば速い。
整数比でなければリサンプリング。間引くじゃできん・・と思う。 間引くだけで可能なら俺も知りたい。
- 862 名前:デフォルトの名無しさん mailto:sage [2008/10/12(日) 09:30:54 ]
- wavefs44.exeとかssrcのソースが参考になる。
- 863 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 12:12:34 ]
- 奇遇だな
俺もssrcを勧めようと思っていたところだ
- 864 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 18:31:48 ]
- 2つともソースもバイナリも入手不能っぽいのだが
- 865 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 18:43:57 ]
- ググって一番頭のサイトで手に入るけど?
- 866 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 19:03:39 ]
- ssrcって日本からアクセスブロックしてんじゃなかったっけ
- 867 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 21:36:09 ]
- 海外のプロクシ経由でアクセスすれば問題無いでしょ。
- 868 名前:デフォルトの名無しさん mailto:sage [2008/10/16(木) 20:51:37 ]
- DFTとDTFTの違いが理解できない…誰か解脱plz
- 869 名前:デフォルトの名無しさん mailto:sage [2008/10/16(木) 22:58:12 ]
- >>868
入力関数が周期的か否か
- 870 名前:デフォルトの名無しさん [2008/10/17(金) 02:54:09 ]
- SSRCみたいに、
サウンドプログラミングの参考になるオープンソースソフトって他にどんなのがありますか。
- 871 名前:デフォルトの名無しさん mailto:sage [2008/10/17(金) 04:50:26 ]
- >>868
Wikipediaより ・入力が離散的なら、フーリエ変換は DTFT となる。 ・入力が周期的なら、フーリエ変換はフーリエ級数となる。 ・入力が離散的かつ周期的なら、フーリエ変換は DFT となる。
- 872 名前:デフォルトの名無しさん [2008/10/17(金) 09:07:37 ]
- DFTは、有限区間での変換を行う。
DFTは実際にはそうとは限らないが、以下の仮定を置いて考える。 その時にその区間の信号が、周期的に無限に続くと考える。従って、信号の一端と多端が滑らかでない場合などに問題が生じる。 これらを解決するために、窓関数などが用いられるが、これによってスペクトル漏れという問題が起きる。 これに対し、DTFTは、実際に上記の過程が成立する場合ではないかと思う。
- 873 名前:デフォルトの名無しさん mailto:sage [2008/10/17(金) 16:17:35 ]
- 連続時間・無限区間 → フーリエ変換
連続時間・有限区間 → フーリエ級数 離散時間・無限区間 → 離散時間フーリエ変換(DTFT) 離散時間・有限区間 → 離散フーリエ変換(DFT)
- 874 名前:デフォルトの名無しさん mailto:sage [2008/10/17(金) 23:21:38 ]
- どれも微妙に誤解を招きそうな回答ですな
- 875 名前:デフォルトの名無しさん mailto:sage [2008/10/17(金) 23:51:42 ]
- ご存知とは思うが、周期関数を除いては客観的な周波数成分など定義されていないので、
DFTの結果はDFT変換結果でしかない。 f(t)=f(t+T)を常に満たす周期信号など実在しないから(だって過去には限界があるし未来は分からないから) 実際には周波数成分は未定義である。 ・・ということを念頭に置かないとフーリエ系周波数分析に過剰な期待をしすぎる。 ピッチが速く変化する人の声などはLPC分析のほうが成功を収めている。
- 876 名前:デフォルトの名無しさん mailto:sage [2008/10/18(土) 11:02:27 ]
- >DFT変換
- 877 名前:デフォルトの名無しさん mailto:sage [2008/10/20(月) 10:09:20 ]
- 頭痛が痛いタイプの人か。
- 878 名前:デフォルトの名無しさん [2008/10/21(火) 01:42:12 ]
- 頭痛はほんとに痛いんだぞ!バカにしちゃだめ!死ぬよ!
- 879 名前:デフォルトの名無しさん [2008/10/21(火) 04:20:59 ]
- 大体でいいから音楽から歌声部分だけ目立たせるようにフィルタをかけたいんだが、
なかなかうまくいかん。 FIRフィルタで400-4000hzくらいを通したところで音楽がこもるだけだ。 フィルタで音声以外の部分を削る(性能はかなり低くていい)って無理なのか?
- 880 名前:デフォルトの名無しさん mailto:sage [2008/10/21(火) 08:36:35 ]
- どの音も倍音成分含んだ上で音が成り立ってるから、
周波数だけでボーカル分離はできないと思う。 音量やパンも考えないと。
- 881 名前:デフォルトの名無しさん mailto:sage [2008/10/21(火) 08:55:13 ]
- 他に、「ボーカルはセンター付近にあって、他の楽器は左右に寄ってる」
って仮定のもとに分離を試みたりするらしいけども、 その仮定自体100%そうとはいえないし、 その仮定が正しい場合でも、たった2チャネルの信号から特定部分抜くのは難しい。
- 882 名前:デフォルトの名無しさん [2008/10/21(火) 19:18:17 ]
- マイクから録音した音声を波形で表示したいのですが、
WaveInで録音したものをどうやって波形にすればいいのですか?
- 883 名前:デフォルトの名無しさん [2008/10/21(火) 20:52:29 ]
- 数値を時系列にプロット
- 884 名前:デフォルトの名無しさん mailto:sage [2008/10/21(火) 22:46:25 ]
- 質問です
超超基本的なシンセソフト(学研のふろくのsx-150みたいな)を作ってみたいです! プログラミング言語に関する知識は全くないです。(シンセソフト作りで一緒に勉強しようと思ってます) 使用する言語でおススメありますか?
- 885 名前:デフォルトの名無しさん mailto:sage [2008/10/22(水) 00:07:56 ]
- C
- 886 名前:デフォルトの名無しさん mailto:sage [2008/10/22(水) 00:10:11 ]
- C++
- 887 名前:884 mailto:sage [2008/10/22(水) 01:50:29 ]
- >>885>>886
ありがとうございます! C言語で調べたところVSTSDKというのがあったんですが、 これを使ってVSTとして作った方が近道ですかね? あと、よかったら参考になる本など教えてもらえるととても嬉しいです。 (この前それっぽい本を買ったんですが、シンセのことばかりでプログラミングのことが載ってなかったんですORZ。でも勉強にはなりました)
- 888 名前:デフォルトの名無しさん mailto:sage [2008/10/22(水) 05:27:48 ]
- プログラムってのは成功失敗を問わず実践してこそ身につくもの。
人に聞く前に自分で実験してみたりはしないのかい? そもそも言語の基礎が解ってるならサウンドの基礎知識だけ学べば実装はそんなに難しく無いはずだし、 言語から勉強しようってんならスレ違い。
- 889 名前:デフォルトの名無しさん mailto:sage [2008/10/22(水) 07:31:28 ]
- >>888
アドバイスありがとうございます! 少しでも近道しようっていう考えが間違ってました。 一人で頑張ります!
- 890 名前:デフォルトの名無しさん mailto:sage [2008/10/22(水) 10:22:51 ]
- VSTって知らないけど、全部自分で作った方が面白いと思うよ。
sx-150シミュレーターというかエミュレーターというか。
- 891 名前:デフォルトの名無しさん mailto:sage [2008/10/22(水) 10:27:43 ]
- >全部自分で
VSTなど使わずって意味で。
- 892 名前:デフォルトの名無しさん mailto:sage [2008/10/22(水) 15:24:46 ]
- むしろVSTなんか作ろうとしたら
ゴールが遠すぎてあっという間に挫折するわな
- 893 名前:868 mailto:sage [2008/10/22(水) 22:56:08 ]
- 皆様解説サンクスです。コメントを総合して何となく分かってきました。
"解脱"に誰もツッこんでくれなくて(´・ω・`)ショボーン >>889 >>892 プログラミングモデルとしては、VSTは分かりやすい方ですよ。 オブジェクト指向っていう壁はありますが、複雑多機能なフレームワーク 渡されるよりは学習コストは低いと思います。 基本的には、SDKで提供されるクラスを継承して処理を実装して、 そのクラスのインスタンスのポインタを返す関数を書いてエクスポートするだけです。
- 894 名前:デフォルトの名無しさん [2008/10/24(金) 02:33:39 ]
- C#でサウンド操作関係のソフトを作ろうかと考えているんですが、waveOut系のような低レベル操作の出来るクラスが見つかりません。
DLLをインポートしてwaveOut系を使うしかないのでしょうか? また、低レベル操作の出来るクラスがあれば教えてください。
- 895 名前:デフォルトの名無しさん [2008/10/24(金) 03:27:46 ]
- >>894
ManagedDirectX経由である程度できる。 昔MSDNにサンプルあったよ。 リズム/ドラムあたりで検索してみ。
- 896 名前:デフォルトの名無しさん [2008/10/24(金) 03:32:13 ]
-
>>894 ttp://thesource.ofallevil.com/japan/msdn/columns/code4fun/code4fun02032004.aspx ほれ
- 897 名前:894 mailto:sage [2008/10/24(金) 09:55:53 ]
- >895-896
さっそく調べてみます。 ありがとうございます!
- 898 名前:デフォルトの名無しさん [2008/10/25(土) 01:40:18 ]
-
遅延時間について教えてください。 FIRの設計で、周波数特性を先に決めて逆DFTかけてインパルス応答出しますよね。 このとき遅延時間が発生すると思いますが、この遅延時間を少なくする定石って何かあるのでしょうか。 サンプリング周波数を多くとるか、タップ数を減らすという考え方であってますか。 また、サンプリング周波数を多くとる場合、アップサンプリングでいいものなんでしょうか。 アホですみませんが、良く分からないので、よろしくお願いします。
- 899 名前:デフォルトの名無しさん mailto:sage [2008/10/25(土) 03:05:15 ]
- >>898
アップサンプリングすると元の音のある帯域が相対的に低域に落ちる。で、 低域で精度確保しようとすると必要タップ数が増えて元の木阿弥。 タップ数減らしたいなら直接設計法をやめるのが早い
- 900 名前:デフォルトの名無しさん mailto:sage [2008/10/25(土) 09:33:22 ]
- >>898
位相が歪んでもいいなら最少位相化でぐぐれ。 あとは、Remez アルゴリズムってので、 位相保ったまま、周波数特性の絶対値誤差を極力少なくできるんで、 それで所望の特性を少ないタップ数で実現できて遅延減らせる。
- 901 名前:デフォルトの名無しさん [2008/10/26(日) 22:53:44 ]
-
返答ありがとうございます。 >>899 ハイパスフィルタならアップサンプリングでも有効ですか? >>900 なるほどー、Remz法って名前は知ってたのですがここで使うんですね。
- 902 名前:デフォルトの名無しさん mailto:sage [2008/10/26(日) 23:06:13 ]
- >>901
意味が分からん アップサンプリングで見かけ上出てくる高域にあるのはゼロ補間で出てくるエイリアス。 普通LPFでカットするし、音響的には害しかない。
|

|