[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 06/01 09:09 / Filesize : 249 KB / Number-of Response : 981
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

サウンドプログラミング4



1 名前:デフォルトの名無しさん [2007/07/25(水) 14:07:56 ]
音のプログラミング処理について語りましょう

各エフェクタの組み合わせとか、
プログラミング外の話題はDTM板の方がいいよ

サウンドプログラミング3
pc11.2ch.net/test/read.cgi/tech/1145573675/

サウンドプログラミング2
pc8.2ch.net/test/read.cgi/tech/1091054082/

サウンドプログラミング
pc5.2ch.net/tech/kako/996/996171508.html


779 名前:デフォルトの名無しさん [2008/09/26(金) 05:04:35 ]
776が言っている境界条件の関係が非常によく分かるページ
ttp://laputa.cs.shinshu-u.ac.jp/~yizawa/InfSys1/advanced/dct/

2次元DCTだが許せ。

780 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 09:25:21 ]
俺もそのうち二次元に行くから許してやるよ。

781 名前:デフォルトの名無しさん [2008/09/26(金) 15:30:40 ]
2次元のFFTとか感覚的によくわからないんだよな。
音をFFTすると時間分が圧縮できるのは分かるが、画像をFFTして圧縮できるのはなぜ?
誰か教えてくり。

782 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 16:05:28 ]
だが断る

783 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 18:22:13 ]
>>781
イメージ的にだけど、
2次元のDCT=ある方向に濃淡が変化するレート
で、写真って一つの色に近い値に染まっている箇所がほとんど
(急激な変化は物体との境界にある)だから、例えば64x64の画像に
DCTをかますと、それは低周波数に集中する。

そこに音響で言えば周波数マスキングのような
心理的な情報を考慮させた量子化をすると、いい具合に低周波数
以外の部分が同じような値(0に近い値)になる。
同じような値が多いからエントロピーが少ない。だから、それに
ハフマン符号なんかをかますとファイルが圧縮できる。

間違っていたら訂正お願いします。

784 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 19:45:56 ]
分かってるやつには分かるが分かってないやつには分からない
結局教科書読めって話になる

785 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 21:28:08 ]
>>781
そもそも人間の視覚があんまり周波数の高い絵を認識してない
(細かいシマシマ描くと、その中間色あたりの単色に見える)
ので、高周波は多少劣化しても大丈夫。

786 名前:デフォルトの名無しさん [2008/09/27(土) 00:54:20 ]
>>783
>>781

ははあ、なるほど。
サンプリング周波数が44.1khzでとりあえず十分っていうのと似た話か。
FFTすることで圧縮されるわけじゃなく、FFT後の量子化の際に高周波を切り捨てることで圧縮するという感じ?

787 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 01:02:32 ]
>>786
全部捨てるとさすがにあれだけど、
量子化ステップは高周波ほど荒くして問題ない。



788 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 10:39:54 ]
いやだからそれは本質じゃないんだってば
平均情報量って知ってる?

789 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 11:13:14 ]
>>788
量子化ステップ荒くしないと平均情報量そんなに変わらないよ。
べた塗画像とかならともかく、元々のエントロピーが高いものはFFTしてもやっぱエントロピー高い。

790 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 17:57:48 ]
表現を変えただけなら情報量は変わらん。可逆圧縮が例。
非可逆圧縮だと、本質に影響少なくどうやって情報を切り捨てるかが重要で、
そのときに周波数領域とかの表現形式によってやりやすさが変わる

791 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:23:12 ]
うそこけ

792 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:26:19 ]
ほんとだって。
でないと、可逆でエントロピー減ることになるじゃない。

法則性が見つけやすいって意味で、
見掛け上の情報量が減ってる感じになることはあって、
本質的にはFFTしただけでは情報量減らない。

793 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:28:00 ]
「表現をかえたという情報」の分だけ変わるじゃんよ?

794 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:31:20 ]
>>793
それは、「低周波数しか成分持ってない」とか付随した知識がある場合にのみ有効。
実際のところ、画像はそれほど周波数偏ってない。

795 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:38:14 ]
>>794
有効かどうかじゃなくて変わらんというのに反論してるんだよ

796 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:53:02 ]
でもそれ、「低周波しか持ってない」って情報がある時点でエントロピー低いのでは。

797 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:53:40 ]
えっと、要するに、エントロピーが変わるのは、
FFT かけた瞬間じゃなくて、負荷的な情報を与えた瞬間。



798 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 23:23:50 ]
エントロピーの計算式覚えてるよね?

799 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 01:11:53 ]
帰ってきたら色々レスついてるな
まずは >>792 >>794 >>797 に同意

>>795
変わらない。記号列長と情報量は区別するべき。可逆圧縮で考えるなら、
圧縮することで記号列は短くなるが、その記号列が表す情報そのものは何も変わらない。
変わったら可逆じゃない。情報が変わらないから情報量も変わらない。OK?

可逆圧縮は情報を変えずに記号列を圧縮する操作、非可逆圧縮はそれに加えて情報自体も削減する。
表現形式を変えるだけのDFTで情報量は減らない。で、周波数領域にすることで例えば
「低周波成分が大半を占める」とか聴覚心理モデルとか**問題領域固有の知識**を入れて、
削っても影響のない情報を判別して削るのが非可逆の基本。
何度も言うが、表現形式を変えただけでは情報量は減らない。

800 名前:デフォルトの名無しさん [2008/09/29(月) 10:00:27 ]
なんかモンティホール問題と似てきたな。
誰か799の言ってることをモンティホール問題に置き換えて説明してれくれないだろうか。

801 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 10:21:45 ]
このソースコードと出力結果の情報量は同じ?
#include<stdio.h>
#include<math.h>
int main(void){
double theta;
int i;
for(i=0;i<10000;i++){
theta=i*0.001;
printf("%f\n", sin(theta));
}
return 0;
}

802 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 11:32:52 ]
>>801
本気で頭悪いのか?
理論と有限桁での実装の誤差ってのは何にしてもついて回るもんだから議論するだけ無駄。

803 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 11:34:18 ]
>>801
周期関数の結果は非可逆だよねぇ。情報量はどうなるんだろ。

そう言えばFFTして逆FFTすると、強度の情報が失われないかな?
音や画像みたいに正規化しやすい場合はいいんだけれど。
# 演算誤差は目を瞑ったとしても。

804 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 12:32:27 ]
0.001www

805 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 12:40:18 ]
>>799

すばらしい説明をありがとう。
情報量を圧縮って意味がわからないよなそもそも。

806 名前:801 mailto:sage [2008/09/29(月) 19:17:35 ]
>>802
誤差が無ければ議論できるの?
#include<stdio.h>
int myrand(void){
static unsigned long seed=377743;
seed=seed*8209+6469;
return (seed>>8)&0xffff;
}
int main(void){
int i;
for(i=0;i<10000;i++){
printf("%d\n", myrand());
}
return 0;
}

807 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 20:56:03 ]
>806
出力結果からそのソースが一意で起こせるならな。
ってか揚げ足取りがしたいだけだろお前。



808 名前:801 mailto:sage [2008/09/29(月) 21:10:07 ]
スマン
情報量云々を見るとつい…

809 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 21:53:24 ]
2次元の話がずいぶん広がってしまったな。
なんか音の話題ないの。


810 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 12:09:50 ]
ここにいるおまいらが今まで作った音響アプリの代表作って何よ。
俺はリズムサンプラー。

811 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 13:15:36 ]
>>810
そういうのはマ板でやれ

812 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 16:31:04 ]
音響アプリなんだからいいだろ。
このスレ貴重なんだから盛り上げていこうぜ。

813 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 16:54:45 ]
自分語りがしたいならマ板。
技術スレでする話題じゃねーわな。
糞スレ化するからいらんよ。

814 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 17:43:26 ]
すいません技術的な質問です。
オーバーサンプリングって単純にプログラム内でサンプリング周波数の倍のデータとして扱えばそれでいいんでしょうか。
データ間は0をつめるとして、なぜそれでエイリアシング対策になるのかが理解できません。
たとえば44.1khzのWAVファイルを倍の88.2khzで扱ったとして、元データは44.1khzのデータしかないので、結局音そのものはクオリティ変わりませんよね。


815 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 18:57:58 ]
キミが言っているのはオーバーサンプリングではなくアップサンプリングじゃないの。

例えば、20kHz以下の信号をAD変換したい時に、サンプリング周波数を
44.1kHzではなく88.2kHzにするのがオーバーサンプリング。
こうすれば、AD変換の前に必要なアンチエイリアシング・フィルタに必要な
遮断特性が緩和されるというメリットがある。

アップサンプリングについて説明すると、データの間に0を挿入してデータ数を
2倍にすれば2倍アップサンプリングになる。アップサンプリング後のデータには
エイリアスが発生しているので、それをFIRフィルタで削ってからDACで出力すれば、
DA変換後のスムージング・フィルタに必要な遮断特性が緩和される。

図が無いと判りにくいだろうから、詳しくは下記リンクを参照。
blackfin.s36.coreserver.jp/2191/program/polyphase/polyphase02.shtml

816 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 19:28:25 ]
>>815

なるほど、まず用語の使用が間違っていたのですね。
さらに実際はアップサンプリング時でもLPFをかけることが肝だったんですね、納得しました。
ありがとうございます。

参考:www38.tok2.com/home/shigaarch/OldBBS/20definition.html

ただ、そうなると良く分からないのが、たとえば>>405の記述で見られるような、
デジタル信号処理の計算の部分でオーバーサンプリングしろというのはどういう意味なのかということなのですが。
エフェクト処理でアップ(オーバー)サンプリングすることで、一体どんなメリットがあるのかわからずに悩んでいます。
もの分かりが悪くて申し訳ないです。

817 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 23:15:53 ]
>アップサンプリング
漏れなら同じデータで穴埋めちゃう。 当然、波形がカクカクするが気にしない。
画像の拡大もカクカクしてるのが好きだから。



818 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 23:54:53 ]
Lanczos3で補間したら適度なLPFにもなってるんじゃないの?
高級オーディオメーカWADIAの昔の製品はB-Splineだったな。
20kHzに近い波形はレベルも位相もボロボロになってるかもしれないけど
どうせサンプル数が足りないから長tapのFIRでも大差ないでしょ。

819 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 01:13:56 ]
>どうせサンプル数が足りないから長tapのFIRでも大差ないでしょ。

ここ詳しく。

820 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 01:29:01 ]
>>817
音の「カクカク」はジッターノイズになって苦痛じゃない?

821 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 16:45:43 ]
高周波が出ますナ

822 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 22:23:45 ]
おまいらフィルタの設計時ってどんなツール使ってる?


823 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 09:34:09 ]
dsPICworks

dsPICつこてるので。

824 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 12:24:11 ]
職場では MATLAB
自宅では GNU Octave

825 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 14:59:12 ]
GNU Octave って、FIRやIIRのタップごとの計算とか簡単にできたりするの?
GUIでスペクトル確認しながらとか。

826 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 18:15:28 ]
GNU Octave は、基本的に対話型コマンドライン環境だからCUIになるけど、
(コマンド列をテキストファイルに書き出せば、スクリプト実行も可能)
フィルタ設計コマンドでフィルタ係数を求めて、フィルタ特性をグラフ表示するのは簡単にできるよ。

827 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 19:17:53 ]
へー、おもしろい。使ってみます。ありがとうー。



828 名前:デフォルトの名無しさん mailto:sage [2008/10/03(金) 12:42:06 ]
>>826
gnuplotと組み合わせてるのかな?

829 名前:デフォルトの名無しさん [2008/10/04(土) 16:46:17 ]
MAXMSPとかでパッチ作ってあそんでるんですが
pluggoブリッジじゃなくて純粋なOSXのプラグインを
作りたいんですが、何から手をつけたらいいんでしょうか?

830 名前:デフォルトの名無しさん mailto:sage [2008/10/05(日) 01:45:43 ]
あー....。

831 名前:デフォルトの名無しさん mailto:sage [2008/10/05(日) 08:21:52 ]
結構色々調べたんですよ
CoreAudioのプログラミングXcodeでやるんですね

SourceForgeなんかにAUシンセのソース等みながら
やってみます

832 名前:デフォルトの名無しさん mailto:sage [2008/10/06(月) 11:42:35 ]
MACはCoreAudioとかあるからなあ、結局サウンドプログラミングの出番ないよな。


833 名前:デフォルトの名無しさん mailto:sage [2008/10/06(月) 19:09:06 ]
んな訳ない。 波形を自分で作ったり加工したり…

834 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 05:05:08 ]
それだけ?

835 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 07:31:43 ]
サウンドプログラミングじゃないじゃん

836 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 12:14:18 ]
サウンドデバイスプログラミングやAPI使用法はスレ違いだからすっこんでろw
ここはもっとアカデミックで高尚な話題のスレなんだよ

837 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 14:22:35 ]
デバイスなめんな



838 名前:デフォルトの名無しさん mailto:sage [2008/10/08(水) 04:37:48 ]

>>830

それにしては、>>752の話題はこのスレでは光ってるよな
くそワロタ

839 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 05:07:21 ]
質問です。

自分の声って自分の耳で聞いた場合と、何かに録音して聞いた場合とでは違って聞こえますよね。
他人が実際どのように自分の声を認識しているのかを知りたくて、
それを聞けるようにするアプリを作ろうと思っているのですが、
そもそも技術的には可能でしょうか?

どうしても大好きなあの子がどんな風に自分の声を聞いているのか知りたくてたまらないんです。

よろしくお願いします。

840 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 08:57:35 ]
頭部インパルス応答ってあるじゃん
あれの応用で、音源を喉部に固定して測定すればいいと思うよ

841 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 09:06:37 ]
>>839
変態キモイ死ね

骨を伝ってくる音の特性を再現すれば出来そうだけど、
個人の骨格の違いでどの程度変わるのかってーのと、
そもそも個人個人で聞こえ方に差異があるはずだから無理じゃね?

842 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:05:50 ]
>>839
頭の模型を作って喉にスピーカー、耳にマイクを仕込んで、IRを取れ。それつかってコンボリューション。

843 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:30:03 ]
作ろうと思ってるなら自分で理論考えて作ればいいじゃん
そのための脳みそがないってんならご愁傷様だ

844 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:40:39 ]
単に他人の耳の位置にマイクを設置すればいいんじゃないの?

845 名前:デフォルトの名無しさん [2008/10/09(木) 10:41:29 ]
普通に録音して聞けばいいだろ。その子の聞こえ方をシミュしても、その結果を聞くのは自分なんだし

846 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 17:08:52 ]
>>839
単に録音してそれを自分で聴くだけでいい。

難しいのは、自分の声を自分がどう聞いているかを
相手に聞かせることだ。

847 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 20:06:19 ]
>>840-842は質問を勘違いしてるな



848 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 20:26:39 ]
>831の者です

グラニュラ・・・そしてFFT・・・・
新しい音響はヒットチャートも揺るがしますよ

みなさん頑張ってね!

849 名前:840 mailto:sage [2008/10/10(金) 00:43:36 ]
・・・俺が>>841-842を誤誘導したっぽいな

850 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 02:30:07 ]
このスレで聞くくらいだから、まさか録音して聞けば済む程度の質問されるとは思わない罠w
でもまぁ全く同じには聞こえないだろうけど。

851 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 19:14:27 ]
その子の頭部を物理シュミレーションするしかないわな。
でもそれが測れるくらい仲がいいならもう付き合ってるよな。

852 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:01:27 ]
>>850>>851
それを言い出すとキリがないんじゃないか。

例えば「大好きなあの子がどんな風に自分の顔を見ているのか」知りたいのなら、
普通は「鏡を見ろ」と答えて、それで十分な答えだ。
あの子の水晶体や網膜の特性、視覚に関係する脳の働きまで考慮しないだろう。

853 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:13:04 ]
みんな勘違いしているようだが、>>839
その子自身の発した声を、その子自身がどう聞いているかを、知りたい って意味なんだよ。

854 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:13:25 ]
ところで、non causalなら理想ローパスってつくれるんでしょ?

855 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 00:44:48 ]
まあ、non causal ならねぇ

856 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 11:32:49 ]
一瞬カジュアルって読んでしまった

理想ローパスって有限長でできるの?無限長なら先読みできたところで意味ない気が…
理解間違ってたらすまん

857 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 13:20:16 ]
>>853
なるほど。全然気付かなかった。
「自分」という言葉を使ってるから両方の意味にとれるんだな。
その方法は俺も知りたいと思っていた。

適当なフィルタをかけて、どちらが似ているかを本人に選ばせ、
パラメータを微調整していく、というのくらいしか思いつかない。



858 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 13:35:05 ]
>>853
日本語の「自分」は1〜3人称全部に使えるからわかりにくい〜

859 名前:854 mailto:sage [2008/10/11(土) 19:40:18 ]
>>856
あっしの理解では、フィルタが無限長でも
データが有限長なら可能かと。

860 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 23:20:43 ]
ダウンサンプリングするプログラムつくりたいんだけど、
間引くデータはどう選んだらいいんですか?

861 名前:デフォルトの名無しさん mailto:sage [2008/10/12(日) 00:49:11 ]
1/2にするなら1/4fsでローパスして1つ飛ばしすれば速い。
整数比でなければリサンプリング。間引くじゃできん・・と思う。
間引くだけで可能なら俺も知りたい。

862 名前:デフォルトの名無しさん mailto:sage [2008/10/12(日) 09:30:54 ]
wavefs44.exeとかssrcのソースが参考になる。

863 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 12:12:34 ]
奇遇だな
俺もssrcを勧めようと思っていたところだ

864 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 18:31:48 ]
2つともソースもバイナリも入手不能っぽいのだが

865 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 18:43:57 ]
ググって一番頭のサイトで手に入るけど?

866 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 19:03:39 ]
ssrcって日本からアクセスブロックしてんじゃなかったっけ

867 名前:デフォルトの名無しさん mailto:sage [2008/10/13(月) 21:36:09 ]
海外のプロクシ経由でアクセスすれば問題無いでしょ。



868 名前:デフォルトの名無しさん mailto:sage [2008/10/16(木) 20:51:37 ]
DFTとDTFTの違いが理解できない…誰か解脱plz

869 名前:デフォルトの名無しさん mailto:sage [2008/10/16(木) 22:58:12 ]
>>868
入力関数が周期的か否か

870 名前:デフォルトの名無しさん [2008/10/17(金) 02:54:09 ]
SSRCみたいに、
サウンドプログラミングの参考になるオープンソースソフトって他にどんなのがありますか。




871 名前:デフォルトの名無しさん mailto:sage [2008/10/17(金) 04:50:26 ]
>>868
Wikipediaより
・入力が離散的なら、フーリエ変換は DTFT となる。
・入力が周期的なら、フーリエ変換はフーリエ級数となる。
・入力が離散的かつ周期的なら、フーリエ変換は DFT となる。

872 名前:デフォルトの名無しさん [2008/10/17(金) 09:07:37 ]
DFTは、有限区間での変換を行う。
DFTは実際にはそうとは限らないが、以下の仮定を置いて考える。
その時にその区間の信号が、周期的に無限に続くと考える。従って、信号の一端と多端が滑らかでない場合などに問題が生じる。
これらを解決するために、窓関数などが用いられるが、これによってスペクトル漏れという問題が起きる。

これに対し、DTFTは、実際に上記の過程が成立する場合ではないかと思う。

873 名前:デフォルトの名無しさん mailto:sage [2008/10/17(金) 16:17:35 ]
連続時間・無限区間 → フーリエ変換
連続時間・有限区間 → フーリエ級数
離散時間・無限区間 → 離散時間フーリエ変換(DTFT)
離散時間・有限区間 → 離散フーリエ変換(DFT)

874 名前:デフォルトの名無しさん mailto:sage [2008/10/17(金) 23:21:38 ]
どれも微妙に誤解を招きそうな回答ですな

875 名前:デフォルトの名無しさん mailto:sage [2008/10/17(金) 23:51:42 ]
ご存知とは思うが、周期関数を除いては客観的な周波数成分など定義されていないので、
DFTの結果はDFT変換結果でしかない。
f(t)=f(t+T)を常に満たす周期信号など実在しないから(だって過去には限界があるし未来は分からないから)
実際には周波数成分は未定義である。
・・ということを念頭に置かないとフーリエ系周波数分析に過剰な期待をしすぎる。
ピッチが速く変化する人の声などはLPC分析のほうが成功を収めている。

876 名前:デフォルトの名無しさん mailto:sage [2008/10/18(土) 11:02:27 ]
>DFT変換

877 名前:デフォルトの名無しさん mailto:sage [2008/10/20(月) 10:09:20 ]
頭痛が痛いタイプの人か。



878 名前:デフォルトの名無しさん [2008/10/21(火) 01:42:12 ]
頭痛はほんとに痛いんだぞ!バカにしちゃだめ!死ぬよ!

879 名前:デフォルトの名無しさん [2008/10/21(火) 04:20:59 ]
大体でいいから音楽から歌声部分だけ目立たせるようにフィルタをかけたいんだが、
なかなかうまくいかん。

FIRフィルタで400-4000hzくらいを通したところで音楽がこもるだけだ。
フィルタで音声以外の部分を削る(性能はかなり低くていい)って無理なのか?






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<249KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef