[表示 : 全て 最新50 1-99 101- 201- 301- 401- 501- 601- 701- 801- 901- 2chのread.cgiへ]
Update time : 06/01 09:09 / Filesize : 249 KB / Number-of Response : 981
[このスレッドの書き込みを削除する]
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧] [類似スレッド一覧]


↑キャッシュ検索、類似スレ動作を修正しました、ご迷惑をお掛けしました

サウンドプログラミング4



1 名前:デフォルトの名無しさん [2007/07/25(水) 14:07:56 ]
音のプログラミング処理について語りましょう

各エフェクタの組み合わせとか、
プログラミング外の話題はDTM板の方がいいよ

サウンドプログラミング3
pc11.2ch.net/test/read.cgi/tech/1145573675/

サウンドプログラミング2
pc8.2ch.net/test/read.cgi/tech/1091054082/

サウンドプログラミング
pc5.2ch.net/tech/kako/996/996171508.html


755 名前:デフォルトの名無しさん mailto:sage [2008/07/30(水) 10:48:56 ]
リアルタイムで波形を描画するプログラムを作ってますが、
MM_WOM_DONEが帰ってきたタイミングで波形を描画すると
音声再生が完了する前に波形を描ききってしまいます。

ネットの情報では音声再生が完了した場合にMM_WOM_DONEメッセージが返ると書かれていますが、
実際はMM_WOM_DONEメッセージが音声再生が完了したタイミングで返るのではなく、
デバイスに音声データを送信し終えた段階で返ってきているということなのでしょうか?

756 名前:デフォルトの名無しさん mailto:sage [2008/07/30(水) 11:01:31 ]
大きいバッファ一つだとそういう感じになるね。

waveOutPrepareHeader で小さい領域を数個作って
ソレを繰り返し使いまわすようにするといい


757 名前:デフォルトの名無しさん mailto:sage [2008/07/30(水) 23:16:58 ]
なるほど。ありがとうございました。

758 名前:デフォルトの名無しさん [2008/08/19(火) 05:57:23 ]

>>605

使えるよ。めちゃくちゃ情報量多いのでレファレンス本として使ってる。
エフェクタの実装でつまったときとかに眺めてる。
歴史を網羅してる本(ちょっと古い)なんだけど、
アナログにおける実装とかをデジタルに落とすときに参考になる。
まあバイブルなんで、もっといたほうがいいと思う。

759 名前:デフォルトの名無しさん mailto:sage [2008/08/20(水) 22:33:25 ]
>>605
原書の方が良いよ。


760 名前:デフォルトの名無しさん mailto:sage [2008/08/26(火) 06:52:16 ]
ウェーブデータから指定した周波数をカットする関数はありますか?

761 名前:デフォルトの名無しさん mailto:sage [2008/08/26(火) 07:36:34 ]
そりゃぁ、作ればあるだろうけど……

762 名前:デフォルトの名無しさん [2008/08/28(木) 01:40:14 ]
>>760

FFTして所望の周波数部分削って逆FFTしろ

763 名前:デフォルトの名無しさん [2008/08/28(木) 01:42:45 ]
ところでDirectAccessってその後どうなったのか



764 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 18:42:37 ]
バンドパス処理する場合にはFFTして通過させる以外の周波数の振幅を0にしてIFFTするだけでいいの?

765 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 19:12:40 ]
>>764
それでできるけど、FFT でやるとブロックノイズ対策が面倒よ。
普通に FIR とか IIR でバンドパスフィルタ作った方がいいと思う。

766 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 19:48:27 ]
なぜブロックノイズが生じるのですか?

767 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 19:53:14 ]
FFTは2^nサイズで処理するじゃない

768 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 19:56:14 ]
データを全区間にわたってFFTするならブロックにならないけども。
データ長次第か。

769 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 21:35:27 ]
終端のところは、前部分とオーバーラップさせて2^nにしたらダメですか?

770 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 22:07:00 ]
>>769
まあ、それがブロックノイズ対策。

FFT の変種で MDCT ってのがあって、
オーバーラップさせて周波数領域で処理するんならそれ使うのが楽かも。

とはいえ、やっぱり FIR とかを避ける理由がよくわからん。

771 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 22:35:21 ]
わかりました。FIR使ってみます。
避けたのは勉強してないからです

772 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 22:40:15 ]
FFTを使えばパワースペクトルが得られるってのは、スペアナの実装でよく知られているし、よく目にするからでは。
あとFIRはフィルタの設計法が分からんとか。
昔の俺がそうだったんだが。

773 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 22:51:53 ]
>>772
まさにそうですwww
FIRすればFFTいらないんですか?



774 名前:デフォルトの名無しさん mailto:sage [2008/08/31(日) 22:53:19 ]
winampのグライコってどんな仕組み?

775 名前:デフォルトの名無しさん mailto:sage [2008/09/01(月) 00:06:57 ]
俺は逆にFFT使う方法がわからん。


FFTして、弄りたい周波数の実部と虚部に係数かけてもどしゃいいだけ?


776 名前:デフォルトの名無しさん mailto:sage [2008/09/01(月) 00:54:32 ]
>>770
MDCTはDCT-4だから、ライブラリ選ぶかもね
まぁfftw使えば選べるけど

>>771 >>773
位相を見ないのならDFT(いわゆる普通のFFT)よりDCTの方が良いよ (境界条件の関係)。
DCT前の窓処理がほぼ不要で、オーバーラップのみで結構まともに仕上がる。

FIRは時系列処理で、それと等価な処理が DFT(+オーバーラップ)
でDFTの高速化アルゴリズムがFFT

777 名前:デフォルトの名無しさん mailto:sage [2008/09/24(水) 21:55:05 ]
こんなスレあったのか
知らなかった。。。

778 名前:デフォルトの名無しさん [2008/09/26(金) 04:42:11 ]
ようこそ、ラッキー7。
ここはム板でももっともマニアックなスレです。


779 名前:デフォルトの名無しさん [2008/09/26(金) 05:04:35 ]
776が言っている境界条件の関係が非常によく分かるページ
ttp://laputa.cs.shinshu-u.ac.jp/~yizawa/InfSys1/advanced/dct/

2次元DCTだが許せ。

780 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 09:25:21 ]
俺もそのうち二次元に行くから許してやるよ。

781 名前:デフォルトの名無しさん [2008/09/26(金) 15:30:40 ]
2次元のFFTとか感覚的によくわからないんだよな。
音をFFTすると時間分が圧縮できるのは分かるが、画像をFFTして圧縮できるのはなぜ?
誰か教えてくり。

782 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 16:05:28 ]
だが断る

783 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 18:22:13 ]
>>781
イメージ的にだけど、
2次元のDCT=ある方向に濃淡が変化するレート
で、写真って一つの色に近い値に染まっている箇所がほとんど
(急激な変化は物体との境界にある)だから、例えば64x64の画像に
DCTをかますと、それは低周波数に集中する。

そこに音響で言えば周波数マスキングのような
心理的な情報を考慮させた量子化をすると、いい具合に低周波数
以外の部分が同じような値(0に近い値)になる。
同じような値が多いからエントロピーが少ない。だから、それに
ハフマン符号なんかをかますとファイルが圧縮できる。

間違っていたら訂正お願いします。



784 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 19:45:56 ]
分かってるやつには分かるが分かってないやつには分からない
結局教科書読めって話になる

785 名前:デフォルトの名無しさん mailto:sage [2008/09/26(金) 21:28:08 ]
>>781
そもそも人間の視覚があんまり周波数の高い絵を認識してない
(細かいシマシマ描くと、その中間色あたりの単色に見える)
ので、高周波は多少劣化しても大丈夫。

786 名前:デフォルトの名無しさん [2008/09/27(土) 00:54:20 ]
>>783
>>781

ははあ、なるほど。
サンプリング周波数が44.1khzでとりあえず十分っていうのと似た話か。
FFTすることで圧縮されるわけじゃなく、FFT後の量子化の際に高周波を切り捨てることで圧縮するという感じ?

787 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 01:02:32 ]
>>786
全部捨てるとさすがにあれだけど、
量子化ステップは高周波ほど荒くして問題ない。

788 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 10:39:54 ]
いやだからそれは本質じゃないんだってば
平均情報量って知ってる?

789 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 11:13:14 ]
>>788
量子化ステップ荒くしないと平均情報量そんなに変わらないよ。
べた塗画像とかならともかく、元々のエントロピーが高いものはFFTしてもやっぱエントロピー高い。

790 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 17:57:48 ]
表現を変えただけなら情報量は変わらん。可逆圧縮が例。
非可逆圧縮だと、本質に影響少なくどうやって情報を切り捨てるかが重要で、
そのときに周波数領域とかの表現形式によってやりやすさが変わる

791 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:23:12 ]
うそこけ

792 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:26:19 ]
ほんとだって。
でないと、可逆でエントロピー減ることになるじゃない。

法則性が見つけやすいって意味で、
見掛け上の情報量が減ってる感じになることはあって、
本質的にはFFTしただけでは情報量減らない。

793 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:28:00 ]
「表現をかえたという情報」の分だけ変わるじゃんよ?



794 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:31:20 ]
>>793
それは、「低周波数しか成分持ってない」とか付随した知識がある場合にのみ有効。
実際のところ、画像はそれほど周波数偏ってない。

795 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:38:14 ]
>>794
有効かどうかじゃなくて変わらんというのに反論してるんだよ

796 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:53:02 ]
でもそれ、「低周波しか持ってない」って情報がある時点でエントロピー低いのでは。

797 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 22:53:40 ]
えっと、要するに、エントロピーが変わるのは、
FFT かけた瞬間じゃなくて、負荷的な情報を与えた瞬間。

798 名前:デフォルトの名無しさん mailto:sage [2008/09/27(土) 23:23:50 ]
エントロピーの計算式覚えてるよね?

799 名前:デフォルトの名無しさん mailto:sage [2008/09/28(日) 01:11:53 ]
帰ってきたら色々レスついてるな
まずは >>792 >>794 >>797 に同意

>>795
変わらない。記号列長と情報量は区別するべき。可逆圧縮で考えるなら、
圧縮することで記号列は短くなるが、その記号列が表す情報そのものは何も変わらない。
変わったら可逆じゃない。情報が変わらないから情報量も変わらない。OK?

可逆圧縮は情報を変えずに記号列を圧縮する操作、非可逆圧縮はそれに加えて情報自体も削減する。
表現形式を変えるだけのDFTで情報量は減らない。で、周波数領域にすることで例えば
「低周波成分が大半を占める」とか聴覚心理モデルとか**問題領域固有の知識**を入れて、
削っても影響のない情報を判別して削るのが非可逆の基本。
何度も言うが、表現形式を変えただけでは情報量は減らない。

800 名前:デフォルトの名無しさん [2008/09/29(月) 10:00:27 ]
なんかモンティホール問題と似てきたな。
誰か799の言ってることをモンティホール問題に置き換えて説明してれくれないだろうか。

801 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 10:21:45 ]
このソースコードと出力結果の情報量は同じ?
#include<stdio.h>
#include<math.h>
int main(void){
double theta;
int i;
for(i=0;i<10000;i++){
theta=i*0.001;
printf("%f\n", sin(theta));
}
return 0;
}

802 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 11:32:52 ]
>>801
本気で頭悪いのか?
理論と有限桁での実装の誤差ってのは何にしてもついて回るもんだから議論するだけ無駄。

803 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 11:34:18 ]
>>801
周期関数の結果は非可逆だよねぇ。情報量はどうなるんだろ。

そう言えばFFTして逆FFTすると、強度の情報が失われないかな?
音や画像みたいに正規化しやすい場合はいいんだけれど。
# 演算誤差は目を瞑ったとしても。



804 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 12:32:27 ]
0.001www

805 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 12:40:18 ]
>>799

すばらしい説明をありがとう。
情報量を圧縮って意味がわからないよなそもそも。

806 名前:801 mailto:sage [2008/09/29(月) 19:17:35 ]
>>802
誤差が無ければ議論できるの?
#include<stdio.h>
int myrand(void){
static unsigned long seed=377743;
seed=seed*8209+6469;
return (seed>>8)&0xffff;
}
int main(void){
int i;
for(i=0;i<10000;i++){
printf("%d\n", myrand());
}
return 0;
}

807 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 20:56:03 ]
>806
出力結果からそのソースが一意で起こせるならな。
ってか揚げ足取りがしたいだけだろお前。

808 名前:801 mailto:sage [2008/09/29(月) 21:10:07 ]
スマン
情報量云々を見るとつい…

809 名前:デフォルトの名無しさん mailto:sage [2008/09/29(月) 21:53:24 ]
2次元の話がずいぶん広がってしまったな。
なんか音の話題ないの。


810 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 12:09:50 ]
ここにいるおまいらが今まで作った音響アプリの代表作って何よ。
俺はリズムサンプラー。

811 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 13:15:36 ]
>>810
そういうのはマ板でやれ

812 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 16:31:04 ]
音響アプリなんだからいいだろ。
このスレ貴重なんだから盛り上げていこうぜ。

813 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 16:54:45 ]
自分語りがしたいならマ板。
技術スレでする話題じゃねーわな。
糞スレ化するからいらんよ。



814 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 17:43:26 ]
すいません技術的な質問です。
オーバーサンプリングって単純にプログラム内でサンプリング周波数の倍のデータとして扱えばそれでいいんでしょうか。
データ間は0をつめるとして、なぜそれでエイリアシング対策になるのかが理解できません。
たとえば44.1khzのWAVファイルを倍の88.2khzで扱ったとして、元データは44.1khzのデータしかないので、結局音そのものはクオリティ変わりませんよね。


815 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 18:57:58 ]
キミが言っているのはオーバーサンプリングではなくアップサンプリングじゃないの。

例えば、20kHz以下の信号をAD変換したい時に、サンプリング周波数を
44.1kHzではなく88.2kHzにするのがオーバーサンプリング。
こうすれば、AD変換の前に必要なアンチエイリアシング・フィルタに必要な
遮断特性が緩和されるというメリットがある。

アップサンプリングについて説明すると、データの間に0を挿入してデータ数を
2倍にすれば2倍アップサンプリングになる。アップサンプリング後のデータには
エイリアスが発生しているので、それをFIRフィルタで削ってからDACで出力すれば、
DA変換後のスムージング・フィルタに必要な遮断特性が緩和される。

図が無いと判りにくいだろうから、詳しくは下記リンクを参照。
blackfin.s36.coreserver.jp/2191/program/polyphase/polyphase02.shtml

816 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 19:28:25 ]
>>815

なるほど、まず用語の使用が間違っていたのですね。
さらに実際はアップサンプリング時でもLPFをかけることが肝だったんですね、納得しました。
ありがとうございます。

参考:www38.tok2.com/home/shigaarch/OldBBS/20definition.html

ただ、そうなると良く分からないのが、たとえば>>405の記述で見られるような、
デジタル信号処理の計算の部分でオーバーサンプリングしろというのはどういう意味なのかということなのですが。
エフェクト処理でアップ(オーバー)サンプリングすることで、一体どんなメリットがあるのかわからずに悩んでいます。
もの分かりが悪くて申し訳ないです。

817 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 23:15:53 ]
>アップサンプリング
漏れなら同じデータで穴埋めちゃう。 当然、波形がカクカクするが気にしない。
画像の拡大もカクカクしてるのが好きだから。

818 名前:デフォルトの名無しさん mailto:sage [2008/09/30(火) 23:54:53 ]
Lanczos3で補間したら適度なLPFにもなってるんじゃないの?
高級オーディオメーカWADIAの昔の製品はB-Splineだったな。
20kHzに近い波形はレベルも位相もボロボロになってるかもしれないけど
どうせサンプル数が足りないから長tapのFIRでも大差ないでしょ。

819 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 01:13:56 ]
>どうせサンプル数が足りないから長tapのFIRでも大差ないでしょ。

ここ詳しく。

820 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 01:29:01 ]
>>817
音の「カクカク」はジッターノイズになって苦痛じゃない?

821 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 16:45:43 ]
高周波が出ますナ

822 名前:デフォルトの名無しさん mailto:sage [2008/10/01(水) 22:23:45 ]
おまいらフィルタの設計時ってどんなツール使ってる?


823 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 09:34:09 ]
dsPICworks

dsPICつこてるので。



824 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 12:24:11 ]
職場では MATLAB
自宅では GNU Octave

825 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 14:59:12 ]
GNU Octave って、FIRやIIRのタップごとの計算とか簡単にできたりするの?
GUIでスペクトル確認しながらとか。

826 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 18:15:28 ]
GNU Octave は、基本的に対話型コマンドライン環境だからCUIになるけど、
(コマンド列をテキストファイルに書き出せば、スクリプト実行も可能)
フィルタ設計コマンドでフィルタ係数を求めて、フィルタ特性をグラフ表示するのは簡単にできるよ。

827 名前:デフォルトの名無しさん mailto:sage [2008/10/02(木) 19:17:53 ]
へー、おもしろい。使ってみます。ありがとうー。

828 名前:デフォルトの名無しさん mailto:sage [2008/10/03(金) 12:42:06 ]
>>826
gnuplotと組み合わせてるのかな?

829 名前:デフォルトの名無しさん [2008/10/04(土) 16:46:17 ]
MAXMSPとかでパッチ作ってあそんでるんですが
pluggoブリッジじゃなくて純粋なOSXのプラグインを
作りたいんですが、何から手をつけたらいいんでしょうか?

830 名前:デフォルトの名無しさん mailto:sage [2008/10/05(日) 01:45:43 ]
あー....。

831 名前:デフォルトの名無しさん mailto:sage [2008/10/05(日) 08:21:52 ]
結構色々調べたんですよ
CoreAudioのプログラミングXcodeでやるんですね

SourceForgeなんかにAUシンセのソース等みながら
やってみます

832 名前:デフォルトの名無しさん mailto:sage [2008/10/06(月) 11:42:35 ]
MACはCoreAudioとかあるからなあ、結局サウンドプログラミングの出番ないよな。


833 名前:デフォルトの名無しさん mailto:sage [2008/10/06(月) 19:09:06 ]
んな訳ない。 波形を自分で作ったり加工したり…



834 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 05:05:08 ]
それだけ?

835 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 07:31:43 ]
サウンドプログラミングじゃないじゃん

836 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 12:14:18 ]
サウンドデバイスプログラミングやAPI使用法はスレ違いだからすっこんでろw
ここはもっとアカデミックで高尚な話題のスレなんだよ

837 名前:デフォルトの名無しさん mailto:sage [2008/10/07(火) 14:22:35 ]
デバイスなめんな

838 名前:デフォルトの名無しさん mailto:sage [2008/10/08(水) 04:37:48 ]

>>830

それにしては、>>752の話題はこのスレでは光ってるよな
くそワロタ

839 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 05:07:21 ]
質問です。

自分の声って自分の耳で聞いた場合と、何かに録音して聞いた場合とでは違って聞こえますよね。
他人が実際どのように自分の声を認識しているのかを知りたくて、
それを聞けるようにするアプリを作ろうと思っているのですが、
そもそも技術的には可能でしょうか?

どうしても大好きなあの子がどんな風に自分の声を聞いているのか知りたくてたまらないんです。

よろしくお願いします。

840 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 08:57:35 ]
頭部インパルス応答ってあるじゃん
あれの応用で、音源を喉部に固定して測定すればいいと思うよ

841 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 09:06:37 ]
>>839
変態キモイ死ね

骨を伝ってくる音の特性を再現すれば出来そうだけど、
個人の骨格の違いでどの程度変わるのかってーのと、
そもそも個人個人で聞こえ方に差異があるはずだから無理じゃね?

842 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:05:50 ]
>>839
頭の模型を作って喉にスピーカー、耳にマイクを仕込んで、IRを取れ。それつかってコンボリューション。

843 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:30:03 ]
作ろうと思ってるなら自分で理論考えて作ればいいじゃん
そのための脳みそがないってんならご愁傷様だ



844 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 10:40:39 ]
単に他人の耳の位置にマイクを設置すればいいんじゃないの?

845 名前:デフォルトの名無しさん [2008/10/09(木) 10:41:29 ]
普通に録音して聞けばいいだろ。その子の聞こえ方をシミュしても、その結果を聞くのは自分なんだし

846 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 17:08:52 ]
>>839
単に録音してそれを自分で聴くだけでいい。

難しいのは、自分の声を自分がどう聞いているかを
相手に聞かせることだ。

847 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 20:06:19 ]
>>840-842は質問を勘違いしてるな

848 名前:デフォルトの名無しさん mailto:sage [2008/10/09(木) 20:26:39 ]
>831の者です

グラニュラ・・・そしてFFT・・・・
新しい音響はヒットチャートも揺るがしますよ

みなさん頑張ってね!

849 名前:840 mailto:sage [2008/10/10(金) 00:43:36 ]
・・・俺が>>841-842を誤誘導したっぽいな

850 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 02:30:07 ]
このスレで聞くくらいだから、まさか録音して聞けば済む程度の質問されるとは思わない罠w
でもまぁ全く同じには聞こえないだろうけど。

851 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 19:14:27 ]
その子の頭部を物理シュミレーションするしかないわな。
でもそれが測れるくらい仲がいいならもう付き合ってるよな。

852 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:01:27 ]
>>850>>851
それを言い出すとキリがないんじゃないか。

例えば「大好きなあの子がどんな風に自分の顔を見ているのか」知りたいのなら、
普通は「鏡を見ろ」と答えて、それで十分な答えだ。
あの子の水晶体や網膜の特性、視覚に関係する脳の働きまで考慮しないだろう。

853 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:13:04 ]
みんな勘違いしているようだが、>>839
その子自身の発した声を、その子自身がどう聞いているかを、知りたい って意味なんだよ。



854 名前:デフォルトの名無しさん mailto:sage [2008/10/10(金) 22:13:25 ]
ところで、non causalなら理想ローパスってつくれるんでしょ?

855 名前:デフォルトの名無しさん mailto:sage [2008/10/11(土) 00:44:48 ]
まあ、non causal ならねぇ






[ 続きを読む ] / [ 携帯版 ]

前100 次100 最新50 [ このスレをブックマーク! 携帯に送る ] 2chのread.cgiへ
[+板 最近立ったスレ&熱いスレ一覧 : +板 最近立ったスレ/記者別一覧]( ´∀`)<249KB

read.cgi ver5.27 [feat.BBS2 +1.6] / e.0.2 (02/09/03) / eucaly.net products.
担当:undef