- 1 名前:デフォルトの名無しさん [2007/07/25(水) 14:07:56 ]
- 音のプログラミング処理について語りましょう
各エフェクタの組み合わせとか、 プログラミング外の話題はDTM板の方がいいよ サウンドプログラミング3 pc11.2ch.net/test/read.cgi/tech/1145573675/ サウンドプログラミング2 pc8.2ch.net/test/read.cgi/tech/1091054082/ サウンドプログラミング pc5.2ch.net/tech/kako/996/996171508.html
- 448 名前:デフォルトの名無しさん mailto:sage [2008/02/12(火) 20:18:37 ]
- イコライザも係数を一気に書き換えたら発振するよ
書き換えでフィードバックゲインが大きく変わるから、 結果オーバフローすると不安定になる。
- 449 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 03:26:05 ]
- だから俺はFIR派
- 450 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 08:04:25 ]
- FIRで、RBJみたいに簡単に扱える方法はあるの?
- 451 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 09:26:34 ]
- FIRでバンドパスフィルタを作っておけば直線位相だから
元の信号の遅延信号と加減算できるんだよ。 元の信号に足せば、そのバンドだけポコンの持ち上がるし 足せば下げられる。 IIIRでも同じなんだけどね
- 452 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 13:57:31 ]
- IIRは結果の加減算やろうとすると位相差のせいでうまくいかないからねぇ
てかRBJって何?
- 453 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 14:32:31 ]
- ググレカス
www.google.co.jp/search?q=RBJ+IIR
- 454 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 15:02:04 ]
- いや、バンドパスの頂点はゼロ位相だから 加算は可能だよ。
その特性は IIR-ピーキングイコライザのものと殆ど同じ ただQはだいぶ調整必要なのとf0も少しズレるように思ったな
- 455 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 16:08:33 ]
- 頂点以外ずれるから問題なんだろう
- 456 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 16:11:20 ]
- それを言うならIIRのピーキングイコライザも問題って事になる
- 457 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 16:19:57 ]
- いや、位相がずれたものを元音に加減算することが問題って話ですよ
- 458 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 16:34:02 ]
- だからIIRピーキングイコライザも、位相はピークでは一致するけど
その前後では 〜 になる。 そして、IIRバンドパスのを加算しても、これは同じだから、同じだって
- 459 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 17:28:44 ]
- ん?ピーキングでもバンドパスでも位相がずれるのは当然、そりゃわかってる
問題はそれを元音に加減算することだと言ってるわけですよ。 位相がずれた音を元音に加減算したら周波数特性に影響が出るしょ? までも、バンドパスは位相のズレ幅と同じスロープで減衰してるから、 大きな特性変化にはならないかもだけど。 まちがってたらすまん
- 460 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 17:45:59 ]
- 速い話
IIRピーキング = 元音 + IIRバンドパス でははない。ということ。 周波数特性が崩れる。
- 461 名前:デフォルトの名無しさん mailto:sage [2008/02/13(水) 18:10:16 ]
- だからさあ
BPFの係数と b0 = alpha b1 = 0 b2 = -alpha a0 = 1 + alpha a1 = -2*cos(w0) a2 = 1 - alpha >>441 を比べてごらん 構造の違いは b1がゼロかどうかだろ? BPFと元信号1遅延したのと重みを調整して加算したら区別付かないんだって
- 462 名前:デフォルトの名無しさん mailto:sage [2008/02/14(木) 02:43:28 ]
- >>453
なんだ、それか。妙な略し方だなぁ……。 >>462 よく分かってないんだけど、 >>441でA=1として b0 = 1 + alpha b1 = -2*cos(w0) b2 = 1 - alpha a0 = 1 + alpha a1 = -2*cos(w0) a2 = 1 - alpha a系列は共通だから分母は無視するとして、 441のH(z)の分子 = 1 + alpha - 2*cos(w0)*z^-1 + (1 - alpha)*z^-2 462のH(z)の分子 = alpha - alpha * z^-2 分子部分の違いは 1 - 2*cos(w0)*z^-1 + z^-2 これが > BPFと元信号1遅延したのと重みを調整して加算 でどう区別つかなくなるのか知りたい……。
- 463 名前:デフォルトの名無しさん mailto:sage [2008/02/17(日) 19:29:47 ]
- A=1の時
BPF/alpha *(1+alpha) + -2*cos(w0)*z^-1 とすれば一致するようだね
- 464 名前:デフォルトの名無しさん mailto:sage [2008/02/19(火) 10:20:39 ]
- 他スレから誘導されてきました
if文で、if (音を感知したら) do ○○ っていう感じのプログラムを考えているのですが その音を感知する部分で何か有効的な物ありますか? (音はその時しか扱いません)
- 465 名前:デフォルトの名無しさん mailto:sage [2008/02/19(火) 12:17:53 ]
- リアルタイム処理なら常に音量のゲインを見張って、
それが閾値に達したら別スレッドでdo○○に相当する関数を実行させるとか。
- 466 名前:デフォルトの名無しさん mailto:sage [2008/02/19(火) 13:14:40 ]
- >>464
環境は? そして、その入力元は何? たとえばwindowsでマイク入力なのか、スピーカー出力なのか
- 467 名前:デフォルトの名無しさん mailto:sage [2008/02/19(火) 20:05:30 ]
- >>465-466
ありがとう windowsのマイク 何がしたいかっていうと 音を感知したら(どんな小さな音でもいいんだけど)、 HDDに録画をするっていうプログラムを作りたいんです。 だからゲインまでは必要ないかなとは思っています。
- 468 名前:デフォルトの名無しさん mailto:sage [2008/02/19(火) 20:05:52 ]
- 連続ごめん
マイク入力のこと↑
- 469 名前:デフォルトの名無しさん mailto:sage [2008/02/19(火) 20:34:24 ]
- どんな小さな音でもっていうけど
録音状態でマイクからの入力が0フラットのまま安定することってなかなか無い気がするけど。 ゲインを監視しなかったら録画しっぱなしになるな。 ていうかひょっとして、聞きたいのは録音するためのAPIとか、そんな程度じゃねぇの?
- 470 名前:デフォルトの名無しさん mailto:sage [2008/02/19(火) 21:06:25 ]
- あ、そっかそうだよね... まぁとりあえず、ゲインは後で考えます
そう、APIとかの事でした、質問が明確じゃなくてごめん。 何か良いのないかなと思って C++を考えてるけど
- 471 名前:デフォルトの名無しさん mailto:sage [2008/02/19(火) 22:38:08 ]
- トリガの音にもよるんじゃね?
チャイムとか時報みたいな単音かつ短い物ならFFTなりで周波数成分見て判別出来そうだけど、 比較的長めのジングルみたいなのはどこまで一致したらトリガ音と認識させるのかとか、 マイクからの入力だとちょっとした事で入力状態も変わってくると思うんだよなぁ。
- 472 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 00:02:27 ]
- ちょっと話はズレるんだけど、プログラムを走らせるパソコン外部の装置からのデータ入力の際に
ノイズが完全に入らないデジタルな接続ふyふyふゆいおjhy「
- 473 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 00:34:41 ]
- ふじこ!
- 474 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 04:25:26 ]
- >>467
物音がしたら一定時間録画、防犯システムみたいなもんか。 スレ一通り見た?Winでのマイク入力については >>16 以降とか、 >>420 以降あたりが参考になりそう。 当然、環境音やアナログ回路由来のノイズとかあるから、静かだったら入力0ってことはない。 ある値を超えたら、って具合に感度(スレッショルド)は設ける必要ありますよ。 それから常に空調が入っているような部屋の場合は、 ハイパスフィルタなどを使って検出に不要な帯域をできるだけカットする必要があるかもね。
- 475 名前:デフォルトの名無しさん [2008/02/20(水) 05:07:39 ]
- 質問なのですが、ここらへんの技術で食べていくにはどうしたら良いのでしょう、
この中でプロで音響関連のプログラマーをやってる方っていますか? やはりゲーム業界や計測器系の会社が多いんでしょうか? DAWの開発会社に勤めている方とかいましたら、ぜひ職場の雰囲気など教えてほしいです。 職場での立ち位置なんかも気になります。 やっぱりマニアックな分野の分だけ、発言権は低いのでしょうか。 大学での専攻分野が音響/信号処理関連でないと難しいとかやっぱりあるのでしょうか。
- 476 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 06:01:23 ]
- 発言権てw
- 477 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 10:06:59 ]
- 国産DAWやシーケンサーは、プログラマ1人で作ってるものがほとんど(過去のものも含む)。
1人の作業に雰囲気もなにもない。
- 478 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 10:59:44 ]
- 職場の雰囲気なんて社風によったり、部署毎に違ったり、面白いやつが一人いるだけで変わるもんだから聞くだけ無駄。
ゲーム業界におけるサウンドの地位は基本的に底辺。 サウンド専用のメモリをメイン側で使われたって話も聞いたことがある程。 唯一コナミだけはサウンドの発言権が強いってんで有名だったけど、それも10年くらい昔に聞いた話だし現状どうなってるかは知らない。 組み込み系やサウンドツールはボチボチ仕事転がってるから需要あるかもしんない。 ってかマ板向けの内容だなw
- 479 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 12:18:01 ]
- Q ここらへんの技術で食べていくには
A 自分を差別化出来るだけの技術を付けるしかない 音しか出来ないのでは駄目。 色んな事が出来た上で音も出来るのでなければならない。 算数や工業数学には強くないといけないね
- 480 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 13:02:34 ]
- 算数は機械がやってくれるので問題ないだろ。
数学をやれ。
- 481 名前:デフォルトの名無しさん [2008/02/20(水) 20:14:33 ]
- スタインバーグとか開発が海外でしかも音響専門のソフトウェア会社ならどうなのか気になる。
みんな楽しそうにやってるのか、デスマーチで死んでるのか。
- 482 名前:デフォルトの名無しさん mailto:sage [2008/02/20(水) 22:06:48 ]
- >>479
技術よりネタだろうな、なんつーかもう何もかもやり尽された分野だし FM音源が流行っていた時代、ソフトで音を作っていた時代が懐かしい。 今やるとするなら初音ミクみたいな奴とか あえて技術で攻めるなら、このデータは効き難い事で有名といところで、圧縮、だがこれももう限界に近い。 他には音声認識もまだやれる事が多いかな、これは出力ではなくて入力なのでこのスレとはちょっと違う雰囲気か。
- 483 名前:デフォルトの名無しさん mailto:sage [2008/02/21(木) 02:07:34 ]
- たしかに雰囲気は違うか
でも語らうとしたらこのスレくらいしかって気もするな
- 484 名前:デフォルトの名無しさん mailto:sage [2008/02/21(木) 02:23:11 ]
- Visual C++ 6
SDKにて開発をしています. こちらをコピーして,マイクから録音したものをwav形式で保存しています. ttp://www7a.biglobe.ne.jp/~lshen/EternalWindows/Sound/WAVE/WAVE11.html 処理の流れを見ると, waveInOpen waveInPrepareHeader waveInAddBuffer waveInStart >録音中 waveInStop waveInReset waveInUnprepareHeader waveInClose で,最後にSaveWave関数内で wav ファイルに落としています. ここで,信号を wav に落とさずに信号処理を行いたいのです. おそらく wh.lpData 内にデータが書かれていると思うのですが, サンプリング周波数(例では8kHz)によってデータを配列に並べる処理等が分かりません. 具体的には,録音をしたデータをフーリエ変換し,そこから別の処理へと繋げるつもりです. ご教授願います.
- 485 名前:デフォルトの名無しさん mailto:sage [2008/02/21(木) 03:20:36 ]
- >484
>474
- 486 名前:デフォルトの名無しさん mailto:sage [2008/02/21(木) 08:37:57 ]
- >>484
wf.nChannels = 1; wf.wFormatTag = WAVE_FORMAT_PCM; wf.wBitsPerSample = 8; wf.nBlockAlign = wf.nChannels * wf.wBitsPerSample / 8; wf.nSamplesPerSec = 22050; wh.lpData に モノラル 8bit 22.05KHzの配列として入力されている FFTするなら、 wf.wBitsPerSample = 16; として 16bit 符号付の配列として wh.lpData を扱えばいい。 連続して処理するなら、 waveInPrepareHeader を2つ以上確保しておいて、MM_WIM_DATAメッセージを貰う都度、バッファを使いまわす事だ
- 487 名前:484 mailto:sage [2008/02/21(木) 13:28:25 ]
- >>485
もちろん目を通しましたが,わかりませんでした. >>486 ありがとうございます.8kHzではなく22.05kHzでした. おそらく wh.lpData 内はバイナリで書かれていると思います. バイナリファイルから数値を読み込むのは fopen( hoge, "rb") を利用すれば良いのですが, バイナリとして書かれているものをアスキーの配列に入れなおすには どうしたら良いのでしょうか? 調べる中で以下のサイトに辿り着きましたが, こちらも fopen による処理でした ttp://oku.edu.mie-u.ac.jp/~okumura/wavefmt.html よろしくお願いします.
- 488 名前:デフォルトの名無しさん mailto:sage [2008/02/21(木) 13:47:13 ]
- チョットまだ基本的なC言語の考え方がわかってないようだ。
もう少しC言語の作法がわかる段階でないと説明する方も辛いんで勉強してくれ。 wf.wBitsPerSample = 8; だから wh.lpData にはバイト列で入ってる 符号なし8bitだから unsigned char *p= (unsigned char *)wh.lpData; とやれば for 文で (p[i]-0x80 ) とでも ( *p++ - 0x80 ) とでも 処理出来る。 wf.wBitsPerSample = 16; にしてやれば 16bit 符号付になる 同じように16bit幅の符号付ポインタに代入すればいい。
- 489 名前:デフォルトの名無しさん mailto:sage [2008/02/21(木) 14:00:14 ]
- >>488
不勉強な中,質問させていただいて申し訳ありません. ご丁寧なレス,感謝致します.頑張ります.
- 490 名前:デフォルトの名無しさん mailto:sage [2008/02/21(木) 14:26:16 ]
- >>487
サウンドプログラム以前の話じゃん。 スレ違いだよ。
- 491 名前:デフォルトの名無しさん [2008/02/25(月) 22:35:24 ]
- Windows上で、waveOutGetDevCaps()やwaveInGetDevCaps()で取得したデバイスの、
さらに詳細な情報を得るにはどうしたら良いでしょうか?そのデバイスがUSBオーディオ デバイスであるかどうかや、USBデバイスの場合はPIDやVID等を取得できるとうれしい んですが。 Setup APIと組み合わせればどうにかなるかなと思ったんですが、Setup APIで取得できる 情報と、waveOutGetDevCaps()/waveInGetDevCaps()で取得できる名前とのマッチング がとれないんですよね。WAVE APIだと、"(2)"とか"スピーカー"とか勝手についたりするし。 何か良いアイディアは無いでしょうか?
- 492 名前:デフォルトの名無しさん mailto:sage [2008/02/26(火) 11:25:01 ]
- HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\Class\{4D36E96C-E325-11CE-BFC1-08002BE10318}
を見るくらいかなあ・・・
- 493 名前:デフォルトの名無しさん mailto:sage [2008/02/28(木) 20:52:43 ]
- 質問です。
Q1. 信号を、ハミング窓をかけて50%オーバーラップしながらFFTして、 そのまま、逆FFTして、Overlap and Add した場合、信号が完全に 再現されるのでしょうか? Q2. 信号を、sine窓かけて50%オーバーラップしてMDCTして、 そのまま逆MDCTして、再度sine窓かけて、オーバーラップすると 信号は完全に再現されるのでしょうか?
- 494 名前:デフォルトの名無しさん mailto:sage [2008/02/28(木) 21:07:26 ]
- 理論上どうだったかは忘れたけど、
少なくとも窓関数が 0 近い辺りでは誤差が大きくて、 完全な再現ってのは無理。
- 495 名前:デフォルトの名無しさん mailto:sage [2008/02/29(金) 08:13:37 ]
- FFT->逆FFTで完全に元に戻っているのだから、
窓関数がオーバーラップ処理でフラットになるかどうかの問題。 フラットになる窓関数は 180度の位相差のものと足して1になる必要がある。 ハニング/ハミング窓は A-(1-A)*cos(2πT/L)で 180度ズレると A+(1-A)cos(2πT/L) で加算すると2A だから、ハニング窓は完全に戻るし、ハミング窓は 0.54*2 のゲインが残るだけ サイン窓は 180度のズレは窓関数上は90度のズレになるので、 加算してもsin関数が残る。 そのサイズでモジュレーションした信号になってしまう FFT->加工->逆FFTとした場合は、一般的には完全には接続しない。 MP3なんかはうまく誤魔化してるけどね。 単純に考えても、音程のある成分は位相を合わす事が出来るけど でも位相を合わせると、ノイズは位相が合わせられないのだから 1/√2になる
- 496 名前:デフォルトの名無しさん mailto:sage [2008/03/08(土) 16:41:59 ]
- >>495
詳しい説明ありがとうございました。 MP3は、なぜハミング窓を使わなかったのだろう、と思いまして。 sine窓の必然性が理解できてないのです。。。
- 497 名前:デフォルトの名無しさん mailto:sage [2008/03/08(土) 17:08:38 ]
- >>496
周波数領域での加工を前提とすると、 FFT前に窓がけしないと、周波数領域の信号レベルの確度が悪くなる 逆FFT後に窓がけしないと、時間領域で接続性が悪い 上の理由から実務上2度窓がけする必要があって、かつ、2度の窓がけ後の結果の オーバーラップが元信号に戻らないといけない。でも、han窓は1回の窓がけの 結果のオーバーラップで元に戻るように設計されてるから適さない。 で、上の条件を満たすsin窓とかVorbis窓が使われる。
- 498 名前:デフォルトの名無しさん mailto:sage [2008/03/08(土) 20:45:14 ]
- なるほど、頭いいなー
- 499 名前:デフォルトの名無しさん [2008/03/15(土) 16:21:05 ]
- すみません、質問なんですが
サウンドプログラミングに関する本で、 picか何かでのサウンドドライバの作り方とか 一連のサウンドプログラミングが説明してある組込みの書籍か雑誌が発売されてたみたいなんですが、 本のタイトルがわからなくなって探すことができません。 それっぽいキーワードでググっても出てきません。 目次を眺めただけなので、具体的な内容は違うかもしれないのですが。。。 どなたか、上記の本のことをご存じないでしょうか?
- 500 名前:デフォルトの名無しさん mailto:sage [2008/03/15(土) 18:34:48 ]
- picってMicrochip社のPIC?
- 501 名前:499 [2008/03/15(土) 23:37:51 ]
- >>500
ごめんなさい、picかどうかも怪しいです。 僕はMicrochip社のPICのつもりで書きましたが、 そもそもpicじゃないかもしれないです。 質問内容が曖昧過ぎますよね。。。 今になって>>499の本にすごく興味が出てきてしまって。
- 502 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 08:27:07 ]
- PICだとすれば DsPIC だろうけど
- 503 名前:デフォルトの名無しさん mailto:sage [2008/03/16(日) 08:32:06 ]
- 検索したけど、コレくらいしかみつからなかった
gihyo.jp/book/2006/4-7741-2863-5
- 504 名前:デフォルトの名無しさん mailto:sage [2008/03/17(月) 23:38:52 ]
- すげえなこれ
ttp://slashdot.jp/it/08/03/16/222221.shtml
- 505 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 00:01:38 ]
- ソレ、おれもおどろいたわ
どういう仕組みなのかなあ
- 506 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 00:45:39 ]
- 基音を分解したあと上音を再構成してるんだろうけど
どの上音をどの基音に結びつけるかってのは、 あらかじめ楽器音を抽象化したサンプルのカタログから検索してるんじゃないかなぁ
- 507 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 05:47:11 ]
- すげえなこれ
sho1.jp/sho1/movie.swf
- 508 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 10:07:14 ]
- >>506
それだと人の声とか、音の響き方が変わったときは無理じゃね? 解析中に倍音成分の偏りのテーブル作ってるんじゃないかなぁ。 試算は元波形から減算して0になればいいわけだから、その辺からも補完情報得られそうだ。 おかしなエフェクトかけた音とか食わしてみたい。 >>507 ナニガ? サウンドプログラム的には初歩の初歩だろ。
- 509 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 19:54:37 ]
- 位相を和音を基準に解析して、各周波数ごとにピッチ、スピード、再生タイミング等を調整できるようにしただけじゃね。
和音に分解するのにものすごい時間かかりそうだ。どちらかというとアイディアよりも速い速度を出したという努力の方が凄い。
- 510 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 23:43:22 ]
- >>509
短絡的に考え過ぎじゃまいか。 速度無視すりゃキミ作れる?
- 511 名前:デフォルトの名無しさん mailto:sage [2008/03/18(火) 23:51:51 ]
- まあ、そういうこと言い出すと、情報系の研究の結構な割合が、
真新しい技術を作ることじゃなくて、既存技術を低演算量で実現ってノリよ。
- 512 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 00:17:18 ]
- どうせ解析がDWT、再生が可変速再生でしょ。
例えばV-Vocalとどう違うのか分からん。 新しい技術ってのは多くがまず理論の領域だからね 実践が重要な情報工学の分野は、どう実現するか、とかが重要になる。
- 513 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 10:05:39 ]
- >>512
アホか? どの周波数の音がどの音の倍音かってのを分解できなきゃいけないんだからV-Vocalとは全然違う。 音源分離の基礎から勉強しなおせ、このタコ。
- 514 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 14:34:45 ]
- >>513
さすがにサンプル全く聴かないで想像で書くとバレるかwww ある意味安心した サンプル聴いてみたが、全サンプル単音色なのね これだったら、全体の倍音構成がある一つの倍音構成の重み付き和になるから アタック検出とあわせて認識するのは可能かなー 専門が音声ですら無いから 最先端とか知らんけど
- 515 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 15:35:05 ]
- おまえ耳悪いんだな
- 516 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 18:05:43 ]
- >514
www.sonicstate.com/news/shownews.cfm?newsid=6281 これ見て凄さが理解出来ないなら黙って消えてくれ。
- 517 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 19:44:08 ]
- やってることがすごいとかすごくないとかはよくわからないんだけど、
動画の中で音をばらす最初のシーンはかなり興奮したw
- 518 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 20:14:00 ]
- 一から楽器を演奏して曲の音源を得るコストと、そのソフトを購入して既存の少ない音源から
元の音源が分からない程にまでリミックスして曲の音源を得るコストのどちらが高いか。 勿論後者の場合はもともとの音源が第三者には追跡不可能だし人格権を主張できないほど弄ってるから著作権料なんて発生しない。
- 519 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 20:21:14 ]
- 論点変えて楽しいか?
- 520 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 20:35:08 ]
- 一つのどうでもいいレスに対して話の流れから脱線しているように思うなら、無視すればいいだけのこと。
- 521 名前:デフォルトの名無しさん mailto:sage [2008/03/19(水) 20:53:43 ]
- つうか板違いだろ
- 522 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 02:34:17 ]
- >>516
黙って消えろは酷いなw さて、その動画今観てみたけど、やっぱり同種の楽器のサンプルしか無いね 一つだけギターとトランペットのサンプルがあるけど、音の小さいギターの方の認識は弱くなってる 支配的な倍音構成にフォーカスしてるのかな
- 523 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 05:03:48 ]
- >>516はアルペジオ的なサンプルばかりなのもあーやーしーいw
けど、こっちにはギターのカッティングを分解してるビデオがある www.celemony.com/cms/index.php?id=dna
- 524 名前:デフォルトの名無しさん mailto:sage [2008/03/20(木) 14:09:51 ]
- >>523
お、やっと話せる人が来た 嬉しい 同時発音へのアプローチはどうなんだろうね。 そっちの動画は最初に観て、その感想が>>514なんだけど、うーん。 あるいは、同時発音といえどもms単位のアタック時刻ずれがあるからそれを検出して……とかなのかなぁ。 ただ低域になると時間精度が悪くなるから、そこまでの精度がでるのかどうか。 完全に同時発音のソースとか、BBE通したソースとかでどうなるか、とか興味あるなぁ >>516の動画でも、リバーブがきついと怪しいとか、2パートのピッチがクロスすると怪しいとか おっちゃんも言ってるし。 って長文ごめん
- 525 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 10:05:41 ]
- >>524
前も書いたが、音源分離の基礎から勉強しろ。 「音源分離」でググれば、この分野の基礎技術がやまほどでてくるから。
- 526 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 12:09:03 ]
- >>525
あぁ、>>513で書いてるのか ただの脊髄レスだと思って切ってたわ 音源分離ね。みてみる
- 527 名前:523 mailto:sage [2008/03/21(金) 12:35:50 ]
- 君自身が「話せない人」だと思うよーw
- 528 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 12:50:27 ]
- >>526
無知だってことを指摘されても、自分は悪くない、と放置するからいつまでたってもバカのままなんだよ。 はっきり言って、あんたの知識レベルは非常に低い。おそらく別な場所でもさんざん叩かれてるだろ? それは人間性に問題があるからだぞ。
- 529 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 14:13:53 ]
- これは酷いw
>526 なんか自身満々そうだし、試しに単音でもいいから分離アプリ作ってくれよ 音のアタックとリリース重なる部分の分離だけでも出来ればたいしたもんだと思うよ
- 530 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 14:20:53 ]
- >>524
専門外だと自覚してるならしゃしゃり出てくんなよ。 あんまり的外れなことばかり書くから、スレが妙な盛り上がりをしてるじゃねーか。
- 531 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 18:47:35 ]
- C(ド)の音色データを加工してDEFGAB〜の音を作ることはできますか?
- 532 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 20:51:15 ]
- >>529
単音のサンプル投下希望 自前サンプルだとまた叩かれそうだから
- 533 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 21:00:01 ]
- >>531
できますよ
- 534 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 21:06:21 ]
- >>531
つ ピッチシフト あとはフォルマント辺りを加えて調べてみるといいかも。 >>532 お前は頭大丈夫か? これ以上叩かれる前に消えた方がいいぞ。
- 535 名前:デフォルトの名無しさん mailto:sage [2008/03/21(金) 23:26:22 ]
- >>533-534
ありがとうございます。
- 536 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 03:18:19 ]
- >>531
出来るけど 音に深みが無くなる
- 537 名前:デフォルトの名無しさん [2008/03/22(土) 03:25:55 ]
- なんか久しぶりに湧いてんな。
ただでさえこのスレの住人はネタに困ってるんだからあんま煽るなよ532。 しかしDirectNoteAccessすげえええええええええええええええええええ。 あまりに感動したのでYoutubeのほうもはっとこ。 jp.youtube.com/watch?v=Pe0nxkE28_4
- 538 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 10:05:53 ]
- 素人なので何がすごいのかわかりません
- 539 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 10:34:14 ]
- >>538
カクテルを材料毎に分離して比率を変えたりして再合成するようなもの
- 540 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 10:37:10 ]
- それは素晴らしい
こう、チャレンジスピリッツが刺激される試みですね
- 541 名前:デフォルトの名無しさん mailto:sage [2008/03/22(土) 10:38:08 ]
- そのうちリバースエンジニアリングが犯罪にされそうだな
- 542 名前:デフォルトの名無しさん mailto:sage [2008/03/24(月) 09:59:47 ]
- マルチトラックな内部データを持つ同機能に見えるだけのfakeなら簡単に作れからなぁ
現物を調べないと投資を引き出すためだけの偽デモの可能性を否定できない
- 543 名前:デフォルトの名無しさん mailto:sage [2008/03/24(月) 11:11:47 ]
- >>542
ねーよw 多少は都合のいいデータをデモに使ってるだろうけど
- 544 名前:デフォルトの名無しさん mailto:sage [2008/03/24(月) 11:56:45 ]
- アタックが弱い楽器はトランスポーズできないのかな
- 545 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 23:20:04 ]
- すみません。
ピッチシフトはFFTをしないと実現できないのでしょうか?
- 546 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 23:22:02 ]
- IIRならなんでも
- 547 名前:デフォルトの名無しさん mailto:sage [2008/03/25(火) 23:58:57 ]
- IIR調べましたが理解できませんでした。
単純に半音分の1.05946を時間にかけて伸ばしたり縮めたりするのは駄目ですか?
- 548 名前:デフォルトの名無しさん mailto:sage [2008/03/26(水) 00:04:19 ]
- >>545
まず、一定間隔でサンプルを間引き/補間して (音程も再生速度も変わる)、 その後、フレームに区切って、フレームをオーバーラップさせたり重複させたりで 再生時間を調整。
|

|