サウンドプログラミン ..
487:484
08/02/21 13:28:25
>>485
もちろん目を通しましたが,わかりませんでした.
>>486
ありがとうございます.8kHzではなく22.05kHzでした.
おそらく wh.lpData 内はバイナリで書かれていると思います.
バイナリファイルから数値を読み込むのは fopen( hoge, "rb") を利用すれば良いのですが,
バイナリとして書かれているものをアスキーの配列に入れなおすには
どうしたら良いのでしょうか?
調べる中で以下のサイトに辿り着きましたが,
こちらも fopen による処理でした
URLリンク(oku.edu.mie-u.ac.jp)
よろしくお願いします.
488:デフォルトの名無しさん
08/02/21 13:47:13
チョットまだ基本的なC言語の考え方がわかってないようだ。
もう少しC言語の作法がわかる段階でないと説明する方も辛いんで勉強してくれ。
wf.wBitsPerSample = 8; だから
wh.lpData にはバイト列で入ってる 符号なし8bitだから
unsigned char *p= (unsigned char *)wh.lpData;
とやれば for 文で (p[i]-0x80 ) とでも ( *p++ - 0x80 ) とでも 処理出来る。
wf.wBitsPerSample = 16; にしてやれば 16bit 符号付になる
同じように16bit幅の符号付ポインタに代入すればいい。
489:デフォルトの名無しさん
08/02/21 14:00:14
>>488
不勉強な中,質問させていただいて申し訳ありません.
ご丁寧なレス,感謝致します.頑張ります.
490:デフォルトの名無しさん
08/02/21 14:26:16
>>487
サウンドプログラム以前の話じゃん。
スレ違いだよ。
491:デフォルトの名無しさん
08/02/25 22:35:24
Windows上で、waveOutGetDevCaps()やwaveInGetDevCaps()で取得したデバイスの、
さらに詳細な情報を得るにはどうしたら良いでしょうか?そのデバイスがUSBオーディオ
デバイスであるかどうかや、USBデバイスの場合はPIDやVID等を取得できるとうれしい
んですが。
Setup APIと組み合わせればどうにかなるかなと思ったんですが、Setup APIで取得できる
情報と、waveOutGetDevCaps()/waveInGetDevCaps()で取得できる名前とのマッチング
がとれないんですよね。WAVE APIだと、"(2)"とか"スピーカー"とか勝手についたりするし。
何か良いアイディアは無いでしょうか?
492:デフォルトの名無しさん
08/02/26 11:25:01
HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\Class\{4D36E96C-E325-11CE-BFC1-08002BE10318}
を見るくらいかなあ・・・
493:デフォルトの名無しさん
08/02/28 20:52:43
質問です。
Q1.
信号を、ハミング窓をかけて50%オーバーラップしながらFFTして、
そのまま、逆FFTして、Overlap and Add した場合、信号が完全に
再現されるのでしょうか?
Q2.
信号を、sine窓かけて50%オーバーラップしてMDCTして、
そのまま逆MDCTして、再度sine窓かけて、オーバーラップすると
信号は完全に再現されるのでしょうか?
494:デフォルトの名無しさん
08/02/28 21:07:26
理論上どうだったかは忘れたけど、
少なくとも窓関数が 0 近い辺りでは誤差が大きくて、
完全な再現ってのは無理。
495:デフォルトの名無しさん
08/02/29 08:13:37
FFT->逆FFTで完全に元に戻っているのだから、
窓関数がオーバーラップ処理でフラットになるかどうかの問題。
フラットになる窓関数は 180度の位相差のものと足して1になる必要がある。
ハニング/ハミング窓は
A-(1-A)*cos(2πT/L)で 180度ズレると A+(1-A)cos(2πT/L) で加算すると2A
だから、ハニング窓は完全に戻るし、ハミング窓は 0.54*2 のゲインが残るだけ
サイン窓は 180度のズレは窓関数上は90度のズレになるので、
加算してもsin関数が残る。 そのサイズでモジュレーションした信号になってしまう
FFT->加工->逆FFTとした場合は、一般的には完全には接続しない。
MP3なんかはうまく誤魔化してるけどね。
単純に考えても、音程のある成分は位相を合わす事が出来るけど
でも位相を合わせると、ノイズは位相が合わせられないのだから 1/√2になる
496:デフォルトの名無しさん
08/03/08 16:41:59
>>495
詳しい説明ありがとうございました。
MP3は、なぜハミング窓を使わなかったのだろう、と思いまして。
sine窓の必然性が理解できてないのです。。。
497:デフォルトの名無しさん
08/03/08 17:08:38
>>496
周波数領域での加工を前提とすると、
FFT前に窓がけしないと、周波数領域の信号レベルの確度が悪くなる
逆FFT後に窓がけしないと、時間領域で接続性が悪い
上の理由から実務上2度窓がけする必要があって、かつ、2度の窓がけ後の結果の
オーバーラップが元信号に戻らないといけない。でも、han窓は1回の窓がけの
結果のオーバーラップで元に戻るように設計されてるから適さない。
で、上の条件を満たすsin窓とかVorbis窓が使われる。
498:デフォルトの名無しさん
08/03/08 20:45:14
なるほど、頭いいなー
499:デフォルトの名無しさん
08/03/15 16:21:05
すみません、質問なんですが
サウンドプログラミングに関する本で、
picか何かでのサウンドドライバの作り方とか
一連のサウンドプログラミングが説明してある組込みの書籍か雑誌が発売されてたみたいなんですが、
本のタイトルがわからなくなって探すことができません。
それっぽいキーワードでググっても出てきません。
目次を眺めただけなので、具体的な内容は違うかもしれないのですが。。。
どなたか、上記の本のことをご存じないでしょうか?
500:デフォルトの名無しさん
08/03/15 18:34:48
picってMicrochip社のPIC?
501:499
08/03/15 23:37:51
>>500
ごめんなさい、picかどうかも怪しいです。
僕はMicrochip社のPICのつもりで書きましたが、
そもそもpicじゃないかもしれないです。
質問内容が曖昧過ぎますよね。。。
今になって>>499の本にすごく興味が出てきてしまって。
502:デフォルトの名無しさん
08/03/16 08:27:07
PICだとすれば DsPIC だろうけど
503:デフォルトの名無しさん
08/03/16 08:32:06
検索したけど、コレくらいしかみつからなかった
URLリンク(gihyo.jp)
504:デフォルトの名無しさん
08/03/17 23:38:52
すげえなこれ
URLリンク(slashdot.jp)
505:デフォルトの名無しさん
08/03/18 00:01:38
ソレ、おれもおどろいたわ
どういう仕組みなのかなあ
506:デフォルトの名無しさん
08/03/18 00:45:39
基音を分解したあと上音を再構成してるんだろうけど
どの上音をどの基音に結びつけるかってのは、
あらかじめ楽器音を抽象化したサンプルのカタログから検索してるんじゃないかなぁ
507:デフォルトの名無しさん
08/03/18 05:47:11
すげえなこれ
URLリンク(sho1.jp)
508:デフォルトの名無しさん
08/03/18 10:07:14
>>506
それだと人の声とか、音の響き方が変わったときは無理じゃね?
解析中に倍音成分の偏りのテーブル作ってるんじゃないかなぁ。
試算は元波形から減算して0になればいいわけだから、その辺からも補完情報得られそうだ。
おかしなエフェクトかけた音とか食わしてみたい。
>>507
ナニガ?
サウンドプログラム的には初歩の初歩だろ。
509:デフォルトの名無しさん
08/03/18 19:54:37
位相を和音を基準に解析して、各周波数ごとにピッチ、スピード、再生タイミング等を調整できるようにしただけじゃね。
和音に分解するのにものすごい時間かかりそうだ。どちらかというとアイディアよりも速い速度を出したという努力の方が凄い。
510:デフォルトの名無しさん
08/03/18 23:43:22
>>509
短絡的に考え過ぎじゃまいか。
速度無視すりゃキミ作れる?
511:デフォルトの名無しさん
08/03/18 23:51:51
まあ、そういうこと言い出すと、情報系の研究の結構な割合が、
真新しい技術を作ることじゃなくて、既存技術を低演算量で実現ってノリよ。
512:デフォルトの名無しさん
08/03/19 00:17:18
どうせ解析がDWT、再生が可変速再生でしょ。
例えばV-Vocalとどう違うのか分からん。
新しい技術ってのは多くがまず理論の領域だからね
実践が重要な情報工学の分野は、どう実現するか、とかが重要になる。
513:デフォルトの名無しさん
08/03/19 10:05:39
>>512
アホか? どの周波数の音がどの音の倍音かってのを分解できなきゃいけないんだからV-Vocalとは全然違う。
音源分離の基礎から勉強しなおせ、このタコ。
514:デフォルトの名無しさん
08/03/19 14:34:45
>>513
さすがにサンプル全く聴かないで想像で書くとバレるかwww
ある意味安心した
サンプル聴いてみたが、全サンプル単音色なのね
これだったら、全体の倍音構成がある一つの倍音構成の重み付き和になるから
アタック検出とあわせて認識するのは可能かなー 専門が音声ですら無いから
最先端とか知らんけど
515:デフォルトの名無しさん
08/03/19 15:35:05
おまえ耳悪いんだな
516:デフォルトの名無しさん
08/03/19 18:05:43
>514
URLリンク(www.sonicstate.com)
これ見て凄さが理解出来ないなら黙って消えてくれ。
517:デフォルトの名無しさん
08/03/19 19:44:08
やってることがすごいとかすごくないとかはよくわからないんだけど、
動画の中で音をばらす最初のシーンはかなり興奮したw
518:デフォルトの名無しさん
08/03/19 20:14:00
一から楽器を演奏して曲の音源を得るコストと、そのソフトを購入して既存の少ない音源から
元の音源が分からない程にまでリミックスして曲の音源を得るコストのどちらが高いか。
勿論後者の場合はもともとの音源が第三者には追跡不可能だし人格権を主張できないほど弄ってるから著作権料なんて発生しない。
519:デフォルトの名無しさん
08/03/19 20:21:14
論点変えて楽しいか?
520:デフォルトの名無しさん
08/03/19 20:35:08
一つのどうでもいいレスに対して話の流れから脱線しているように思うなら、無視すればいいだけのこと。
521:デフォルトの名無しさん
08/03/19 20:53:43
つうか板違いだろ
522:デフォルトの名無しさん
08/03/20 02:34:17
>>516
黙って消えろは酷いなw
さて、その動画今観てみたけど、やっぱり同種の楽器のサンプルしか無いね
一つだけギターとトランペットのサンプルがあるけど、音の小さいギターの方の認識は弱くなってる
支配的な倍音構成にフォーカスしてるのかな
523:デフォルトの名無しさん
08/03/20 05:03:48
>>516はアルペジオ的なサンプルばかりなのもあーやーしーいw
けど、こっちにはギターのカッティングを分解してるビデオがある
URLリンク(www.celemony.com)
524:デフォルトの名無しさん
08/03/20 14:09:51
>>523
お、やっと話せる人が来た 嬉しい
同時発音へのアプローチはどうなんだろうね。
そっちの動画は最初に観て、その感想が>>514なんだけど、うーん。
あるいは、同時発音といえどもms単位のアタック時刻ずれがあるからそれを検出して……とかなのかなぁ。
ただ低域になると時間精度が悪くなるから、そこまでの精度がでるのかどうか。
完全に同時発音のソースとか、BBE通したソースとかでどうなるか、とか興味あるなぁ
>>516の動画でも、リバーブがきついと怪しいとか、2パートのピッチがクロスすると怪しいとか
おっちゃんも言ってるし。
って長文ごめん
525:デフォルトの名無しさん
08/03/21 10:05:41
>>524
前も書いたが、音源分離の基礎から勉強しろ。
「音源分離」でググれば、この分野の基礎技術がやまほどでてくるから。
526:デフォルトの名無しさん
08/03/21 12:09:03
>>525
あぁ、>>513で書いてるのか
ただの脊髄レスだと思って切ってたわ
音源分離ね。みてみる
527:523
08/03/21 12:35:50
君自身が「話せない人」だと思うよーw
528:デフォルトの名無しさん
08/03/21 12:50:27
>>526
無知だってことを指摘されても、自分は悪くない、と放置するからいつまでたってもバカのままなんだよ。
はっきり言って、あんたの知識レベルは非常に低い。おそらく別な場所でもさんざん叩かれてるだろ?
それは人間性に問題があるからだぞ。
529:デフォルトの名無しさん
08/03/21 14:13:53
これは酷いw
>526
なんか自身満々そうだし、試しに単音でもいいから分離アプリ作ってくれよ
音のアタックとリリース重なる部分の分離だけでも出来ればたいしたもんだと思うよ
530:デフォルトの名無しさん
08/03/21 14:20:53
>>524
専門外だと自覚してるならしゃしゃり出てくんなよ。
あんまり的外れなことばかり書くから、スレが妙な盛り上がりをしてるじゃねーか。
531:デフォルトの名無しさん
08/03/21 18:47:35
C(ド)の音色データを加工してDEFGAB〜の音を作ることはできますか?
532:デフォルトの名無しさん
08/03/21 20:51:15
>>529
単音のサンプル投下希望
自前サンプルだとまた叩かれそうだから
533:デフォルトの名無しさん
08/03/21 21:00:01
>>531
できますよ
534:デフォルトの名無しさん
08/03/21 21:06:21
>>531
つ ピッチシフト
あとはフォルマント辺りを加えて調べてみるといいかも。
>>532
お前は頭大丈夫か?
これ以上叩かれる前に消えた方がいいぞ。
535:デフォルトの名無しさん
08/03/21 23:26:22
>>533-534
ありがとうございます。
536:デフォルトの名無しさん
08/03/22 03:18:19
>>531
出来るけど
音に深みが無くなる
537:デフォルトの名無しさん
08/03/22 03:25:55
なんか久しぶりに湧いてんな。
ただでさえこのスレの住人はネタに困ってるんだからあんま煽るなよ532。
しかしDirectNoteAccessすげえええええええええええええええええええ。
あまりに感動したのでYoutubeのほうもはっとこ。
URLリンク(jp.youtube.com)
538:デフォルトの名無しさん
08/03/22 10:05:53
素人なので何がすごいのかわかりません
539:デフォルトの名無しさん
08/03/22 10:34:14
>>538
カクテルを材料毎に分離して比率を変えたりして再合成するようなもの
540:デフォルトの名無しさん
08/03/22 10:37:10
それは素晴らしい
こう、チャレンジスピリッツが刺激される試みですね
541:デフォルトの名無しさん
08/03/22 10:38:08
そのうちリバースエンジニアリングが犯罪にされそうだな
542:デフォルトの名無しさん
08/03/24 09:59:47
マルチトラックな内部データを持つ同機能に見えるだけのfakeなら簡単に作れからなぁ
現物を調べないと投資を引き出すためだけの偽デモの可能性を否定できない
543:デフォルトの名無しさん
08/03/24 11:11:47
>>542
ねーよw
多少は都合のいいデータをデモに使ってるだろうけど
544:デフォルトの名無しさん
08/03/24 11:56:45
アタックが弱い楽器はトランスポーズできないのかな
545:デフォルトの名無しさん
08/03/25 23:20:04
すみません。
ピッチシフトはFFTをしないと実現できないのでしょうか?
546:デフォルトの名無しさん
08/03/25 23:22:02
IIRならなんでも
547:デフォルトの名無しさん
08/03/25 23:58:57
IIR調べましたが理解できませんでした。
単純に半音分の1.05946を時間にかけて伸ばしたり縮めたりするのは駄目ですか?
548:デフォルトの名無しさん
08/03/26 00:04:19
>>545
まず、一定間隔でサンプルを間引き/補間して
(音程も再生速度も変わる)、
その後、フレームに区切って、フレームをオーバーラップさせたり重複させたりで
再生時間を調整。
549:デフォルトの名無しさん
08/03/26 00:22:01
>>548
それならできそうです。
ありがとうございます。
550:デフォルトの名無しさん
08/03/26 00:34:57
>>549
オーバーラップさせるときに、重ね方ちょっと工夫しないとノイズっぽくなるから注意ね。
重なってるところが似たような波形になるように、
相互相関とかとって重ねる位置ずらす。
この方法で、綺麗な周期波形なら結構いい音になる。
551:デフォルトの名無しさん
08/04/14 19:34:53
最近はユーザが日本語化MOD作るからいらないよな
552:デフォルトの名無しさん
08/04/14 19:35:23
誤爆
553:デフォルトの名無しさん
08/04/19 04:13:41
高域を補完するフィルター(KENWOODのSupremeみたいな物)を作ろうと思うのですが
サウンドプログラミングはやったことが無くどのような方向から手を付ければいいか判らない状態です
まずは非リアルタイムで実験してみるつもりですが、ゆくゆくはリアルタイムで処理できるような物を作りたいです
ソースをFFT→FFT結果を元に倍音生成のスペクトラムを生成→逆FFT→ソースと合成みたいな感じになるのでしょうか…?
よろしくお願いします
554:デフォルトの名無しさん
08/04/19 07:48:04
たぶんFFTでは難しいと思うよ。
一般的にブロック・フーリエ変換の場合 周波数軸で加工すると実軸に戻した時に
ブロック同士を接続させるのが難しい。
たとえば原音から高域だけ抽出して その成分を2乗3乗したのを加算するとかどうかな
倍角公式とか3倍角公式で高音を加算出来る事になるよ
555:デフォルトの名無しさん
08/04/21 16:20:21
ピッチや再生速度を変えるにはどうすればよいですか?
サンプルを間引いたりするだけではうまくいきませんでした。
ググってもツールしかヒットしません(><;
556:デフォルトの名無しさん
08/04/21 16:51:58
>>555
>>548
557:デフォルトの名無しさん
08/04/21 16:53:09
あと、C# でよければ、
URLリンク(ufcpp.net)
にピッチシフトのコードある。
558:デフォルトの名無しさん
08/04/22 08:07:18
>>555
このスレの1つ前の過去ログの先頭にある程度詳しく書いてある。
肝心なのは
>再生速度を変更するには、上げるにも下げるにも強力なLPFが必要になる
って所。 これをサボると駄目だね
559:デフォルトの名無しさん
08/04/22 10:21:41
>>555
ディレイを使うのも手。
重複を気にせず、再生速度を変えたのをたくさん並べるだけでもそれっぽくなる。
560:デフォルトの名無しさん
08/04/22 11:48:11
>558
555じゃないけど、サボるとエイリアシングノイズが出るって事?
ピッチ上げるときはLPFかけないとマズそうなのはなんとなく解るんだけど、下げる時もLPFなの?
561:デフォルトの名無しさん
08/04/22 12:17:44
>>560
そう、アンチエイリアシング。
下げるときは、
簡単化のために、再生時間2倍、音程1/2で話すと、
元のサンプルの間に、まず、0を挿入するのね。
元のサンプルが 100, 110, 130 とかだったら、
100, 0, 110, 0, 130, 0 にする。
この状態をフーリエ変換すると、
元の周波数特性の高周波にエイリアスノイズが乗った状態になってるから、
それを LPF かけて取る。
562:デフォルトの名無しさん
08/04/22 18:45:52
0を挿入する意図が分からん。
100,100, 110,110, 130,130 じゃダメなのん。
563:デフォルトの名無しさん
08/04/22 19:10:34
>>562
それは0を挿入してから低品質な2タップFIR LPFをかけたのと同じことじゃん。
>>558>>561が言いたいのは、そのLPFをもっと強力なやつにしないと駄目よってことでしょ。
564:デフォルトの名無しさん
08/04/22 19:21:45
そうだね。 1+1/z っていうFIRフィルタの特性と同じで遮断特性は殆ど無いも同じ。
半音単位だと16:15とか16:17とかの比になるんで、
理論的には0を16個つめてFIRフィルタを通す事になるけど、
実際は0をつめる部分は掛け算しなくていいんで
565:デフォルトの名無しさん
08/04/22 23:18:36
>>562
もちろん、実際には内挿補間とかするんだけどな。
フーリエ変換の定義式に、0を挿入した奴を食わすと、理論式が綺麗なんだわ。
566:デフォルトの名無しさん
08/04/23 00:43:46
CUDA使ってる人っている?
並列処理がどれくらい速くなるんだろう。
567:sage
08/04/23 02:40:36
DCTベースでピッチシフトって(理論的に)出来ないんでしょうか?
32kHzでサンプリングした音を2048点のDCT(DCT-typeII)して、3半音分ずらして
(1720点分のデータを2048点に補完)IDCT(DCT-typeIII)してみたら、なんか
元の2048サンプルが1720サンプルの波形に変換(残りは0近辺)されたような感じ
っぽくなった(つまり単なる早回し?)んですけど…
DCTでやってるのは、FFTは使ったことあるけどDCTはなかったから。あと、実数
なので楽かと思って。だた、変換結果をみると、位相成分も混ざってか(?)
かえって扱いにくいようにも思えてきたところなんですが。
理論とか数学とかダメな方なので、実際にコード書いて実験してる次第。
ちなみにJavaでやってます。(慣れると)楽ですよ。描画も簡単だし。
568:デフォルトの名無しさん
08/04/23 09:08:37
出来ないか出来るかという話なら出来るんでしょう。
でも問題は
1、ブロックである事から接続の問題がどうしてもついてまわる事
2、周波数シフトそのものの計算の面倒さ
6:5 という比率なら5を6に移動するのは簡単だが6を7.2という事になると exp関数となる
569:デフォルトの名無しさん
08/04/23 23:01:48
> 100, 0, 110, 0, 130, 0 にする。
なんとなく、出力レベルが下がっちゃいそう。
570:デフォルトの名無しさん
08/04/23 23:04:07
じゃあその分ゲインをかければいいでしょ
571:567
08/04/24 00:02:55
>>568
>5を6に移動するのは簡単
それすら上手くいってないんですけど。DCTした5要素をどうやって6要素に
分配(シフト)すればいいのか。sinc補間で5要素から6要素を求めてみたり、
5要素を適当に6要素に分配してみたりしたけど、IDCTしたら変になります。
(振幅が一旦大きくなったあと、小さくなるような波形になるっぽい)。
なんかシフトしたら係数を掛けないといけないんでしょうか?
>exp関数となる
全然わかりませんorz。オイラーとかがからむ話なんでしょうか。
572:デフォルトの名無しさん
08/04/24 00:22:57
>>571
DCTだと、位相が無視されるからなぁ。
振幅が大きくなってる箇所があるってのは、位相が狂ってるんだと思う。
定常波だと位相が狂ってても聞こえは一緒だったりするんだけど、
立ち上がりの部分が変わっちゃうと変な聞こえになりそう。
573:デフォルトの名無しさん
08/04/24 00:24:24
周波数領域でピッチシフトするなら、フーリエ変換にしないと駄目かなぁ。
ついでに言うと、対数振幅と位相をそれぞれsincなり何なりで補間。
574:553
08/04/24 07:44:16
>>554
レス送れてすみません。ありがとうございます
1.ソースをFFTで周波数/強度に変換
2.1の周波数ごとに倍角公式、3倍角公式で倍音、3倍音を生成。音量は1の強度を元に適宜減衰
3.2を合成して補完音を生成
4.ソースと3を合成
みたいな感じでしょうか?
コーディング時には2〜4は同時に行った方がメモリのリソースは節約できそうですね…
575:デフォルトの名無しさん
08/04/24 09:11:17
えと、俺が書いた事は無視する事にしたのか誤解したのか、
俺が言ってるのは、ソレで2倍3倍の信号作って位相情報をどうするのって事。
元位相のまま2倍の位置にシフトしたら2度繰り返す事に
周波数軸上で変換するのは簡単じゃないよと。
だから
1、ソースのサンプル周波数変換
2.ソースからHPFで元サンプル周波数の1/4〜1/2の高域だけを抽出
3.2の2乗、3乗等の信号を作成
4.ソース+3の信号を重み調整し加算して出力
でいいんじゃないの?って事。
576:567
08/04/24 21:07:53
>>572
>DCTだと、位相が無視されるからなぁ。
シフトするときの分配をちゃんと(元の値が対応する区間を求めて、比率に
あわせて配分。言葉で書くとわかりにくいなぁ)したら、ブロック途中の
振幅の暴れはマシになったけど、なぜかブロックの先頭から末尾に向かって
減衰します。なにか、大きな位相成分がおかしいのか…
>>573
>フーリエ変換にしないと駄目かなぁ。
やっぱりそうなんでしょうか。どっちも周波数成分への変換相当だから、
DFTとDCTは同じことが出来るのかと思ってました。
577:デフォルトの名無しさん
08/04/24 23:30:07
>>576
連続フーリエ変換なら話は楽だったりするけど、
離散だと、周期の都合で妙なことになったりするかなぁ。
ピッチシフトって周期が狂う非線形処理だから、根本的に DCT・DFT と相性悪いかも。
578:デフォルトの名無しさん
08/05/09 12:43:38
和音がわからない
誰だよ白鍵と黒鍵分けたアホは
全部半音単位で管理しろや
579:デフォルトの名無しさん
08/05/09 12:48:16
>>578
頭悪いのね。
580:デフォルトの名無しさん
08/05/09 13:37:42
言われてみるとどういう基準で分けたのか気になるな。
流石に578はどうかと思うが。
581:デフォルトの名無しさん
08/05/09 13:38:17
>>579
頭良いのね。
582:デフォルトの名無しさん
08/05/09 13:47:03
音階が12なのは時間が12進なのと関係があるんか?
583:デフォルトの名無しさん
08/05/09 14:04:58
>>580
どういう基準もなにも、倍音とってったらドレミの音階が生まれるだろ。
それをオクターブ内におさまるようにしたら白鍵盤のぶんが埋まる。
そのときにだいたい半音、ってのが最少単位になってるからそれに合わせて鍵盤をわりふる。
西洋音楽の音階はだいたいそんな感じ。
>>582
倍音を拾っていってオクターブ内の音を分割した結果で、12等分がキリのいいとこに近かったんだよ。
地域によっては、12をさらに分割したのが最少単位だったりする。
584:デフォルトの名無しさん
08/05/09 14:56:59
純正律のことを言ってるのか?
いわゆる純正律はそれはそれで恣意的だと思うが。
あるいはピタゴラス音律か。
585:デフォルトの名無しさん
08/05/09 14:58:50
ようするに
ドミソ のソ 周波数比 2:3 の1.5が 2^(7/12) に近くて
ドミソ のミ 周波数比 4:5 の1.25が 2^(4/12) に近いから
最初にドミソの和音が出来て、それを展開していってドレミファソラシドって事でしょ
586:デフォルトの名無しさん
08/05/09 18:39:46
>578
プログラム関係ねぇよw
和音やコード進行は音楽関係の教則本には必ずと言っていいほど載ってるし、
当たり前な話だけどギターなんかは全部半音単位だ。
587:デフォルトの名無しさん
08/05/09 18:55:58
>>578
全部白鍵だったらどれが「ド」だか分からなくなるだろ
588:デフォルトの名無しさん
08/05/09 18:57:51
無刻印HHKを扱える奴がいるから慣れだなw
でもいやだなそんな鍵盤
589:デフォルトの名無しさん
08/05/10 01:27:16
そういう奴は周りから嫌だなと思われるのを生き甲斐としている。
疎外感と優越感の混ざった感覚。
590:デフォルトの名無しさん
08/05/12 14:45:20
ちょっと質問さしてください
WAVやAIFFを読み込んで再生するプライバックサンプラーを作りたいと思ってるんですが
音階演奏のための再生ピッチ変更(引き延ばし・縮め)って、
普通というか主流というか、どうやるものなんでしょう?
少しためしてみた感じでは、単純な一次補間でもけっこう使える感じがしたんですが
市販のサンプラーなんかはどうしてるんですかね?
591:デフォルトの名無しさん
08/05/12 16:25:42
あらかじめアップサンプリングしたデータを持っているなら1次補間でもいけるだろうし
そんなもの好きにやったらいいと思うけどな
592:デフォルトの名無しさん
08/05/12 17:33:47
DTM用で、あらかじめアップサンプリングしたデータを用意する
ようなことは想定してないです。
好きにやったらといえば返す言葉がないんですけどね・・・
サンプリングレート変換と同じといえば同じなので
もっとちゃんとした方法があることは理解してるんですが、
演奏が目的のサンプラーの類だと、
一次補間ぐらいやっとけば普通レベル??なのか気になったもので
593:デフォルトの名無しさん
08/05/12 17:39:54
>>592
URLリンク(www.psoft.co.jp)
こんなのとか?
594:デフォルトの名無しさん
08/05/12 17:49:29
>>592
いや自分でアップサンプリンしたのを内部データとして持っておけば
その1次補間でも十分実用になるという意味だよ。
アップサンプリングは元のサンプリング周波数の整数倍にすれば面倒なことは何もない
595:デフォルトの名無しさん
08/05/12 18:10:43
>>593
いえいえ、タイムストレッチ・ピッチシフトではなくて
単純な再生速度変更です。
>>594
なるほどーうまい方法ですね。
補間方法ばかり気にしてたんで、いやかなりはっとしました。
メモリは食いますけど、それなら再生時の負荷もほぼ同じのままS/Nアップしますね。
そういう実装してるのもあるのかなぁ
596:デフォルトの名無しさん
08/05/12 19:32:16
市販のサンプラー作ってた奴がいたとしても、そんなもんは企業秘密だから書けるわけねぇだろ
実装して問題が起ってるからアドバイスくれとかならともかく、抽象的すぎんぞ
597:デフォルトの名無しさん
08/05/17 18:23:59
えーと、サウンドプログラミングについての定番サイトってありますか?
やりたいのは任意のWaveファイル(サンプラーとして)+ゲームパッドを使い、
リアルタイムに強弱をつけながらパーカッションを打ち鳴らして、
打ち込んだ結果をMIDIファイルやWaveファイルに保存したいです。
こういうゲームパッドドラム?を作って、楽しく、楽に打ち込みたいのです。
598:デフォルトの名無しさん
08/05/18 06:03:46
ググレカス
599:デフォルトの名無しさん
08/05/19 07:42:48
>>597
ゲームパッドで強弱を付けるのは不可能
600:デフォルトの名無しさん
08/05/19 08:37:38
最近は感圧式ボタンや6AXISを備えたPC用ゲームパッドもあるから
一概にそうとも言えんぞ
まぁそんなの持ってる奴は少ないだろうから
テンポに合わせて自動的に裏表で強弱をつけることになるだろうがな
601:デフォルトの名無しさん
08/05/19 08:48:30
ボタンで強弱 = ストリートファイターなイメージがw
すぐにボタンが壊れたから、感圧ボタン廃止 → 6ボタン制に。
あっ、ボタンによって強弱切り換えりゃいいじゃん。
602:デフォルトの名無しさん
08/05/19 09:20:04
プレステ2のコントローラは感圧になっただろ
調節は難しいが
603:デフォルトの名無しさん
08/05/19 10:23:48
素直にMPDとか使えよ。
604:デフォルトの名無しさん
08/05/19 19:58:21
>>603
どのMPDですか
Wikipedia項目リンク
605:デフォルトの名無しさん
08/05/20 00:32:46
URLリンク(bookweb.kinokuniya.co.jp)
この本見たことある人いますか?なかなか内容充実してそうなんですが・・・
これからサウンドプログラミング始める人にとってどうでしょうか?
地方なんで見れる本屋がなくて・・・
606:デフォルトの名無しさん
08/05/20 00:40:08
>>605
ああ、それ結構有名。
607:デフォルトの名無しさん
08/05/20 00:47:25
>>606
使えます?定価的にも高いので、失敗したくなくて
608:デフォルトの名無しさん
08/05/20 09:37:23
MPDはゲームパッドじゃないよ
609:デフォルトの名無しさん
08/05/20 10:10:01
>>604
マジレスするが、
URLリンク(www.akai-pro.jp)
URLリンク(www.akai-pro.jp)
610:デフォルトの名無しさん
08/05/20 13:29:26
>>607
アマゾンのカスタマーレビューは参考にならないかな。
URLリンク(www.amazon.co.jp)
>>607の「使える」の定義が分からないので的外れだったらごめん。
611:デフォルトの名無しさん
08/05/20 13:43:33
本が「使える」かどうかなんて、オカズになるかどうかに決まっているじゃないか。
612:デフォルトの名無しさん
08/05/20 13:46:53
山羊かよ!
613:デフォルトの名無しさん
08/05/20 13:46:54
>>610
Amazon.comの原著のレビューはもっと熱いぜ
URLリンク(www.amazon.com)
614:デフォルトの名無しさん
08/05/20 13:56:04
>>611
ゴメン、君がその〜、童貞? だとは思わなかったから……
615:デフォルトの名無しさん
08/05/29 21:35:58
waveInGetPositionを使って録音中の場所を知り(場所がa[p]だったとする)、
a[p-1024]〜a[p-1]までのメモリを読んでみると、
どうもa[p-500]とか以降は、まだデータが書き込まれていないことが多い。
こういうものなの?
616:デフォルトの名無しさん
08/05/30 00:27:00
まさかとは思うが、short a[] なのに、p = mmt.u.cb とかってオチじゃねぇだろうな?
617:デフォルトの名無しさん
08/05/30 08:05:47
>>616
TIME_SAMPLESを指定しています。
まあ、waveInGetPositionで得た値から500を引いて使えばいいので、
困っているわけではないんだけど、何かすっきりしなくて。
618:デフォルトの名無しさん
08/05/30 16:52:58
学校の授業で、dsPICをつかってイコライザを作ろうと思っているのですが。。。
CDなどから音声信号をとってきて、高速A/D変換してデジタルフィルタにかけ出力という
流れ(まだ構想段階なので)でいこうと思うのですが、具体的にこれからどのように実現していけば
いいでしょうか。
619:デフォルトの名無しさん
08/05/30 20:58:59
学校の先生に聞いて来い
そのために授業料払ってんだろ
620:デフォルトの名無しさん
08/05/31 01:03:01
実は先生の方だって可能性もあるぞ。
621:デフォルトの名無しさん
08/05/31 01:16:20
恐ろしい可能性だなオイw
質問のレベルの低さから学生だと信じたいけど。
教えてクン的な釣りの可能性も。>URLリンク(www.redout.net)
622:デフォルトの名無しさん
08/05/31 06:12:23
正直 CDレベルの音質に対して dsPICってのはどうかな
16bitのDSPじゃ倍精度の演算に挑戦しないといけないぞ
イコライザが高域だけにするか、
サンプリングを11Kとかに落とすんならなんとかなるか
623:デフォルトの名無しさん
08/05/31 10:55:48
>>618
プログラム板なのでソフトウェアに限定すると、
入力部とイコライザ部と出力部を実装するといいんじゃね
624:デフォルトの名無しさん
08/06/01 22:30:36
三角波や矩形波でAの音を鳴らす・・・くらいのプログラムから始めたい初心者なのですが、
まずは何から勉強したらいいのでしょうか?
言語はC、Javaあたりならなんでもいいです。。
625:デフォルトの名無しさん
08/06/01 22:41:28
鳴らすてのがどのくらいのレベルでやりたいのかわからないけど
とりあえず任意の波形をWAVファイルを書き出せるようにやってみたら?
WAV形式で作れるようになったら鳴らすのもAPIで出来る。
626:デフォルトの名無しさん
08/06/02 05:58:34
>>624
言語に関しては熟知してるという前提で話するけど、
サイン波を画面に描画するのと同じ要領で音声出力に書き出すだけ。
書き出し方は環境に依存するけどWinでいいなら>>19辺りに解説がある。
627:デフォルトの名無しさん
08/06/02 10:11:22
>>624
ドレミの基礎。A4が440Hzとかそういうとこから。
628:デフォルトの名無しさん
08/06/02 21:04:47
採譜の達人ってあるじゃん
あれってどういうアルゴリズムだとおもう?
629:デフォルトの名無しさん
08/06/02 21:54:29
十数msec程度毎にFFTし各周波数を観察してノートオン/ノートオフを検索。
マッチングは単音ファイルの周波数の分布から。>倍音成分を多く含む音に対してsine.wavを割り当てると倍音も全部拾っている
12音階で近いノートに割り振るというアルゴリズムなので周波数の揺れる音色が取れない。>和音優先だから当然
みたいな感じじゃね?
630:デフォルトの名無しさん
08/06/03 10:44:10
>>628
どう見てもウェーブレット。単音をマザーウェーブレットにして変換するだけ。
631:624
08/06/04 00:33:42
おかげさまで出来ました。
ありがとうございます。
632:デフォルトの名無しさん
08/06/05 01:20:09
先輩方にお聞きしたい。
次のプロジェクトでサウンドプログラムの担当をすることになりました。
(社内含めてサウンドプログラムを経験している方がいないけど)
サウンドエンジン作れとのことですが、
経験則でいいのでどんなモノにしたらいいのか指針にしたいのでご意見下さい。
こんな出だしからして、音関係の知識はほぼありません。
「こういう勉強しろ」みたいなものやサイトがあればぜひ教えてください。
よろしくお願いします。
633:デフォルトの名無しさん
08/06/05 01:39:48
>632
お前の言ってる事は、
「今日からプログラマーになりました、何から勉強したらいいですか?」
っつーレベルだぞ。
何で使うシステムなのか、ハードのアクセラレーションはあるのか、
ドライバレベルなのかライブラリレベルなのか、何がしたくてどういった要求なのか。
全部スッポリ抜けてる。
634:デフォルトの名無しさん
08/06/05 02:03:14
というかどんなプロジェクトなんだか。
単純に考えてコンポーザとかゲームか。
なんだかんだ言ってサウンドはマイナーというか特殊扱いというかあまり扱わないよね。
WAVEの曲を背景にして効果音を鳴らすんなら音を足すだけでいい。
音階とかやるんなら周波数変えて合成とかする必要がある。
多分本当に初歩から勉強したいんだろうけど
とりあえずリアルタイムな事は置いといてWAVEファイルの作り方とか
簡単な波形の音の作り方とかそれで「ドレミ」を鳴らしたり和音にしたりとかから入るといいかも。
そのあたりはググれば見つかるんじゃないの。
リアルタイムな鳴らし方はWindowsならAPIかDirectX関連で探して。
他は知らん。
635:デフォルトの名無しさん
08/06/05 17:11:07
今色々教えても、それを>>632が取捨選択できるようには思いにくいなあ。
やみくもに実装だけ覚えても結局何も作れないと思うので、
>>632はまずは大まかにでもいいから仕様を決めた方がいいように思う。
(それがわからないとレスもし辛いような)
例えば単にベタのWAVファイルを鳴らすだけでいいのか、
ループも含めたBGMとして鳴らしたいとか、効果音も鳴らしたいとか。
プラットフォームは何で、それがどういう機能を持ってて、
それを補うために何を作って何を作らなくて良いのか、とか。
そうすれば何を覚えればよいのか自ずとわかるんではないだろうか。
偉そうでゴメン。
636:デフォルトの名無しさん
08/06/06 15:01:58
URLリンク(www.musicdsp.org)
こういったたぐいの日本語サイトないかな?
637:デフォルトの名無しさん
08/06/06 15:47:17
ない
638:632
08/06/07 09:29:34
633,634,635>>
本当にすいません、指摘のまんま基本的な情報が抜けてました。
プロジェクトはPS3のゲームです。
詳しい要望が出てきてないので、設計をどうしたらいいかと悩んでました。
自分ではBGM,SEを単に流す程度しか思いつかず、
ゲーム系でサウンドエンジン作った方がいれば、
どんな機能をいれたのか知りたかったわけです。
633>>
ありがとうございます、おかげで少し落ち着きました。
初めての事でビビり過ぎてたと思います。言われて我に返りました。
634,635>>
PS3で何が出来るのかを探してはいるのですが、
音楽知識が無いままドキュメントを読んでるので、
自分では理解が不十分な感じがするのです。
なので、デジタルサウンドの基礎から勉強しなければと思いました。
639:デフォルトの名無しさん
08/06/07 13:15:46
PS3のゲーム作れるとはすごいなぁ。
640:デフォルトの名無しさん
08/06/07 14:02:04
ゲーム機ならライブラリとサンプルがあるはずだから基礎研究ならその辺弄ってあそんでりゃおk
プロジェクト進行中ならチーフなり企画なりから何らかの仕様が降りてきてんじゃね?
641:デフォルトの名無しさん
08/06/07 17:54:02
3Dとかのエフェクトエンジンなのか
MIDIデータとかの再生エンジンなのか
ボイスとかのエンジンなのか
それとも全部一式? 一人ではキツイだろな
642:デフォルトの名無しさん
08/06/07 22:16:31
バグゲーになりそうな悪寒。
643:632
08/06/08 02:36:15
641>>
「MIDIも使いたいかも」みたいのは聞いた覚えがありますが、
上からの正式要件ではないので、一応対応するつもりです。
あとは5.1ch対応と3Dエフェクト(?どこぞの方向から音がする感じ)も…。
ちなみにボイスのエンジンとはどんなことするんでしょう。
なんかボイスの管理がどうとかリファレンスにあったけど、
音とは違うのだろうか。
バグゲーにはならないように頑張ります。
初めて一人で任された仕事なので、上でも一喝されてますしなんとかやってみる。
厳しいと感じたらまたアドバイスや気合もらいにきます。
644:デフォルトの名無しさん
08/06/08 10:49:05
ここは電話じゃないのか(´・ω・´)
645:デフォルトの名無しさん
08/06/08 10:49:54
ごばく
646:デフォルトの名無しさん
08/06/08 20:33:43
URLリンク(www.cri-mw.co.jp)
どうせライセンスを買う金が勿体無いから同等の技術を開発しろってところだろうな
647:デフォルトの名無しさん
08/06/08 20:52:32
ライセンス買っておけば不具合があっても相手持ちにできるのに…
自社で作ったら自分で責任取らないといけないよな
648:デフォルトの名無しさん
08/06/08 22:03:43
CRIのは高いだけで良かった記憶ねぇなぁ。
649:デフォルトの名無しさん
08/06/09 02:04:43
>632
PS3の仕様は知らんからなんとも言えんけど
効果音とボイスは違うんかいな。
いや、PS3だ。違うかもしれない。
650:デフォルトの名無しさん
08/06/09 10:07:57
ノベルゲーでも作るんだろ
ボイスはストリーム、効果音とBGMはオンメモリ・MIDIシーケンスで
みたいな?
651:デフォルトの名無しさん
08/06/09 23:58:40
話ぶったぎってすいません、
デューティ比が50%である矩形波は普通の音に聞こえるのですが、
25%、12.5%になると雑音が混じったような音が出ます。(ビー、ガガガなど)
これはサンプリングレートと音程の関係でこうなってしまうのでしょうか?
また、なぜ50%の時はこういった雑音が入ってないように聞えるのでしょうか?
652:デフォルトの名無しさん
08/06/10 00:36:26
50%の時が一番サイン波に形近いからなぁ。
逆に、12.5%のとかは、クリック音が並んでるような音に近い。
653:デフォルトの名無しさん
08/06/10 00:54:00
>>651
それぞれの周波数成分見れば一目瞭然
654:デフォルトの名無しさん
08/06/10 01:26:25
>>651
50%だけ普通ってのはわからんが、
サンプリングレートに対して、半端な周波数を鳴らしているんじゃないのかな。かつ波形処理が簡易的な出力。
そうすると、山や谷の部分の間隔が1サンプル多い部分とそうでない部分とが出てくる。
それを聞くと、周波数の違う音が混じって、汚く聞こえる。
655:デフォルトの名無しさん
08/06/10 02:02:16
ビーはともかく、ガガガは確実に元の周波数より長い周期でうなってるな。
だから、>>652-653の理由だけでは説明が付かない。
656:デフォルトの名無しさん
08/06/10 10:28:57
波形うpしろ、解析してやっから
657:デフォルトの名無しさん
08/06/10 12:54:43
>>651
定サンプリングレートだと、サイン波より矩形波の方が難しい波形なんだよ。
普通に0,1で出せると思ってたら甘いよ。
過去ログを見てみるといいよ
URLリンク(pc5.2ch.net)
658:デフォルトの名無しさん
08/06/10 18:35:41
なるほどなぁ、矩形波生成した時点ですでにエイリアシングノイズがのってるのか。
659:651
08/06/10 21:02:12
過去ログ読みました。勉強になります。
>>651については>>654さんのおっしゃるとおりだと思います。
現在は、
フェーズの増加
phase+=( freq*(PI*2/sampleRate) );
値を返す
val=(phase<PI/8)? 1.0:-1.0;
こんな感じで補正が全くありません。
phaseにLPFをあてて倍音をカットすればいいのでしょうか?
無知ですいません。。
660:632
08/06/11 01:27:24
>>649
私も「ボイスって声?だよな…」と一瞬考えたのですが、
ドキュメントの文脈と合わないので質問してみたんです。
で、調べてみるとシンセサイザとかで言う「音色」のことのようでした。
ドキュメント自体にそのように明言されていないので自信ないですが、
きっと音楽系の仕事をしてる人にはありきたりな内容かも知れません。
そんな感じで資料読むにも、
電子方面の音楽知識や単語を勉強したいところです。
「ディジタル・サウンド処理入門」って本でも読んでみます。
661:デフォルトの名無しさん
08/06/11 07:15:54
>>659
パルス=デルタ関数の帯域カットしたデータを 4〜32倍のオーバーサンプリングした結果をテーブルとしてもって
おいて
8倍なら
( round(phase*8) mod 8) から 8個単位のこのテーブルを引き
その結果を立ち上がり側なら積算、立下りながら減算する。
最初からデルタ関数ではなく、ステップにしたら良いと思うだろうけど
周波数が高くなってくると、デルタ関数同士がオーバーラップするようになるから
デルタ関数を積分した方が良い。
662:デフォルトの名無しさん
08/06/11 18:38:33
>>659
僕は、画像で言うアンチエイリアスの様な方法をやりましたが(画像処理での方法は知らないが結果的にそうなった)、
普通に聞く分には全く問題ないものの、良〜く聞くと若干ノイズが聞こえる。
綺麗な矩形波は
URLリンク(www.slack.net)
これを使ったエミュレーターの音は、全くノイズが聞こえないです。
663:651
08/06/11 23:01:14
なるほどです。
>>662の帯域制限は>>661と同じ事なんでしょうか。(難しい…)
>>659のコードを、
phase+=freq;
val=(phase<(sampleRate/8))? 1.0:-1.0;
こんな感じで書き直したら、以前あったノイズはなくなりました。
(VirtualNES(NSF)で鳴らした音と比較してます)
なんでノイズが消えたのか、よくわかってませんが・・・。
とりあえずこれで作成してみようと思います。
>>661>>662の方法はまだ理解できないのでこれから勉強します。
ありがとうございました。
664:デフォルトの名無しさん
08/06/12 08:20:38
> >>662の帯域制限は>>661と同じ事なんでしょうか。(難しい…)
方式が違う。 662 はサイン波合成で矩形波を作っている。
リアルタイム合成するにはサイン波を1,3,5,7の奇数倍周波数で位相を合わせて作れないといけない。
665:デフォルトの名無しさん
08/06/13 17:49:51
サウンドプログラミングを学ぶためにローパスフィルタを作ろうと考えました。
方法としては波形データ→FFT→特定の周波数以上のところを0に書き換え→逆FFT
というのを考えたんですが、いざコーディングするとなると全く出来ないです。
wavデータを順番に配列に突っ込むというのは出来たんですが・・・
なにか参考になるサイトなどありますか?
666:デフォルトの名無しさん
08/06/13 18:05:18
>>665
Wikipedia。デジタル・フィルタの基礎から勉強したほうがいい。
そのあとで↓
URLリンク(www.musicdsp.org)
667:デフォルトの名無しさん
08/06/13 18:19:07
>>666
英語はきついっすw
668:デフォルトの名無しさん
08/06/13 19:48:34
じゃぁ本買いな
669:デフォルトの名無しさん
08/06/13 20:33:30
勉強する気もねぇ乞食かよ・・・
670:デフォルトの名無しさん
08/06/14 03:10:02
>>632
多分ゲームで必要になるのはストリームしながら再生、停止。
メモリに常駐している音(効果音、クリック音)の再生。
それらの音のボリュームの全体操作。
(画面が切り替わった時に前の効果音が残ったりしちゃうから。)
サウンド用の領域が溢れた時に音を鳴らさない、その旨を伝える手段。
場合によってはストリーム音のクロスフェード
(前の音を段々小さくして変わりに次の音を徐々に入れていく。)
それはなくても徐々に音を消す処理は必須。(いきなり消すとノイズが入る。)
この辺はハードが色々用意してくれてるだろうから、勢いでなんとかなる。
一番大変なのは、どの場面でも必要になるサウンド処理は、別スレッドで管理されることが多い。
サウンドはスレッドセーフで作らないと後で大変なことに。
後、BGMをストリームで流すとディスク上で常にシークが入る。
ロードを頻繁にするデータは、ディスクの外側よりBGMの隣にデータを配置した方が早くなる場合もある。
昔、隣の席でゲームのサウンドを開発している人を見た感想でした。
次ページ最新レス表示スレッドの検索類似スレ一覧話題のニュースおまかせリスト▼オプションを表示暇つぶし2ch
4991日前に更新/249 KB
担当:undef