質問

数週間前、ピアノの先生と私はメタ作曲音楽ソフトウェアについてアイデアを出し合っていました。アイデアは次のとおりです。

多数の楽器から MIDI 入力を受け取り、出力をスピーカーとライトにプッシュするシステムがあります。このシステム上で動作するソフトウェアは、取得した MIDI データを分析し、作曲者が設定したトリガーに基づいて使用するサウンドを決定します (2 秒以内に F7 コードを 3 回演奏すると、チェンバロのサウンドからピアノのサウンドに切り替わります)。 )、ペダル、または音楽の実際のリアルタイム分析。同様の方法で、楽器の演奏と音に基づいて照明を制御します。ミュージシャンは、希望するものを漠然と指定するだけで済みます。残りの作業は、演奏のリアルタイム分析によって行われます。オンザフライで手続き的に生成された音楽は、ミュージシャンと一緒に演奏することもできます。基本的に、ソフトウェアは演奏者に合わせて演奏し、一方が他方をガイドします。このようなシステムに慣れるには多少の練習が必要になると思いますが、非常に素晴らしい結果が得られる可能性があります。

私は即興ジャズの大ファンです。他の芸術形式にはない即興の特徴の 1 つは、即興の時間性です。絵画は描かれてから 10 年後、1000 年後に鑑賞できますが、音楽 (特に即興音楽) は創作物であるため、パフォーマンスが重要です。私が説明したソフトウェアは、まったく同じ曲を演奏すると毎回まったく異なるショーになるため、パフォーマンスに大きな効果をもたらすと思います。

それでは、質問に入ります。

私は気が狂っているのでしょうか?

これらの一部またはすべてを実行するソフトウェアはまだ存在しますか?いくつか調査しましたが、何も見つかりませんでした。このシステムのポイントは、公演中に稼働していることだ。

このようなものを書く場合、Python などのスクリプト言語は、必要な計算を実行するのに十分な速度を持っているでしょうか?おそらく、かなり高速なシステムで実行され、Intel がリリースし続ける 2^n コア プロセッサを活用できるでしょう。

楽器や照明などとのインターフェースに関する経験やアドバイスを教えていただけますか?

何かアイデアや提案はありますか?冷たく厳しい批判?

貴重なお時間を割いてこれを読んでいただき、またあらゆるアドバイスをいただきありがとうございます。(タグにジョークを入れてごめんなさい、我慢できませんでした。)

役に立ちましたか?

解決

人々が使ってきた 最大MSP Midi を使用してこのようなことを行い、ビデオ伴奏を作成したり、Midi 伴奏だけを作成したりできます。これは完全にドメイン固有のアプリで、おそらく世間話か何かからインスピレーションを得たもので、本物のプログラマーはほとんど好きになれませんが、ミュージシャン兼プログラマーは好きです。

私がリンクしたばかりのサイトのテキストと、「誰もが」商用版を使用しているという事実にもかかわらず、それは必ずしも商用製品ではありませんでした。 イルカム 最終的には独自のものをリリースしました 系統. 。それは呼ばれています jMax. ピュアデータ, 、ここでの別の投稿で言及されているのは、その系譜の別の書き直しです。

CSound もあります。これはリアルタイムを意図したものではありませんでしたが、CSound が始まったときと比べてまともなコンピュータを持っている今ではかなりリアルタイムにできるでしょう。

Macromedia Director 拡張機能をハッキングして、Lingo で MIDI 機能を実行できるようにする人もいます...それは非常に時代遅れなので、一部は次のように移動しました。 より近代的な アドビ環境。

他のヒント

PureData をご覧ください。広範なミディ分析を行うことができ、人々はパフォーマンスのためにそれを使用します。

実際には、puredata画面を過ぎてフラッシュするビデオがあります。誰かがPDを使用してかなり複雑な機器と対話する様子を示しています。

また、 CSounds もご覧ください。

生のオーディオ入力を扱うためにPyAudioを非常に広範囲に使用しましたが、非常に素朴で、Cコードの非常に薄いラッパーのように振る舞います。ただし、生の波形ではなくMIDIを扱う場合、タスクはかなり単純であり、1分あたり10000ビートで再生しない限り、Pythonは十分に高速である必要があります:)

いくつかの問題:同時性の検出、ハーモニック(形式-コード構造)分析。

これは80/20の問題でもあり、許可されているコード進行を制限すると、かなり単純になります。結局のところ、「一緒に遊ぶ」ことは何ですか?とにかく、そうですか?

(また、私が行った電子音楽の会議では、入力音と動きに基づいてさまざまなリアルタイムの伴奏実験を行う人が大勢います)。がんばって!

ChucK および SuperCollider は、2つの最も人気のある「リアルタイム」リアルタイム音楽プログラミング言語です。

また、 Ableton Live ラックでどれだけの成果を上げることができるかに驚くかもしれません。

(CSoundです。末尾に「s」はありません)

参照:

2番目のものが実際に本物であるか、見る価値があるかどうかはわかりません。ただし、Keykitはそうです。

Oberlinの TIMARA部門でGary Lee Nelsonにお問い合わせください。 20年前、私は12小節のブルーのリズムセクションを自動生成するプロジェクトを行いましたが、彼が知っているツールを説明していることを思い出します。

あなたの質問への答えはノーです-あなたは狂っていません。 同様のシステムが存在しますが、説明はきれいです 漠然としていますので、判断するのはスペックではありません。

プロトタイプの作成を開始して、その仕組みを確認することをお勧めします。 非常に小さくてシンプルなもの。 既存のシステムはとんでもない。

Win32 APIでC ++を使用しています(MFCなし)。 Amiga500でシーケンサーの書き戻しを開始しました。 ライトは点灯しませんが、音楽だけでやるべきことがたくさんあります。

おめでとうございます。 非常に楽しいプロジェクトです。 他のプロジェクトがどのように機能するかについて、プロジェクトをパターン化しないでください。 なぜなら、あなたが私に尋ねると、彼らはそれほどうまく機能しないからです;) そして、楽しみは違うことをすることができることです。

ライセンス: CC-BY-SA帰属
所属していません StackOverflow
scroll top