提案するCadenzaフレームワークは、入力MIDI楽譜に基づいて新しい表現的なバリエーションを生成することができる。
言語モデルとテキストから音楽生成モデルを統合することで、長期的な構造を持つ2.5分の音楽作品を生成することができる。
メロディーを利用することで、より調和の取れた音楽を生成できる。
テキストから入力を受け取り、遺伝的アルゴリズム、確率的手法、GPTモデルを使用して、複雑な構造を持つ複数分間の完全なミュージカル作品を生成する。
潜在ディフューション・モデルを用いて、音源分離と多トラック音楽生成を同時に実現する。楽曲の文脈を共有するトラック間の結合確率分布を学習することで、分離と生成の両方のタスクを統一的に扱うことができる。
MEETORは、オーケストラ音楽の旋律を保持しつつ、バー単位およびトラック単位でテクスチャを制御できる生成モデルである。
Seed-Musicは、マルチモーダルな入力を活用して、高品質な音楽を生成し、細かな制御を可能にするフレームワークである。
音楽メタデータを入力条件として使い、4小節の多重トラックMIDIシーケンスを生成する。トークンをランダムにドロップすることで、ユーザーが全ての入力条件を完了する必要がなく、より柔軟な制御が可能になる。
大規模な音声データを活用し、MIRモデルを用いてシンボリック音楽を生成することで、手動アノテーションデータを必要とせずに高品質な音楽生成モデルを構築できる。さらに、SymPACフレームワークを用いることで、ユーザーの入力に応じて柔軟に音楽を生成することができる。
潜在ディフューション法を用いて、楽器音源(ピアノ、ドラム、ベース、ギター)を同時に生成し、調和の取れた音楽を生成する。