Meta-composição durante as apresentações de música [fechado]
-
04-07-2019 - |
Pergunta
Um par de semanas atrás, minha professora de piano e eu estávamos saltando idéias fora de si sobre software de música de composição meta. A idéia era a seguinte:
Existe um sistema de tomada de entrada midi de um grupo de instrumentos, e empurra saída para os alto-falantes e luzes. O software em execução no sistema analisa os dados midi está ficando e determina quais sons de usar, com base em gatilhos criadas pelo compositor (quando eu jogar um acorde F7 3 vezes dentro de 2 segundos, o interruptor do som cravo ao som de piano ), pedais, ou análise em tempo real real da música. Seria controlar as luzes com base no desempenho e sons dos instrumentos de forma semelhante - o músico só teria que especificar vagamente o que queriam - e análise em tempo real de seu jogo faria o resto. Na mosca música processualmente gerado poderia jogar junto com o músico também. Essencialmente, o software iria jogar junto com o artista, com um orientando o outro. Imagino que levaria um pouco de prática para começar a usar esse sistema um, mas que poderia ter resultados bastante incríveis.
Eu sou um grande fã de jazz de improvisação. Uma característica de improvisação que falta a partir de outras formas de arte é o de temporalização dele. A pintura pode ser apreciada 10 ou 1000 anos depois de ter sido pintado, mas a música (música especialmente improvisou) é sobre o desempenho, pois é a criação. Eu acho que o software que eu descrevi gostaria de acrescentar muito para o desempenho, como com ele, como jogar exatamente o mesmo pedaço resultaria em um show completamente diferente de cada vez.
Então, agora para as perguntas.
Am I louco?
software faz para fazer qualquer ou tudo isso existe ainda? Eu fiz algumas pesquisas e não apareceu nada. A chave para este sistema é que ele está sendo executado durante a performance.
Se eu fosse escrever algo como isto, seria uma linguagem de script como Python ser rápido o suficiente para fazer os cálculos que eu preciso? Presumivelmente, ele estaria rodando em um sistema bastante rápido, e poderia aproveitar os 2 ^ n core Intel continua liberando.
Qual de vocês pode compartilhar sua experiência e conselhos sobre a interface com instrumentos musicais e luzes e assim por diante?
tem alguma idéia ou sugestão? Frio e duras críticas?
Obrigado pelo seu tempo em ler isto, e por toda e qualquer conselho! (E desculpe pela piada nas tags, eu não poderia resistir.)
Solução
As pessoas têm usado Max MSP para fazer esse tipo de coisa com Midi e criação de acompanhamento de vídeo , ou apenas acompanhamento Midi. É um aplicativo específico de domínio completo, que provavelmente foi inspirado por uma conversa ou algo assim, que mal qualquer programador real pode amar, mas músico-programadores fazer.
Apesar do texto no site eu só ligada a, e o fato de que 'todos' usa a versão comercial, nem sempre foi um produto comercial. Ircam finalmente lançado o seu próprio linhagem . É chamado jMax . PureData , mencionado em outro post aqui é outra reescrita dessa linhagem.
Há também csound; que não era para ser em tempo real, mas é provável capaz de ser em tempo real bastante agora que você tem um computador decente comparado a onde CSound começou.
Algumas pessoas também têm cortado Macromedia Director extensões para permitir fazer coisas midi em Lingo ... Isso é muito desatualizado e, portanto, alguns deles mudaram-se para mais moderno ambientes Adobe.
Outras dicas
PureData . Ele pode fazer uma análise midi extensa e as pessoas usá-lo para o desempenho.
Na verdade, aqui está uma href="http://www.liveleak.com/view?i=31d_1222611500" rel="nofollow noreferrer"> vídeo que pisca últimos uma tela puredata. Ele mostra alguém interagindo com um instrumento bastante complexo usando PD.
Além disso, olhada CSounds .
Eu tenho usado PyAudio bastante extensa para lidar com entradas de áudio crus, e achei que era ser muito unpythonic, atuando muito mais como um muito fina capa sobre o código C. No entanto, se você está lidando com midi, em vez de formas de onda matérias, então as suas tarefas são um pouco mais simples, e python deve ser bastante rápido o suficiente, a menos que você jogar em 10000 batimentos por minuto :)
Alguns dos problemas: a detecção de simultaneidade, harmônica (formal -, ou seja, estrutura de acordes) análise.
Este é também um problema 80/20 que, se você restringir as progressões de acordes permitido, então torna-se um pouco mais simples. Afinal, o que significa "jogar junto" média, de qualquer maneira, certo?
(Além disso, a conf música eletrônica é que eu estive também, há muitas pessoas fazendo várias experiências de acompanhamento em tempo real com base no som de entrada e movimento). Boa sorte!
Você também pode olhar para ChucK e SuperCollider , os dois mais populares em tempo real 'real' linguagens de programação musical.
Além disso, você pode se surpreender com o quanto você pode realizar com Ableton Live racks.
(e é 's' no final CSound. No)
Você pode entrar em contato com Gary Lee Nelson na Timara departamento de Oberlin. 20 anos atrás eu fiz um projeto que auto-gerado a seção rítmica de 12 bar blues e eu lembro dele descrevendo uma ferramenta que ele sabia do que fez essencialmente o que você está descrevendo.
Você pode estar interessado em Genjam
A resposta à sua pergunta não é - você não está louco. existem sistemas semelhantes, mas sua descrição é bastante vaga para começar, por isso não é muito de uma especificação para julgar contra.
Eu sugiro que você começar a escrever um protótipo e ver como ele faz. Algo extremamente pequeno e simples. Os sistemas existentes que se dane.
Eu estou usando c ++ em win32 api (sem mfc). Comecei a escrever o meu sequenciador de volta no Amiga500. Ele não faz luzes, mas não há muito o que fazer na música apenas.
Boa sorte para você. É um projeto extremamente divertido. Eu diria padrão -don't- seu projeto sobre como outros projetos de trabalho. Porque, se você me perguntar, eles não funcionam tão grande;) E a diversão é ser capaz de fazer algo diferente.