Pregunta

He estado utilizando esta biblioteca para la construcción y análisis básicos de la red neuronal.

Sin embargo, no tiene soporte para construir redes neuronales de varias capas, etc.

Por lo tanto, me gustaría saber de cualquier biblioteca agradable para hacer redes neuronales avanzadas y un aprendizaje profundo en Julia.

¿Fue útil?

Solución

Mocha.jl - Mocha es un marco de aprendizaje profundo para Julia, inspirado en el Caffe del marco C ++.

Proyecto con bien documentación y ejemplos. Se puede ejecutar en CPU y BPU Backend.

Otros consejos

Paquete MXNET Julia: aprendizaje profundo flexible y eficiente en Julia

https://github.com/dmlc/mxnet.jl

Pros

  • Rápido
  • Escala hasta GPU múltiples y configuración distribuida con paralelismo automático.
  • Ligero, de memoria eficiente y portátil a dispositivos inteligentes.
  • Diferenciación automática

Contras

A partir de octubre de 2016, también hay un envoltorio de flujo de tensor para Julia:

https://github.com/malmaud/tensorflow.jl

Solo para agregar una respuesta más reciente (2019): Flujo.

Flux is an elegant approach to machine learning. It's a 100% pure-Julia stack,
and provides lightweight abstractions on top of Julia's native GPU and
AD support. Flux makes the easy things easy while remaining fully hackable.

Por ejemplo:

model = Chain(
  Dense(768, 128, σ),
  LSTM(128, 256),
  LSTM(256, 128),
  Dense(128, 10),
  softmax)

loss(x, y) = crossentropy(model(x), y)

Flux.train!(loss, data, ADAM(...))

Una biblioteca más nueva para mirar también es Knet.jl. Hará cosas como usar GPU debajo del capó.

https://github.com/denizyuret/knet.jl

Licenciado bajo: CC-BY-SA con atribución
scroll top