Pregunta

Estoy tratando de entrenar una red neuronal con el módulo de lasaña en Python. No quiero una red totalmente conectada según lo definido por Lasagne.layers.Denselayer. En cambio, me gustaría arreglar algunos de los parámetros de peso a cero. ¿Alguien sabe como hacer esto?

La solución más cercana que he encontrado es algo así como:

params = lasagne.layers.get_all_params(network, trainable=True)
layer1.params[layer1.W].remove("trainable")

Sin embargo, esto corrige todo el conjunto de parámetros de peso a sus valores iniciales. ¿Cómo puedo arreglar solo un subconjunto de estos pesos?

No hay solución correcta

Otros consejos

No estoy seguro de cuál es su intención estableciendo los pesos en cero. ¿Has mirado las capas de abandono?

l_hid1 = lasagne.layers.DenseLayer(num_units=200)

l_hid1_drop = lasagne.layers.DropoutLayer(l_hid1, p=0.5)

Esto debería eliminar el 50% de sus datos de la capa L_HID1.

Licenciado bajo: CC-BY-SA con atribución
scroll top