Italiano
italiano
english
français
española
中国
日本の
العربية
Deutsch
한국어
Português
Russian
Articoli completi
Categorie
C#
PHP
PYTHON
JAVA
SQL SERVER
MYSQL
HTML
CSS
JQUERY
VUE
ReactJS
Scrivi
Utente
Login
Registrazione
Recupero della password
Tag
Tag di lingua
Back-end
C#
PHP
JAVA
PYTHON
Database
Sql server
Mysql
Front-end
HTML
CSS
JQUERY
ANGULARJS
REACT
VUE.JS
Tag activation-function - Questa è pagina 6 - GeneraCodice
In che modo la funzione di costo cambia per scelta della funzione di attivazione (Relu, sigmoide, Softmax)?
https://www.generacodice.com/it/articolo/1541864/in-che-modo-la-funzione-di-costo-cambia-per-scelta-della-funzione-di-attivazione-relu-sigmoide-softmax
numpy
-
classification
-
deep-learning
-
activation-function
-
cost-function
datascience.stackexchange
Usando Leakyrelu come funzione di attivazione nella CNN e al miglior alfa per esso
https://www.generacodice.com/it/articolo/1540454/usando-leakyrelu-come-funzione-di-attivazione-nella-cnn-e-al-miglior-alfa-per-esso
keras
-
activation-function
-
cnn
-
leakyrelu
datascience.stackexchange
Confusione riguardo al meccanismo di lavoro della funzione di attivazione
https://www.generacodice.com/it/articolo/1540107/confusione-riguardo-al-meccanismo-di-lavoro-della-funzione-di-attivazione
neural-network
-
svm
-
classification
-
self-study
-
activation-function
datascience.stackexchange
Perché utilizziamo una funzione di attivazione di SoftMax negli autoencoders convoluzionali?
https://www.generacodice.com/it/articolo/1539969/perche-utilizziamo-una-funzione-di-attivazione-di-softmax-negli-autoencoders-convoluzionali
image-recognition
-
convolution
-
softmax
-
autoencoder
-
activation-function
datascience.stackexchange
Unità lineari esponenziali (elu) vs $ log (1+e^x) $ come funzioni di attivazione dell'apprendimento profondo
https://www.generacodice.com/it/articolo/1539276/unita-lineari-esponenziali-elu-vs-log-1-e-x-come-funzioni-di-attivazione-dell-apprendimento-profondo
machine-learning
-
deep-learning
-
activation-function
datascience.stackexchange
Cos'è l'attivazione di Gelu?
https://www.generacodice.com/it/articolo/1532921/cos-e-l-attivazione-di-gelu
activation-function
-
bert
-
mathematics
datascience.stackexchange
Quale funzione di attivazione dovrei usare per un problema di regressione specifico?
https://www.generacodice.com/it/articolo/1531299/quale-funzione-di-attivazione-dovrei-usare-per-un-problema-di-regressione-specifico
machine-learning
-
regression
-
neural-network
-
deep-learning
-
activation-function
datascience.stackexchange
Possiamo usare la funzione di attivazione di Relu come non linearità del livello di output?
https://www.generacodice.com/it/articolo/1529945/possiamo-usare-la-funzione-di-attivazione-di-relu-come-non-linearita-del-livello-di-output
machine-learning
-
neural-network
-
deep-learning
-
keras
-
activation-function
datascience.stackexchange
Prodotto dei prodotti DOT in rete neurale
https://www.generacodice.com/it/articolo/1528414/prodotto-dei-prodotti-dot-in-rete-neurale
neural-network
-
activation-function
datascience.stackexchange
Qual è il ragionamento corretto alla base della risoluzione del problema del gradiente di fuga/esplodere nelle reti neurali profonde.
https://www.generacodice.com/it/articolo/1528144/qual-e-il-ragionamento-corretto-alla-base-della-risoluzione-del-problema-del-gradiente-di-fuga-esplodere-nelle-reti-neurali-profonde
deep-learning
-
activation-function
datascience.stackexchange
«
3
4
5
6
7
8
»
Risultati trovati: 112