Esame unico Gennaio-Febbraio 2019
L'esame è costituito da una parte progettuale di gruppo con presentazione (in inglese possibilmente) più orale singolo.
Domande 21-02-2019
- Regressione regolarizzata
- Funzioni di attivazione
- PCA x2
- Clustering gerarchico
- LSTM x2
- Stimatore Bayesiano
- Reinforcement learning
- Come si addestra una rete neurale
- Kernel trick
- DBSCAN algoritmo x2
- Algoritmo di Back Propagation x2
- Esercizio su DNN (ho una feature map di 32x32x1 quanti neuroni ci sono bla bla)
- Reti ricorrenti
- Tre funzioni di loss e esempi di architettura
- SVM equazioni sui vincoli, modifica con C
- RBF
- encoder-decoder recurrent nn
- K-means algoritmo (quando dà problemi che possono essere risolti da DBSCAN)
- EM
- MLP come si aggiorna il vettore dei pesi (gradiente discendente)
- KNN e NN con formule di errore, differenze, regioni di decisione
- Back Propagation: come si modificano i pesi nei livelli interni della rete?
- regressione logistica (in quale caso è migliore --> gaussiane, come si risolve --> gradiente discendente )
- reti di Kohonen
Domande 22-02-2019
- EM, K-means, Svantaggio di K-means
- Back-Propagation, aggiornamento dei pesi in uno strato hidden
- Classificatore Bayesiano, un esempio, Naive Bayes Classifier
- DBSCAN e differenza con K-means
- SVM lineare
- SVM non lineare
- Reinforcement Learning
- Reti ricorrenti
- PCA
- Reti di Kohonen
- Reti convoluzionali, strati convoluzionali, con esempio di calcolo (es 32x32, cosa accade se c’è stride, ad esempio con 10 feature. Pesi del primo strato? Ecc…)
- Regressione (lineare, lineare generalizzata, regolarizzazione)
- Regressione logistica