-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Lab3 :2.2 Output Layer(s) (models.py:EX5) #16
Comments
Οκ ας πάρουμε την απλή περίπτωση ενός fully connected (torch.nn.Linear) layer με ReLU activation.
Εδώ όταν δημιουργείς το layer ορίζεις input και output size που είναι οι διαστάσεις του πίνακα Οπότε το activation εφαρμόζεται elementwise πάνω στο Σου στέλνω και ένα toy example με κώδικα
|
Αα οπότε βάζουμε Relu μετά από Linear, γιατί όπως το γράφει η εκφώνηση φαίνεται σα να εννοεί απλώς ένα μη γραμμικό (π.χ. Relu) module |
Για ένα layer με μία μη γραμμική συνάρτηση ενεργοποίησης (π.χ. Relu), πώς μπορώ να επιλέξω εγώ τη διάσταση για την έξοδο του layer όπως λέει η εκφώνηση ; Απ'ότι έχω καταλάβει, η μη γραμμική συνάρτηση εφαρμόζεται element-wise στην είσοδο, οπότε η διάσταση εξόδου καθορίζεται από τη διάσταση εισόδου.
The text was updated successfully, but these errors were encountered: