Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Lab 1, Ερώτημα 12 #3

Open
DominusTea opened this issue Dec 2, 2019 · 1 comment
Open

Lab 1, Ερώτημα 12 #3

DominusTea opened this issue Dec 2, 2019 · 1 comment
Labels
Advanced Questions about advanced topics (more advanced than the course material) Lab1 Questions specific to Lab1

Comments

@DominusTea
Copy link

Σε συνέχεια επικοινωνίας μεσω email, ανεβάζω αυτό το ερώτημα και εδώ:
Στην κατασκευή του unigram level γλωσσικού μοντέλου (12.β) αντί να τοποθετούμε την -log(πιθανότητα εμφάνισης) της κάθε λέξης στην πρώτη ακμή (με όλες τις άλλες 0), βάζουμε κόστος σε κάθε ακμή την -log(πιθανότητα εμφάνισης) του κάθε χαρακτήρα.
Το πρόβλημα που δημιουργεί αυτό είναι πως σε μεγάλες σε μήκος λέξεις θα έχουμε πολύ μεγάλο κόστος και επομένως ο ορθογράφος μας θα δίνει λάθος απαντήσεις, προτιμώντας μικρότερες σε μήκος λέξεις.
Μήπως θα έπρεπε να κανονικοποιούμε τα κόστη που βάζουμε στο unigram μοντέλο του αποδοχέα, ως προς το μήκος της εκάστοτε λέξης?

@georgepar
Copy link

Thanks
Κάνω paste και την απάντηση

Ναι αυτό είναι μια καλή προσθήκη (η οποία εφαρμόζεται γενικά σε decoding για να αναγκάζει το decoder να κάνει generate μεγαλύτερου μήκους απαντήσεις).
Δείτε και το beam search with length normalization που χρησιμοποιείται ευρέως σε chat bots, speech recognition κτλ
http://opennmt.net/OpenNMT/translation/beam_search/#length-normalization

@georgepar georgepar added Lab1 Questions specific to Lab1 Advanced Questions about advanced topics (more advanced than the course material) labels Dec 4, 2019
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Advanced Questions about advanced topics (more advanced than the course material) Lab1 Questions specific to Lab1
Projects
None yet
Development

No branches or pull requests

2 participants