Section outline
-
-
Εδώ αναρτώνται οι γενικές ανακοινώσεις από τους διδάσκοντες προς τους εγγεγραμμένους φοιτητές, οι οποίοι τις λαμβάνουν και στην ηλεκτρονική τους διεύθυνση.
-
Σε αυτό το forum, μπορεί οποιοσδήποτε εγγεγραμμένος φοιτητής να αναρτά ερωτήσεις σχετικές με το μάθημα και να λαμβάνει απαντήσεις από τους διδάσκοντες. Οι ερωτήσεις και οι απαντήσεις θα είναι διαθέσιμες σε όλους τους φοιτητές.
Οι φοιτητές μπορούν να δηλώσουν με την εγγραφή τους αν θέλουν να ενημερώνονται για τις αναρτώμενες ερωταπαντήσεις.
-
-
- Κωνσταντίνος Χρυσαφίνος, Καθηγητής ()
- Δημήτρης Φωτάκης, Αναπλ. Καθηγητής ()
Ώρες Γραφείου Διδασκόντων
- Κωνσταντίνος Χρυσαφίνος: Δευτέρα & Τρίτη10:30-11:30 (Γραφείο 2-17, Κτ. Ε).
- .Δημήτρης Φωτάκης: Τρίτη 14:00 - 15:00, στο γραφείο 1.1.10, (Παλαιό) Κτήριο Ηλεκτρολόγων.
-
Το μάθημα προσφέρεται στα πλαίσια του ΔΠΜΣ "Επιστήμη Δεδομένων και Μηχανική Μάθηση" (ΕΔΕΜΜ), του ΔΠΜΣ "Αλγόριθμοι, Λογική και Διακριτά Μαθηματικά" (ΑΛΜΑ) και του Διδακτορικού Προγράμματος της ΣΗΜΜΥ ΕΜΠ.
Οι διαλέξεις του μαθήματος γίνονται κάθε Τετάρτη, ώρα 15:15-18:00, στο Νέο Κτήριο Ηλεκτρολόγων, Αίθουσα 008.
-
- Shai Shalev-Shwartz and Shai Ben-David. Understanding Machine Learning: From Theory to Algorithms. Cambridge University Press, 2014.
- Shai Shalev-Shwartz. Online Learning and Online Convex Optimization. Foundations and Trends in Machine Learning. Vol. 4(2): 107–194, 2011.
- Elad Hazan. Introduction to Online Convex Optimization. Foundations and Trends in Optimization. Vol. 2(3-4): 157-325, 2015.
- Διαλέξεις@youtube του Machine Learning μαθήματος από τον Shai Ben-David, University of Waterloo, 2015.
- Μάθημα Machine Learning από τον Shai Shalev-Shwartz, The Hebrew University of Jerusalem, 2014.
-
Σημειώσεις μαθημάτων μέχρι και την 4η βδομάδα (δεν συμπεριλαμβάνονται κάποιες από τις ασκήσεις που έγιναν στον πίνακα).
-
454.8 KB
-
549.8 KB
-
528.2 KB
-
663.6 KB
-
512.9 KB
-
-
- Διάλεξη 28/2/2022: Διαδικαστικά θέματα. Εισαγωγή.
- Διάλεξη 6/5/2022: Εισαγωγή, online learning finite hypothesis classes, PAC learning, Empirical Risk Minimization (ERM), VC-dimension, το θεμελιώδες θεώρημα του Statistical Learning, Agnostic PAC Learning, Learning via uniform convergence.
- Προτεινόμενη μελέτη:
- Διαφάνειες: set1, set2 και set3 (χωρίς το κομμάτι του Linear Regression).
- Κεφάλαια 1-4 και 6 από Understanding Machine Learning.
- Προαιρετικά (εξειδικευμένο και τεχνικά δύσκολο): Online Learning by the Ellipsoid Method
- Προτεινόμενη μελέτη:
- Διάλεξη 13/5/2022: Learning via uniform convergence, bias-complexity tradeoff, loss functions, ERM and convex optimization, online learning, online convex optimization, regret, no-regret αλγόριθμοι, Follow the Leader (ορισμός και ανάλυση του regret), ο ρόλος της ισχυρής κυρτότητας στην ευστάθεια αλγορίθμων της μορφής Follow the Leader, regularization, Follow the regularized Leader (ορισμός, παραμετροποίηση με βάση τον regularizer, ανάλυση του regret).
- Προτεινόμενη μελέτη:
- Διαφάνειες.
- Tutorial του Elad Hazan, Optimization and Machine Learning.
- Σημειώσεις Μ. Ζαμπετάκη.
- Σημειώσεις Β. Συργκάνη.
- Κεφάλαιο 1 και ενότητες 2.1 - 2.5 από Online Learning and Online Convex Optimization.
- Διάλεξη 16/5/2022: Βασική ανάλυση της Gradient Descent για convex και strongly convex συναρτήσεις, Be the Regularized Leader και regret ανάλυση του Follow the Regularized Leader στη γενική περίπτωση του Online Convex Optimization, Online Gradient Descent, ανάλυση για convex και strongly convex συναρτήσεις, Stochastic Gradient Descent, ανάλυση με αναγωγή στην ανάλυση της Online Gradient Descent.
- Προτεινόμενη μελέτη:
- Διαφάνειες (set1 και set2).
- Κεφάλαια 12, 13 και 14 από Understanding Machine Learning.
- Σημειώσεις Β. Συργκάνη (δείτε μόνο το πρώτο μέρος).
- Ενότητες 2.1 και 2.2, και κεφάλαιο 3 από Online Convex Optimization.
- Δείτε ακόμη τις διαφάνειες Shalev-Shwartz (διαφ. 1-23) για τον ρόλος του regularization στη βελτιστοποίηση υποθέσεων στο Machine Learning και τις διαφάνειες Shalev-Shwartz για μια πιο λεπτομερή παρουσίαση της Stochastic Gradient Descent και των εφαρμογών της στο Machine Learning.
- Διάλεξη 23/5/2022: Επανάληψη ανάλυσης της Stochastic Gradient Descent, εφαρμογή της SGD σε ελαχιστοποίησης log-likelihood για την εκμάθηση μέσης τιμής κανονικής κατανομής και παραμέτρου Bernoulli κατανομής, σύντομη εισαγωγή σε multi-armed bandits.
- Προτεινόμενη μελέτη:
- Διαφάνειες Γ. Παναγέα για εφαρμογές SGD και multi-armed bandits (set1 και set2).
- Σημειώσεις Γ. Παναγέα για Gradient Descent και Stochastic Gradient Descent και multi-armed bandits .
- Διάλεξη 30/5/2022: Εκμάθηση κατανομών, total variation distance και Kullback–Leibler divergence, log-likelihood για πολυδιάστατες κανονικές κατανομές, δειγματική πολυπλοκότητα εκμάθησης πολυδιάστατων κανονικών κατανομών, κατανομές κατάταξης, εκμάθηση Mallows κατανομών, εκμάθηση κανονικών κατανομών από coarse δείγματα, restricted Boltzmann machines.
- Διάλεξη 6/6/2022 από Παναγιώτη Μερτικόπουλο: From Convex Optimization to Learning in Games.
-
- Θα ανακοινωθούν δύο (2) σειρές γραπτών ασκήσεων.
- Οι γραπτές ασκήσεις υποβάλλονται στη σελίδα του μαθήματος, στο helios. Δεν γίνεται δεκτή η παράδοση ασκήσεων με e-mail.
Εκφωνήσεις Γραπτών Ασκήσεων
- 1η σειρά γραπτών ασκήσεων. Προθεσμία υποβολής: 13/5/2022.
- 2η σειρά γραπτών ασκήσεων. Προθεσμία υποβολής: 4/7/2022.
-
Opened: Saturday, 16 July 2022, 12:00 AMDue: Sunday, 24 July 2022, 11:59 PM