Uczenie maszynowe
Materiały
- Można obejrzeć przynajmniej pierwsze dwa filmy z Neural networks by 3blue1brown.
- Spora część wykładu będzie wg książki An Introduction to Statistical Learning with Applications in R, Gareth James, Daniela Witten, Trevor Hastie i Robert Tibshirani. Pierwsze wydanie jest dostępne za darmo w formie pdf.
Zadania
Zadanie1: regresja liniowa (0,5 punktu) oraz Ridge (metoda iteracyjna: 0,5 punktu; ze wzoru: 0,25 punktu). Termin oddania: do 14 marca (dokładniej, do północy 14/15 marca).
Zadanie 2:
zaimplementować sieć neuronową z dwoma (lub więcej, jeśli ktoś chce) gęstymi warstwami.
Użyć jej do rozpoznawania ręcznie pisanych cyfr z bazy MNIST.
Poeksperymentować z parametrami, które można zmieniać, np. wziąć różne wielkości pierwszej warstwy.
(Zależnie od implementacji, można mieć tu mniej lub więcej możliwości, np. może da się dodać trzecią warstwę, a może nie).
Termin oddania: do 25 kwietnia (dokładniej, do północy 25/26 kwietnia).
Propozycje implementacyjne: wygodnym podstawowym bytem jest Warstwa, która powinna mieć możliwość propagacji w przód (mając dane wejściowe)
oraz w tył (mając błędy z kolejnej warstwy, uaktualnia wagi i zwraca błędy dla następnej warstwy; dobrze jakoś pamiętać obliczenia wykonane w czasie propagacji w przód).
W prostszej (ale wystarczającej) wersji, możemy dawać Warstwie pojedynczy wektor wejściowy, wtedy da się naturalnie zaimplementować 'online learning'.
Dla implementacji 'batch learning' lepiej, żeby Warstwa mogła dostać wektor wektorów wejściowych, czyli macierz.
Kolejny byt, Sieć, może wtedy składać się z wielu Warstw, i mieć metody 'fit' i 'predict'.
Baza z ręcznie pisanymi cyframi:
można użyć plików mnist_loader.py oraz mnist.pkl.gz z tego
repozytorium. Proszę przeczytać dokumentację w pliku mnist_loader.py, żeby się dowiedzieć, jak (łatwo) się tego używa.
Zadanie 3: do 9 maja; dane.
Zadanie 4: do 23 maja; dane. Do wyboru, k-means lub SVM. W zadaniu 3 lub 4 należy wybrać dane wymagające pewnej obróbki.
Zadanie 5: do 13 czerwca. Zob. wykład z 20 maja.
Wykłady
- notatki z 4 marca zabawa z numpy
- notatki z 11 marca programik do prostych sieci
- notatki z 18 marca przykład uczenia sieci
- notatki z 25 marca Universality Theorem
- notatki z 8 kwietnia programik z zajęć i wygenerowane przez niego wykresy
- notatki z 15 kwietnia
- notatki z 22 kwietnia
- notatki z 29 kwietnia programik z zajęć wzięty z dokumentacji
- notatki z 6 maja
- notatki z 13 maja programik z zajęć i wykres
- notatki z 20 maja (fragment) przykładowy programik
-
notatki z 27 maja
rachunek dla squeeze net -- errata: 3*3*64*128 = 73728,
a więc różnica jest znacząca, jednak nie aż tak duża jak to zostało przedstawione.
Linki: Dark Forest, plik caffe SquuezeNet, artykuł Visualizing and Understanding Convolutional Networks, Matthew D. Zeiler, Rob Fergus. - notatki z 2 czerwca
- notatki z 10 czerwca programik z zajęć.
Zasady zaliczania:
- Będzie co najmniej 5 zadań na laboratoria, każde za 0-1 punkt. Spóźnienie w oddawaniu powoduje przemnożenie oceny za zadanie przez (1 - 0.1 * opóźnienie w tygodniach).
- Na koniec będzie kolokwium (=rozmowa, pojedynczo z każdym). Przed kolokwium otrzymają Państwo listę metod (omówionych na wykładzie), których znajomość obowiązuje na kolokwium. Student zaznacza, które metody umie omówić. Następnie otrzymuje pytania tylko z zaznaczonych przez siebie metod i za odpowiedzi otrzymuję ocenę p w skali 0-1; liczba punktów z kolokwium to p*(0,2 + (liczba zaznaczonych metod / liczba wszystkich metod)). Jeśli okaże się, że któraś z metod została zaznaczona nieuczciwie, to student otrzymuje 0 punktów z kolokwium i ocenę ndst.
- Do otrzymania oceny pozytywnej potrzeba i wystarcza: zdobyć co najmniej 2,5 punktu, w tym przynajmniej 0,5 z kolokwium. Minimalne progi z kolokwium na kolejne oceny (od dst do bdb) to: 0,5; 0,575; 0,65; 0,725; 0,8, a minimalne łączne liczby punktów: 2,5; 3,25; 3,75; 4,25; 4.75. Czyli np. aby otrzymać 4+, wystarczy zdobyc co najmniej 4,25 punktu łącznie, w tym co najmniej 0,725 z kolokwium.