Uczenie maszynowe

wykład: czwartki, 15:15--16:45, C-19/A.0.8;
laboratorium: dr Karol Szczypkowski, czwartki, 17:05--18:34, C-19/A.0.4.

Materiały
Pliki/linki używane na wykładzie
Zadania
Zadanie 1

regresja liniowa (0,5 punktu) oraz Ridge (metoda iteracyjna: 0,5 punktu).

Zadanie 2

zaimplementować sieć neuronową z dwoma (lub więcej, jeśli ktoś chce) gęstymi warstwami. Użyć jej np. do rozpoznawania ręcznie pisanych cyfr z bazy MNIST. Poeksperymentować z parametrami, które można zmieniać, np. wziąć różne wielkości pierwszej warstwy. (Zależnie od implementacji, można mieć tu mniej lub więcej możliwości, np. może da się dodać trzecią warstwę, a może nie).
Propozycje implementacyjne: wygodnym podstawowym bytem jest Warstwa, która powinna mieć możliwość propagacji w przód (mając dane wejściowe) oraz w tył (mając błędy z kolejnej warstwy, uaktualnia wagi i zwraca błędy dla następnej warstwy; dobrze jakoś pamiętać obliczenia wykonane w czasie propagacji w przód). W prostszej (ale wystarczającej) wersji, możemy dawać Warstwie pojedynczy wektor wejściowy, wtedy da się naturalnie zaimplementować 'online learning'. Dla implementacji 'batch learning' lepiej, żeby Warstwa mogła dostać wektor wektorów wejściowych, czyli macierz. Kolejny byt, Sieć, może wtedy składać się z wielu Warstw, i mieć metody 'fit' i 'predict'.
Baza z ręcznie pisanymi cyframi: można użyć plików mnist_loader.py oraz mnist.pkl.gz z tego repozytorium. Proszę przeczytać dokumentację w pliku mnist_loader.py, żeby się dowiedzieć, jak (łatwo) się tego używa.

Zadanie 3

Poeksperymentować z sieciami splotowymi, np. przy użyciu biblioteki Keras lub PyTorch.

Zasady zaliczania
up