Rozszerzenia algorytmu stochastycznego spadku wzdłuż gradientu: momentum, Nesterov Accelerated Gradient (NAG), Adaptive Gradient (AdaGrad), RMSProp, Adaptive Moment Estimation (Adam)
Opis i materiały dydaktyczneOptymalizacja w kierunkach własnych, metoda gradientów sprzężonych Polaka-Ribiere’a i Fletchera-Reevesa, funkcje wypukłe.
Opis i materiały dydaktyczneMetoda Newtona, przybliżenie kwadratowe funkcji, metoda Newtona-Raphsona, hesjan, metoda Levenberga-Marquardta
Opis i materiały dydaktyczneAlgorytm spadku wzdłuż gradientu, algorytm stochastycznego spadku wzdłuż gradientu, mini-batch, dobór prędkości optymalizacji, sprawdzanie numeryczne gradientu
Opis i materiały dydaktyczneOptymalizacja w wielu wymiarach, forma kwadratowa, algorytm Gaussa-Seidela, metoda najszybszego spadku wzdłuż gradientu, wektory własne.
Opis i materiały dydaktyczneAlgorytm przeszukiwania jednostajnego, losowego, dychotomizacji, bisekcji. Funkcje wielowymiarowe, pochodna, gradient.
Opis i materiały dydaktyczneWprowadzenie do optymalizacji ciągłej, zastosowania optymalizacji ciągłej, funkcje wielowymiarowe, rodzaje problemów optymalizacyjnych, biblioteka cvxopt, informacje organizacyjne.
Opis i materiały dydaktyczne