Uczenie maszynowe, algorytmy i systemy datamining
Informacje ogólne
Kod przedmiotu: | 0800-UMASZ |
Kod Erasmus / ISCED: |
(brak danych)
/
(0618) Interdyscyplinarne programy i kwalifikacje związane z technologiami informacyjno-komunikacyjnymi
|
Nazwa przedmiotu: | Uczenie maszynowe, algorytmy i systemy datamining |
Jednostka: | Wydział Fizyki, Astronomii i Informatyki Stosowanej |
Grupy: |
Informatyka Stosowana s2. Przedmioty do wyboru specjalistyczne (wszystkie) |
Punkty ECTS i inne: |
5.00
|
Język prowadzenia: | polski |
Wymagania wstępne: | Analiza matematyczna, Algebra. Algorytmy i struktury danych. Języki programowania. Programowanie obiektowe. |
Rodzaj przedmiotu: | przedmiot fakultatywny |
Całkowity nakład pracy studenta: | 30 h - wykład 30 h - laboratorium 90 h - praca indywidualna Razem: 150 h (5ECTS) |
Efekty uczenia się - wiedza: | Rozumie typy problemów uczenia maszynowego i data mining. Poznaje metody analizy poprawności tworzenia modeli. Wiedza z zakresu metod dyskryminacji liniowej i nieliniowej. Wiedza z zakresu metod regresji liniowej i nieliniowej. Wiedza z zakresów systemów data mining. Wiedza z zakresu metod klasteryzacji, selekcji prototypów i cech. Rozumie zagrożenia stosowanie błędnych rozwiązań uczenia maszynowego. K 1, 2, 3, 5, 6, 7 |
Efekty uczenia się - umiejętności: | Umie zrozumieć zadanie jako problem uczenia maszynowego. Rozróżnia typy problemów uczenia maszynowego. Umie posłużyć się podstawowymi modelami dyskryminacji i regresji, liniowej i nieliniowej. Umiejętność posługiwania sie klasyfikatorami i klasteryzacją. Rozumie zagrożenia złego użycia metod. Potrafi posłużyć się systemem data mining. Potrafi pogłębić wiedzę na podstawie zewnętrznej wiedzy naukowej. Potrafi zweryfikować hipotezy uczenia maszynowego. Umie używać miar błędów związanych z testowaniem procesu uczenia maszynowego. U 1, 2, 3, 4, 5, 8, 11 |
Efekty uczenia się - kompetencje społeczne: | Potrafi wykorzystać wiedzę i umiejętności z zakresu tematycznego przedmiotu w zastosowaniu do problemów społeczeństwa. Rozumie konsekwencje etyczne działania systemów uczenia maszynowego. Umie ocenić jakość zbudowanych rozwiązań uczenia maszynowego K 1, 2, 3 |
Metody dydaktyczne: | Wykład: prezentacja materiału i problemów, dyskusja Ćwiczenia: omawianie zagadnień i ich analiza, wspólne i indywidualne rozwiązywanie zadań. Analiza przypadków. Częściowo praca grupowa. Laboratoria: Nacisk na indywidualne i grupowe rozwiązywanie problemów + pomoc eksperta. Dyskusja nad przykładami rozwiązań. |
Metody dydaktyczne eksponujące: | - pokaz |
Metody dydaktyczne podające: | - wykład problemowy |
Metody dydaktyczne poszukujące: | - ćwiczeniowa |
Metody dydaktyczne w kształceniu online: | - metody ewaluacyjne |
Skrócony opis: |
Przedmiot wprowadza w dziedzinę uczenia maszynowego i datamining. Można poznać szereg algorytmów, które służą do zaawansowanej analizy danych różnego typu. Można także zapoznać się z różnymi środowiskami data mining gotowymi do użycia. Studenci uczą się implementować algorytmy uczenia maszynowego. |
Pełny opis: |
Wykład i laboratorium dotyczą następujących zagadnień: 1. Charakterystyka problemów podejmowanych przez uczenie maszynowe i data mining 2. Algorytmy uczące się, czym są? 3. Typy uczenia się. Uczenie się z danych i problemy związane z danymi. 4. Algorytmy liniowej dyskryminacji. 5. Algorytmy regresji. 6. Algorytmy ML i algorytmy uczenia Baysowskiego 7. Metoda okien Parzena lub sieć NRBF 8. Metoda kNN i jego odmiany 9. Algorytmy drzew decyzyjnych 10. Algorytm SVM 11. Algorytmy komitetowe 12. Metody selekcji informacji 13. Metody klasteryzacji 14. Metodologia testowania efektywności procesu uczenia algorytmów 15. Meta-uczenie 16. Analiza systemów data mining. 17. Metodologia posługiwania się narzędziami data mining. |
Literatura: |
1. Duda, Hart, Stork, Pattern Classification, Wiley, 2001 2. D. Larose, Odkrywanie wiedzy z danych, PWN, 2006 3. T. Mitchell. Machine learning. McGraw Hill, 1997. 4. T. Hastie, R. Tibshirani, and J. Friedman. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Springer Series in Statistics. Springer, 2001. 5. V. Vapnik, The Nature of Statistical Learning Theory, Springer, 1995 6. B. Schoelkopf and A. Smola, Learning with Kernels, MIT, 2002 7. I. Guyon, S Gun, M. Nikravesh, L Zadeh ed., Feature extraction, foundations and Applications, Springer, 2006 8. N. Jankowski, Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę, Exit, 2003 9. V. Cherkassky and F. Mulier, Learning from data, Wiley, 1998 |
Metody i kryteria oceniania: |
LAB: na zaliczenie ma wpływ przede wszystkim realizacja projektów, prezentacja projektów programistycznych i prezentacje seminaryjna, a także przygotowanie do zajęć i aktywność na zajęciach. EGZAMIN: Pisemny lub poprzez efekty pracy na laboratorium. Powyższe metody oceny weryfikują zakres programu jak i efekty kształcenia opisane powyżej. O wyborze wersji egzaminu decyduje prowadzący zajęcia. W przypadku wersji pisemnej: minimum 50%, poniżej 2.0, od 50% (3.0), ocena skalowana liniowo do 5.0. W pracy bieżącej, na kolokwiach, na laboratoriach i egzaminie weryfikuje się wszystkie efekty uczenia się: wiedzy, umiejętności i kompetencje społeczne. |
Zajęcia w cyklu "Semestr zimowy 2022/23" (zakończony)
Okres: | 2022-10-01 - 2023-02-19 |
Przejdź do planu
PN WT ŚR LAB
CZ PT WYK
|
Typ zajęć: |
Laboratorium, 30 godzin
Wykład, 30 godzin
|
|
Koordynatorzy: | Norbert Jankowski | |
Prowadzący grup: | Norbert Jankowski, Rafał Linowiecki | |
Lista studentów: | (nie masz dostępu) | |
Zaliczenie: |
Przedmiot -
Egzamin
Laboratorium - Zaliczenie na ocenę Wykład - Egzamin |
Zajęcia w cyklu "Semestr zimowy 2023/24" (zakończony)
Okres: | 2023-10-01 - 2024-02-19 |
Przejdź do planu
PN WYK
LAB
WT ŚR CZ PT |
Typ zajęć: |
Laboratorium, 30 godzin
Wykład, 30 godzin
|
|
Koordynatorzy: | Norbert Jankowski | |
Prowadzący grup: | Norbert Jankowski, Rafał Linowiecki | |
Lista studentów: | (nie masz dostępu) | |
Zaliczenie: |
Przedmiot -
Egzamin
Laboratorium - Zaliczenie na ocenę Wykład - Egzamin |
Właścicielem praw autorskich jest Uniwersytet Mikołaja Kopernika w Toruniu.