1. Test t-Studenta dla powtarzanych pomiarów.
Nomeklatura. Założenia testu, jakie dane mogą być wykorzystane.
Statystyka testowa i jej postać. Jak uzyskiwana jest wartość statystyki testowej. Jakie jest rozkład statystyki testowej? Wielkość efektu dla schematu dwóch grup zależnych.
2. Jednoczynnikowa analiza wariancji.
Nomenklatura. Czynnik i zmienna zależna.
Wymagania odnośnie danych (jakie warunki powinny spełniać, aby można było zastosować ANOVA)
Test F (wykorzystywany w ANOVA). Statystyka testowa testu F. Co oznacza zmienność wewnątrz i międzygrupowa. Jak obliczana jest statystyka testowa. Jakie wartości wskazują na to, że czynnik różnicuje średnie zmiennej zależnej. Na podstawie jakiego rozkładu jest obliczana p-wartość (istotność statystyczna). Jak wygląda rozkład statystyki F-Snedecora. Stopnie swobody i co one oznaczają.
Wielkość efektu w teście ANOVA, co oznacza, jaką informację podaje. Progi według Cohena,
Kontynuacja analizy ANOVA – testy post-hoc. Wielkości efektu dla testów post-hoc oraz dla kontrastów. Nieparametryczny test Kruskalla Wallisa – kiedy możemy uznać go za odpowiednik?
3. Regresja liniowa prosta i wielokrotna.
Związki korelacji z analizą regresji. Różnica między nimi.
Założenia modelu regresji – jakich zmiennych możemy użyć? Jaki związek powinien je łączyć?
Analiza regresji prostej (jednozmiennowej)
Nomenklatura – regresja; zmienna zależna i zmienna niezależna; predyktor; zmienna wyjaśniana/objaśniana, zmienna objaśniajaca/wyjaśniająca; kombinacja liniowa; reszty regresji; notacja wartości przewidywanej
Na czym polega przewidywanie? Jak to zrobić?
Interpretacja współczynników regresji, standaryzowanych i niestandaryzowanych,
Analiza regresji jako model statystyczny – założenia modelu, współczynniki regresji (interpretacja)
Zapis wyników regresji zgodnie z APA. Diagnostyka modelu regresji - Co ma mieć rozkład normalny? Zmienna zależna, niezależna, coś innego?
R kwadrat skorygowane, zmienność wyjaśniana, Testy istotności statystycznej współczynników regresji.
4. Eksploracyjna analiza czynnikowa
Nomenklatura. Co to są zmienne obserwowalne, a co to są zmienne ukryte? Metody ekstrakcji czynnika. Macierz korelacji i macierz sferyczna. Testowanie założeń: test Bartletta. Miara KMO. Wyznacznik macierzy korelacji - jaką liczbą może być wyznacznik macierzy? Co znaczy E w notacji pod tabelką macierzy korelacji?
Wartości własne macierzy korelacji - jaką liczbą może być wartość własna?
Wykres osypiska – budowa (co jest na osi poziomej a co na osi pionowej). Jak wygląda wykres osypiska, a jak nie może wyglądać?
Kryteria określania liczby czynników (na podstawie procentu wyjaśnionej zmienności, kryterium Catella/wykresu osypiska i kryterium Kaisera)
Rotacja - do czego służy różnica i jakie są rodzaje
Ładunki czynnikowe i ładunki krzyżowe - ich interpretacja i wybór pozycji kwestionariusza do ostatecznej wersji.
5. Metody bootstrapowe.
Co to jest i do czego służy? Schemat losowania ze zwracaniem i bez zwracania. Liczba elementów w próbie bootstrapowej.
6. Analiza mocy - co to jest i do czego służy? Błąd I-go, II-go rodzaju, wielkość efektu i wielkość próby - relacje między nimi. Zależność mocy testu od wielkości efektu i wielkości próby. Klątwa zwycięzcy (winner's curse) i nadistotność statystyczna (overpowered studies) oraz ich konsekwencje dla literatury naukowej.
|