Zamiast SPSS

Wreszcie napotkałem program statystyczny, który łączy to co najlepsze z kilku źródeł – JAMOVI i jest dopasowany zarówno do początkujących jak i umożliwia dodawanie własnych analiz bardziej zaawansowanym.

Wystarczy studentom i nie ogranicza naukowców. Nic tylko wykrzyknąć hura! i zainstalować 🙂 No i jest: 1) darmowy, 2) otwarty z błyskawicznym wsparciem przez forum lub twittera.

Wersja 8.0.2 pokrywa większość potrzeb studentów naszego Instytutu, łącznie z  analizą czynnikową oraz analizą rzetelności. Można też edytować dane bezpośrednio w programie, ale jak wskaże się plik excela to edycja „tam” odświeża wyniki w programie!

Korekta Holm’a dla wielu porównań post hoc w teście nieparametrycznym

Analiza różnic w przypadku wielokrotnych porównań, gdy wykorzystujemy analizę waraincji jest dosyć prosta w SPSS i sprowadza się do wybrania z listy dostępnych korekt (Jaki wybrać test post hoc w analizie wariancji?). Często jednak zmienna zależna nie ma rozkładu normalnego, a grupy różnią się liczebnością i zmuszeni jesteśmy używać testu nieparametrycznego H Kruskala-Wallisa. Jeśli używamy do analiz IBM SPSS Statistics to od kilku wersji w kreatorze przeprowadzana jest taka korekta (nie wiadomo jaka, ale jest) dla testu Dunna (porównania parami), której wyniki dostępne są w raporcie „pod obrazkiem” (należy kliknąć dwukrotnie w tabelę z wynikiem testu H):

image

Jeśli jednak ktoś nie lubi SPSS 😉 lub chciałby zastosować poprawkę Holm’a (Holm, S. 1979. “A simple sequentially rejective multiple test procedure”. Scandinavian Journal of Statistics. 6: 65–70) dokonując wielokrotnych porównań testem nieparametrycznym to może skorzystać z poniższego pliku w arkuszu kalkulacyjnym (.ods.xlsx.numbers). Wystarczy wpisać uporządkowane rosnąco istotności uzyskane np. w testach U Manna-Whitneya lub Wilcoxona i odczytać skorygowaną wartość p.

Jeżeli ktoś używa R to wystarczy skorzystać z pakietu dunn.test, który oprócz porównań wylicza skorygowane p do wyboru wg Bonferroniego, Holma, Sidak’a, Hochberga i innych.

Jaki rodzaj testu do tabeli krzyżowej?

W przypadku badania relacji między dwoma zmiennymi kategorialnymi najpopularniejszym sposobem zbadania istotności tej relacji jest użycie testu Chi2. Ale nie w każdej sytuacji test ten jest najlepszy (czyt. najbardziej rzetelny). Mam nadzieję, że tabela poniżej rozwieje wątpliwości i pozwoli dobierać testy prawidłowo do posiadanych danych.

Liczebności obserwowane Liczebności oczekiwane Rodzaj testu
N > 40 wszystkie > 10 test chi2
N > 40 jedna < 10 V-Cramera
N > 40 jedna < 5 test chi2 z poprawką Yatesa
20 < N <= 40 wszystkie > 5
20 < N <= 40 jedna < 5 test dokładny Fishera
N <= 20

Dla siły związku prostsza tabela, ale tutaj uzależniamy wybór od stosunku ilości kolumn i wierszy w tabeli krzyżowej

Wiersze Kolumny Rodzaj testu
2 2 phi Yule’a
>=2 >=2 V-Cramera
>=2 >=2 tau Kendalla *
m m tau-b Kendalla *

* – dane porządkowe

Co mnie wkurza w SPSS?

Mam już trochę dość. PRogram wyceniony (specjalnie nie piszę wart) na taką kwotę za jaką roczną licencję kupuje moja Uczelnia powinien działać lepiej! Skandaliczny czas uruchamiania na najnowszych komputerach (3,5 minuty na najnowszym maku? litości! Często w międzyczasie zdążę odpalić PSPP, policzyć i zamknąć), tworzenie swoich katalogów mimo odznaczenia tego w opcjach, znikanie ikonek na belkach, otwieranie raportu w zmaksymalizowanym oknie, ignorowanie ustawień opcji dotyczących raportów oraz zawieszanie się. To są bolączki wersji beta, a nie programu, który obecną wersję aktualizował już z 3 razy. Pomyślałem jednak, że może ludzie w IBM/SPSS tego nie wiedzą, że ich program działa jak … (wstawić dowolne słowo – ja mam niestety na końcu języka same obraźliwe). Stąd pomysł na petycję – opiszmy błędy i zgłośmy do firmy z prośbą o usunięcie. W najgorszym wypadku tego nie zrobią, a wtedy są inne programy – często darmowe, a te kilkadziesiąt tysięcy Uczelnia przeznaczy na coś pożyteczniejszego. Otwieram listę:

  1. Czas otwierania się programu [update: rozmowa z PredictiveSolutions pozwoliła zdefiniować problem po stronie mojego komputera, lecz nadal nie wiadomo jak go rozwiązać]
  2. Gubienie niektórych opcji z ustawień (lokalizacja plików roboczych, polecenia w raporcie)
  3. Znikanie ikonek wraz z paskami narzędziowymi
  4. Zawieszanie się przy próbie skorzystania z pomocy
  5. Aby wpisać nazwę zmiennej trzeba kliknąć trzy razy: wskazać komórkę, zaznaczyć zawartość, napisać. Krok 2 jest niepotrzebny
  6. Zmiana kolejności zmiennych wymaga ciągłego machania myszką – po dojechaniu na początek SPSS nie raczy przesuwać listy zmiennych
  7. Często zawodzą skróty CTRL+C, CTRL+V – trzeba korzystać z menu Edycja
  8. W testach nieparametrycznych trzeba zmieniać poziom pomiaru zmiennej na ilościowy, aby program nie twierdził „Nie można obliczyć”
  9. Tłumaczenie! Nowe oznaczenia na rozkład F, „ist.” zamiast „p”, itd.

 

Proszę pisać do mnie lub zostawiać uwagi w komentarzach a ja to zbiorę i wyślę do odpowiedzialnych w firmie IBM/SPSS

 

Czy jest jakaś alternatywa? Tak: tutaj.

AD. 3:

Na Mac’u wystarczy w terminalu użyć:
killall -u {CURRENT_USER} cfprefsd
rm -fR ~/Library/Preferences/com.ibm.spss.plist

Obliczenia statystyczne on-line

W siecie jest wiele ciekawych stron z gotowymi kalkulatorami statystycznymi. Podejrzewam, że jakby dobrze poszukać to całą statystykę można policzyć on-line. Spróbuję to udowodnić gromadząc tutaj linki do takich stron:


Adres: SocialStatistics.com

Poziom istotności do powyższych: Quick P Value Calculators


Adres: Statistics Calculators  – 104 kalkulatory. Z ciekawszych:


Adres: EasyCalculation.com – cała masa kalulatorów, statystyczne to tylko jeden z działów. Ciekawsze:


Adres: Vassarstats.net – Aplety są starannie zrobione i jest ich dużo, w tym trudno znajdowalne gdzie indziej
(np. dokładny test Fischera, który wymaga dużych mocy obliczeniowych). Do tego jest też przystępny podręcznik online [zgłoszone przez prof. Robert Lew – dziękuję]


Adres: Simple Interactive Statistical Analysis – oprócz tradycyjnych testów wiele przydatnych procedur:

 

Analiza czynnikowa – kiedy i jak?

Analiza czynnikowa jest jednym z popularnych sposobów redukcji zmiennych, stosowanym np. w sytuacji wybierania najlepszyszych pozycji testowych do kwestionariusza, lub przy badaniu trafności teoretycznej narzędzi.
Niestety w SPSS domyślnie ustawienia pod hasłem Analiza Czynnikowa (Factor Analysis) wskazują na Analizę Głównych Składowych (Principal Components), która została opracowana w czasach, gdy komputery były drogie, powolne i trudno dostępne (z dzisiejszego punktu widzenia ;-).

Różnica między tymi analizami polega na tym, że PCA wyznacza czynniki tylko w oparciu o wspólną wariancję poszczególnych pozycji testowych, zaś EFA (E to exploratory, jest jeszcze odmiana konfirmacyjna, z narzucone odgórnie strukturą czynników: CFA) uwzględnia zarówno wariancję wspólna jak i swoistą dla każdej pozycji testowej.

Użycie FA jest jednak trudniejsze ze względu na mnogość metod estymacji dostępnych w programach statystycznych, gdy dla PCA jest tylko jedna. Generalna zasada mówi o tym, że jeżeli spełniony jest warunek normalności rozkładu dla danych, to najlepsza jest metoda największego prawdopodobieństwa (ML – maximum lilelihood), natomiast przy nie spełnianiu tego założenia przez dane metoda głównych osi (PAF – principal axis factors).

Jeśli chodzi o ilość czynników to decyzję najlepiej podjąć na podstawie wykresu osypiska. Znów domyślnie stosowana zasada wartości własnej większej lub równej 1 (tzw. kryterium Kraisera) jest najsłabszym możliwym wyznacznikiem. Jeśli oba kryteria wskazują na inną liczbę czynników, to warto porównać tabele z ładunkami czynnikowymi po rotacji dla obu rozwiązań. Ten przypadek, w którym jest mniej „bałaganu” (niskie wartości, pozycje ładujące kilka czynników (>.32), czynniki z 3 lub mniej pozycjami) jest lepszym rozwiązaniem.

Kolejną decyzją, którą się podejmuje podczas używania EFA jest wybór metody rotacji. Wybór opiera się na decyzji, czy oczekiwane czynniki będą skorelowane (oblimin, quartimin, promax), czy też nie (varimax, quartimax, eqiamax). Warto pamiętać, że rotacja eqiamax preferuje wyróżnienie jednego czynnika, kosztem pozostałych, natomiast varimax i oblimin są „sprawiedliwe” dla czynników.

A poniżej nagranie z ekranu jak wygląda analiza czynnikowa w SPSS:

Jeśli nie SPSS to co? [update]

Dodano: 2017-01-13

Jeśli ktoś z użytkowników SPSS nie boi się angielskich poleceń i potrzebuje podstwowych analiz (statystyka opisowa, różnice, analiza wariancji, korelacja i regresja, analiza czynnikowa) to polecam JASP – program wzorowany na SPSS (autorzy piszą, że tak powinien wyglądać SPSS ;-).

Program jest rozwojowy, tworzony przez środowisko akademickie. Oprócz podejścia częstościowego do statystyki jest też implementowane podejście Bayesowskie. Polecam!

Jeszcze wygodniejszy jest jego brat bliźniak (bez Bayesa, ale za to z modułami nieparametrycznymi) JAMOVI – to program tworzony przez tych samych autorów z celem zdefiniowanym jako: zastąpić SPSS na uczelniach wyższych.


 

 

W linkach podana jest strona z zestawieniem darmowego oprogramowania statystycznego. Ale najładniejszy (na 2013 😉 soft jaki znalazłem to SOFA – Statistics Open For All. Program młody, lecz ciągle rozwijany. Wersja bieżąca (1.3.3) pokrywa 75% potrzeb studentów psychologii i kognitywistyki. W programie są ładne wykresy, wszystkie statystyki opisowe, import z GoogleDocs oraz pomoc w wyborze testów. A wszystko w ładnej oprawie na licencji AGPL3.

Ponieważ nie ma [jeszcze] polskiej wersji zabieram się za tłumaczenie. Wszystkich chętnych zapraszam na stronę SOFA

Bardziej tradycyjny, darmowy, uproszczony SPSS pod nazwą PSPP jest do ściągnięcia tutaj (Linux, Windows, OS X).

Inne  darmowe pakiety statystyczne lub programy można znaleźć tutaj oraz tutaj a jak ktoś nie chce nic instalować może dokonać prostych analiz bezpośrednio na www w StatCrunch [instrukcje wideo].

Osoby lubiące i znające Excela będą zachwycone dodatkiem Real Statistics Using Excel, w którym jest zaimplementowana duża liczba funkcji statystycznych (przy okazji polecam też stronę tego dodatku jako źródło informacji).

 

Metaanaliza

Metaanaliza jest dosyć prostym sposobem na empiryczny przegląd literatury, ale wymagającym wiedzy na temat wielkości efektów (warto zajrzeć na stronę z ich kalkulatorami). Mając dobry plan i postępując według procedur można rozstrzygnąć w sposób empiryczny wiele dyskusji w stylu „terapia działa vs. nie działa

Ponieważ pełna instrukcja jak zrobić metaanalizę nadaje się na książkę (i są one już napisane ;-), a nie wpis na blogu ograniczę ją do podstawowych informacji.

Po pierwsze plan:

  • 1. Zdefiniowanie tematu przeglądu.
  • 2. Określenie źródeł w których można zapoznać się z opublikowanymi i nie opublikowanymi wynikami badań.
  • 3. Wybranie wszystkich artykułów związanych z tematem przeglądu.
  • 4. Sporządzenie wyciągu z niezbędnymi statystykami, ujętymi w odpowiednich tabelach.
  • 5. Zdefiniowanie procedury metaanalizy.
  • 6. Zbadanie homogeniczności wyników badań (np funnel-plot).
  • 7. Sporządzenie zestawień wyników, np. w postaci graficznej (forest-plot).
  • 8. Zbadanie i redukcja w miarę możliwości heterogeniczności między badaniami.
  • 9. Obliczenie odpowiedniego współczynnika wielkości efektu (efect size).
  • 10. Analiza wariancji wielkości efektu w zależności od kryteriów doboru badań.

Każdy etap jest ważny i warto poświęcić mu odpowiednią ilość czasu.

Przy obliczaniu wielkości efektu przydatne będą te podstawowe wzory

 

Natomiast do badania heterogeniczności i wyboru modelu (stały vs. losowy) te:

Oczywiście najlepiej użyć jakiegoś pakietu statystycznego (polecam R-project i bibliotekę meta lub metafor) czy dodatku do excela, których jest bardzo dużo w internecie. Ale jeśli ktoś chce spróbować sił (a uważam, że warto) to można taką metaanalizę zrobić samemu w arkuszu kalkulacyjnym. Na dowód: metaanaliza praktycznie przykład.xls

Literatura:

  • Hedges, L. V., Olkin, I. (1985). Statistical methods for meta-analisys. London: Academic Press.
  • Rosenthal, R. (1995). Writing meta-analytic rewiews. Psychological Bulletin, 118, 183-192.
  • Kleka, P. (2011). Statystyczne kryteria przydatności raportu z badań do metaanalizy. W: Jerzy Marian Brzeziński, (red.), Metodologia badań społecznych. Wybór tekstów. Poznań: Zysk i S-ka Wydawnictwo.

 

 

Restrukturyzacja zmiennych niezależnych na zależne w SPSS

Czasami dostaniemy, czasami wpiszemy dane w ten sposób, że powtarzając liczbę porządkową umieszczamy dane z kolejnych pomiarów jeden pod drugim. Nie ma w tym nic złego, ale SPSS wymaga do testów dla danych zależnych wpisania wyników w kolejnych kolumnach, a nie pod spodem. Zamiast przepisywać wszsytko można skorzystac z polecenia Restrukturyzuj dane w menu Dane. Po uruchomieniu kreatora i odpowiedzeniu na kilka pytań dane zmienią swój układ.

Przekształcenia sa możliwe w obydwu kierunkach. Warunkiem poprawnego działanie tej operacji jest bezbłednie zakodowana lp obserwacji i lp badania.

Wielkość efektu w analizie wariancji

SPSS jest bardzo ubogi jeśli chodzi o obliczanie wielkości efektu (czyli obiektywnej miary na ile wynik jest ważny, gdy już jest istotny). Ze wszystkich analiz można uzyskać taki wynik tylko dla analizy wariancji i to pod warunkiem, że użyjemy „Analizy wariancji jednej zmiennej” (a nie porównywanie średnich -> jednoczynnikowa ANOVA).

A więc klikamy: Analiza -> Ogólny model liniowy -> Analiza wariancji jednej zmiennej i zaznaczamy jak na rysunku:

Jeśli ktoś chce wiedzieć więcej o obliczaniu wielkości efektów, proszę zostawić komentarz lub napisać do mnie.

SPSS dla opornych

Tym linkiem zapoczątkowuję zbiór ciekawych stron i dokumentów obecnych w sieci, dzięki którym osoby zaczynające przygodę z SPSSem (najgorszym i jednocześnie najprostszym programem statystycznym 😉 będą mogły zredukować poziom niewiedzy. Istotnie zredukować.

Mam nadzieję, że zbiór wyczerpie tematy poruszane cyklicznie przez studentów i nie tylko, a sprowadzające się co odwiecznego pytania: JAK ZACZĄĆ?

Czy współczynnik korelacji w grupie A jest większy niż w grupie B?

Samo obliczenie współczynników korelacji w grupach (Dane -> podziel na podzbiory) nie wystarczy, aby powiedzieć, że między grupami jest różnica w związku między zmiennymi. Pewnym rozwiązaniem jest przeliczenie obu wskaźników na współczynnik determinacji – omega = r2*100%. Jeśli różnica między tymi współczynnikami przekracza 5%, warto się nad nimi „zatrzymać na dłużej”. Ale jeśli grupy są nierównoliczne, takie porównanie jest obciążone błędem, którego nie kontrolujemy.

Rozwiązaniem jest odwołanie się do transformacji Fishera i przeliczenia r -> z, a następnie skorzystanie z rozkładu normalnego do określenia istotności różnicy. Aby było łatwiej i nie trzeba było szukać tablic matematycznych tutaj link do strony z kalkulatorem.

Wpływ zmiennej na związek między zmiennymi (moderacja i mediacja)

Jest to ten szczególny przypadek, gdy słowa rozumiane potocznie mają inne znaczenie niż przyjęto rozumieć je w statystyce. Wyjaśniam więc różnicę między moderatorem a mediatorem.

Moderator to zmienna, której wartość decyduje o kierunku lub sile zasadniczej zależności. Obecność istotnego moderatora można sprawdzić wykorzystując analizę wariancji MANOVA.

Zasadniczą zależność obrazuje na rysunku strzałka A – istotność związku zasadniczych zmiennych 1 i 2 jest świadectwem istnienia podstawowej zależności. Świadectwem, że jakaś trzecia zmienna stanowi moderator tej zależności jest natomiast istotność strzałki C; nie ma przy tym znaczenia, czy zależność obrazowana strzałką B jest istotna, czy nie. W klasycznych kategoriach analizy wariancji dowodem na to, że zmienna 3 ma status moderatora związku zmiennych 1 i 2 jest istotna interakcja zmiennych 1 i 3 w wyznaczaniu natężenia 1-2 (ta ostatnia ma więc status zmiennej zależnej, podczas gdy 1 i 3 są w schemacie eksperymentu zmiennymi niezależnymi). Czytaj dalej Wpływ zmiennej na związek między zmiennymi (moderacja i mediacja)

Problemy z regresją liniową

Pojęcie analizy regresji jest pojęciem dosyć prostym, ale przysparza wiele kłopotów podczas prób zbudowania modelu za jego pomocą. Aby móc zastosować to podejście analityczne i otrzymać sensowne wyniki powinniśmy się odpowiednio przygotować, czyli przede wszystkim sprawdzić założenia dotyczace wymagań wobec danych:

  • Zmienne zależne i niezależna powinny być ilościowe, ewentualne zmienne jakościowe należy zakodować dychotomicznie (0-1).
  • Zmienna zależna powinna mieć rozkład normalny.
  • Relacje między zmienną zależną a niezależnymi (predyktorami) powinny być liniowe (por. kwadrat Anscombe’a).
  • Obserwacje winny być niezależne.

Czytaj dalej Problemy z regresją liniową

Czy wynik w grupie różni się od norm?

Jeżeli dysponujemy informacją o normach wyrażonych w stenach, tenach lub staninach, to aby sprawdzić czy wyniki naszej grupy odbiegają od średniej watro użyć testu t-Studenta dla jednej próby podając jako wartość testowaną średni wynik dla danej skali (odpowiednio: 5,5, 50 lub 5). Oczywiście po wystandaryzowaniu wyników własnych i zakładając normalność ich rozkładu.

Poniżej podpowiedź jak skonstruować z wyników ww skale standardowe. Czytaj dalej Czy wynik w grupie różni się od norm?

Jak obliczyć rzetelność testu?

Rzetelność skali daje nam informację na ile dany kwestionariusz ?mierzy to, co mierzy? – pisząc pracę naukową (a tym jest mgr) jesteśmy zoobowiązani do podania informacji o jakości narzędzi, które zostały użyte w badaniu. Tym bardziej jeśli je konstruujemy (drugim kryterium jest trafność – po więcej odsyłam do literatury). Najbardziej popularne wskaźniki to alfa Cronbacha i rzetelność połówkowa. Oba współczynniki obliczają uśredniony współczynnik korelacji między pytaniami w obrębie skali (Skalowanie -> Analiza rzetelności), dlatego też trzeba wpisać do SPSSa odpowiedzi na poszczególne pytania.

rzetelnosc

O ile wybranie opcji alfa Cronbacha zwraca jeden wynik, o tyle metoda połówkowa zwraca ich kilka – istotny jest ten ostateczny, ale obie połówki także powinny mieć zbliżone wartości. Wartości poniżej 0,5 wskazują na niską rzetelnosć, a powyżej 0,8 pozwalają twierdzić, że jest ona zadowalająca.

W przypadku, gdy chcemy sprawdzić sprawdzić „jakość” poszczególnych pozycji możemy zaznaczyć opcję obliczania współczynnika rzetelności przy usunięciu danej pozycji testowej. Niska korelacja i poprawa współczynnika alfa w stosunku do wyjściowego wyniku dla całej skali sugeruje niską rzetelność danej pozycji.

A jak obliczyć rzetelność dla całego kwestionariusza?

Jeśli wynik ogólny składa się z sumy podskal to elementem analizowanym będą właśnie podskale, a nie pytania.

Jak przygotować i/lub wpisać dane do SPSS?

W SPSS dla ułatwienia 😉 są dwie zakładki: DANE i ZMIENNE.
Nasze dane wpisujemy w zakładce pierwszej przestrzegając zasady, aby w jednym wierszu znalazły się wszystkie informacje o obserwacjach (osoby, pary, np. małżeństwa albo trener – zawodnik, rodziny, itp.). W ten sposób kolejne kolumny będą zapisem wartości jakie przyjmują zmienne. W drugiej zakładce można je dookreślić (dodać opisy wartości, przyporządkować poziom pomiaru – nie jest to konieczne i służy jako ułatwienie).
Często łatwiej jest wprowadzić do SPSS wartości odpowiedzi na poszczególne pytania, a potem obliczyć w programie (menu Przekształcenia -> Oblicz wartości) wartości wskaźników zmiennych.
W miarę możliwości należy kodować wszystkie informacje w sposób numeryczny.

Dane można przygotować np. w Calcu lub Excelu pamiętając o zasadzie: 1 wiersz = 1 obserwacja. Poniżej ilustracje jak nie należy i dobrze przygotowanych danych (na żółto sposób kodowania pytań wielokrotnego wyboru).

 

Więcej na temat przygotowania danych do analiz statystycznych można znaleźć tutaj.

Jak sprawdzić normalność rozkładu?

Aby upewnić się czy dany rozkład zmiennej ilościowej ma charakter normalny najłatwiej w SPSS sprawdzić jaka jest różnica między obserwowanym rozkładem a idealnym. W tym celu wybieramy: Analiza -> testy nieparametryczne -> K-S dla jednej próby i wskazujemy zmienną, która ma być poddana testowaniu. test KS

Wynik nieistotny (p > 0,05) pozwala nam przyjąć założenie, iż nasz obserwowany rozkład ma kształt normalny (jeśli sprawdzaliśmy właśnie normalność ;-).

Jak odczytać wynik w teście t-Studenta?

Korzystam z testu t dla prób niezależnych i mam problem z interpretacją (nie wiem co brać pod uwagę, czy F, czy t i którą istotność i jak analizować?

1. sprawdzamy założenia testu t-Studenta czyli równość wariancji

2. podejmujemy decyzję co do założeń
3. odczytujemy wartość testu t i jego istotność
t-test
Jako wynik w pracy wpisujemy tylko właściwy wynik statystyki t, np. dla powyższego: t = 0,726; df = 105; p = 0,470.

Wybór skal dla zmiennych, czyli nie wiem czy ma to być skala nominalna, czy ilorazowa? 

 

Najprościej zdecydować można o poziomie pomiarowym danej zmiennej porównując „trudną” zmienną do wzorca: czy przypomina płeć (zmienna nominalna), wykształcenie (zmienna porządkowa), wzrost (zmienna ilościowa). Można też spróbować narysować rozrzut wyników i po nim zorientować się co do skali zmiennej. Niestety te same zmienne można często traktować dwojako i stąd większość problemów. Bardzo ogólna zasada brzmi: 2-3 poziomy = nominalna, 4-7 = porządkowa, >7 = ilościowa.

conti

Jeśli to nie rozwiewa wątpliwości, proszę odpowiedzieć na kilka pytań w tym PDFie, a z dużym prawdopodobieństwem (p > 0,95 😉 ) uda się zmienną określić.


Ale jak przyporządkować 1 punkt za odpowiedź, która w szablonie ma 5? Jak rekodować dane?

Są dwie metody: albo przekodować wyniki (Przekształcenia – Rekoduj…) albo podczas obliczania wyniku dla skali „powiedzieć” SPSSowi, że ma sobie wyniki odwrócić. W pierwszym wypadku trzeba podać w oknie rekodowania co na co ma być zamienione (np.: 5-> 1, 4->2 itd), w drugim pisząc wyrażenie w Przekształcenia -> Oblicz wartości należy pamiętać, że zamiast wartość n podstawić należy K-n, gdzie K to ilość kategorii + 1.

  • 5 -> 1 tzn. 1 = 6-5
  • 4 ->2 tzn. 2 = 6-4
  • 3 ->3 tzn. 3 = 6-3
  • 2->4 tzn. 4 = 6-2
  • 1->5 tzn. 5 = 6-1

W tym przypadku K = 6 (pięć kategorii + 1). A przykładowy wynik w skali składającej się z sumy wyników trzech pytań, w tym jednego odwróconego

= var1 + 6-var2 + var3, (gdzie 2 zmienna jest odwracana).

przeksztalcenia