Uwagi do studium na temat testu Chi-Square

W tym artykule przedstawiono notatkę dotyczącą testu chi-kwadrat.

Test X 2 (litera grecka X 2 oznaczona jako Ki-kwadrat) jest metodą oceny, czy częstotliwości, które zostały empirycznie zaobserwowane, różnią się znacznie od tych, które byłyby oczekiwane w ramach pewnego zestawu założeń teoretycznych. Na przykład, przypuśćmy, że preferencje polityczne i miejsce zamieszkania lub szopka zostały skrzyżowane i dane podsumowano w następującej tablicy kontyngencji 2 × 3.

Widać w tabeli, że proporcje mieszkańców miast wynoszą 38/48 = 0, 79, 20/46 = 0, 34 i 12/18 = 0, 67 (zaokrąglone do dwóch miejsc po przecinku) dla trzech partii politycznych w kraju. Chcielibyśmy wówczas wiedzieć, czy różnice te są statystycznie istotne.

W tym celu możemy zaproponować hipotezę zerową, która zakłada, że ​​nie ma różnic między trzema partiami politycznymi w odniesieniu do szopki. Oznacza to, że należy oczekiwać, że proporcje ludności miejskiej i wiejskiej będą takie same dla każdej z trzech partii politycznych.

Na podstawie założenia, że ​​hipoteza zerowa jest prawidłowa, możemy obliczyć zestaw częstotliwości, który byłby oczekiwany, biorąc pod uwagę te marginalne sumy. Innymi słowy, możemy obliczyć liczbę osób wykazujących preferencję dla partii kongresowej, której zgodnie z tym założeniem spodziewalibyśmy się jako mieszczuchy i porównać tę liczbę z tą faktycznie obserwowaną.

Jeśli hipoteza zerowa jest prawdziwa, możemy obliczyć wspólną proporcję jako:

38 + 20 + 12/48 + 46 + 18 = 70/112 = 0, 625

Przy takiej szacowanej proporcji oczekiwalibyśmy 48 x (0, 625) = 30 osób zrzeszonych w Kongresie, 46 x (0, 625) = 28, 75 osób związanych z Partią Janaty i 18 x (0, 625) = 11, 25 osób zrzeszonych w Lok Dal z 70 urbanites. Odejmując te liczby od danych obserwowanych z odpowiednich rozmiarów trzech próbek, stwierdziliśmy, że 48 - 30 = 18 zrzeszonych w Kongresie, 46-28, 75 = 17, 25 zrzeszonych w Janata i 18 - 11, 25 = 6, 25 osób z Lok Dal od 42 osób z obszarów wiejskich.

Wyniki te przedstawiono w poniższej tabeli, gdzie oczekiwane częstotliwości są równe. pokazano w nawiasach.

Aby sprawdzić stałość hipotezy zerowej, porównujemy spodziewane i obserwowane częstotliwości. Porównanie opiera się na następującej statystyce X2.

X 2 = Σ (O-E) 2 / E

gdzie O oznacza obserwowane częstotliwości, a E oczekiwane częstotliwości.

Stopnie swobody :

Liczba stopni swobody oznacza liczbę niezależnych ograniczeń nałożonych na nas w tabeli kontyngencji.

Poniższy przykład ilustruje tę koncepcję:

Załóżmy, że oba atrybuty A i B są niezależne, w takim przypadku,

spodziewana częstotliwość lub komórka AB wynosiłaby 40 × 30/60 = 20. Gdy zostanie to określone, częstotliwości pozostałych trzech komórek zostaną automatycznie ustalone. Zatem dla komórki αB oczekiwana częstotliwość musi wynosić 40 - 20 = 20, podobnie dla komórki AB musi wynosić 30 - 20 = 10, a dla αB musi wynosić 10.

Oznacza to, że dla stołu 2 × 2 mamy tylko jeden wybór, podczas gdy nie mamy wolności w pozostałych trzech komórkach. Zatem stopnie swobody (df) można obliczyć według wzoru:

df - (c - 1) (r - 1)

gdzie df oznacza stopnie swobody, c dla liczby kolumn i r dla liczby rzędów.

Tak więc w tabeli 2 x 3 (Tabela 18.54)

df = (3 - 1) (2 - 1) = 2 x 1 = 2

Poziom istotności :

Jak wspomniano wcześniej, test chi-kwadrat służy do zbadania, czy różnica pomiędzy obserwowanymi a oczekiwanymi częstotliwościami wynika z fluktuacji próbkowania i jako taka nieznacząca lub przeciwnie, czy różnica wynika z innego powodu i jako taka znacząca.

Przed wyciągnięciem wniosku, że różnica jest znacząca, badacze sformułowali hipotezę, często nazywaną hipotezą zerową (symbolizowaną jako H o ), w przeciwieństwie do hipotezy badawczej (H 1 ), która jest tworzona jako alternatywa dla H o .

Zwykle, choć nie zawsze, hipoteza zerowa stwierdza, że ​​nie ma różnicy między kilkoma grupami lub nie ma związku między zmiennymi, podczas gdy hipoteza badawcza może przewidywać związek pozytywny lub negatywny.

Innymi słowy, hipoteza zerowa zakłada, że ​​nie ma błędów braku próbkowania, a różnica wynika wyłącznie z przypadku. Następnie określa się prawdopodobieństwo wystąpienia takiej różnicy.

Prawdopodobieństwo wskazuje na stopień zależności, jaką możemy nałożyć na wyciągnięte wnioski. Wartości tabel chi-square są dostępne na różnych poziomach prawdopodobieństwa. Poziomy te nazywane są poziomami istotności. Możemy dowiedzieć się z tabeli wartości chi-square na pewnych poziomach istotności.

Zwykle (w problemie nauk społecznych) wartość chi-kwadrat na poziomie istotności 0, 05 lub .01 z podanych stopni swobody jest widoczna z tabeli i jest porównywana z obserwowaną wartością chi-kwadrat. Jeśli obserwowana wartość lub y 1 jest większa niż wartość tablicy na 0.05, oznacza to, że różnica jest znacząca.

Stopień swobody :

Aby użyć testu chi-kwadrat, następnym krokiem jest obliczenie stopni swobody: Załóżmy, że mamy tablicę kontyngencji 2 x 2, tak jak na ryc. 1.

Znamy liczbę wierszy i kolumn r t 1 i r t 2 - oraz c t 1 i c t 2 . Liczbę stopni swobody można zdefiniować jako liczbę komórek-wartości, które możemy dowolnie określić.

Na rys. 1, gdy określimy jedną wartość rzędu 1 (oznaczoną przez sprawdzenie na rysunku), druga wartość w tym wierszu i wartości drugiego rzędu (oznaczone przez X) są już określone; nie możemy tego określić, ponieważ znamy sumy wierszy i sumy kolumn. Pokazuje to, że w tabeli kontyngencji 2 x 2 możemy podać tylko jedną wartość.

Procedura :

Obliczenia dla Chi-square:

Chi-kwadrat jako test dobroci dopasowania:

W poprzedniej sekcji użyliśmy chi-kwadrat jako testu niezależności; to, czy przyjąć lub odrzucić hipotezę zerową. Testy X mogą być również użyte do ustalenia, czy istnieje istotna różnica pomiędzy obserwowanym rozkładem częstotliwości a teoretycznym rozkładem częstotliwości.

W ten sposób możemy określić, jak dobre jest dopasowanie obserwowanych i oczekiwanych częstotliwości. Oznacza to, że dopasowanie byłoby uważane za dobre, jeżeli nie ma znaczącej rozbieżności pomiędzy obserwowanymi a oczekiwanymi danymi, gdy krzywa obserwowanych częstotliwości jest nałożona na krzywą oczekiwanych częstotliwości.

Musimy jednak pamiętać, że nawet jeśli proporcje w komórkach pozostają niezmienione, wartość chi-kwadrat zmienia się bezpośrednio w stosunku do całkowitej liczby przypadków (N). Jeśli podwoimy liczbę przypadków, wartość chi-kwadrat zostanie podwojona; jeśli potroimy liczbę przypadków, potroimy również chi-kwadrat i tak dalej.

Implikacje tego faktu można zilustrować poniższym przykładem:

W niniejszym przykładzie wartość chi-kwadrat wynosi 3, 15. Na tej podstawie oczywiście wnioskujemy, że związek nie jest znaczący.

Załóżmy teraz, że dane zostały zebrane w 500 przypadkach z następującymi wynikami:

Wartość chi-kwadrat wyliczona na podstawie liczb wynosi teraz 6, 30, co stanowi dwukrotność wartości uzyskanej w poprzednim przykładzie. Wartość 6.30 jest statystycznie istotna. Gdybyśmy wyrazili wyniki w ujęciu procentowym, nie byłoby różnicy w interpretacji.

Powyższe przykłady ilustrują bardzo ważną kwestię, mianowicie, że kwadrat jest wprost proporcjonalny do N. Dlatego potrzebowalibyśmy środka, na który nie ma wpływu jedynie zmiana liczby przypadków. Miara phi (ǿ) zapewnia ten instrument, tj. Właściwość, której pragniemy w naszej mierze. Ta miara jest po prostu proporcją między wartością chi-kwadrat a całkowitą liczbą analizowanych przypadków.

Środek phi (ø) definiuje się jako:

Ø = √x 2 / n

to znaczy pierwiastek kwadratowy chi-kwadrat podzielony przez liczbę przypadków.

Tak więc, stosując tę ​​formułę do dwóch wyżej cytowanych przykładów otrzymujemy, w pierwszym przypadku:

Zatem miara ø w przeciwieństwie do kwadratu chi daje taki sam wynik, gdy proporcje w porównywalnych komórkach są identyczne.

G. Udny Yule zaproponował jeszcze jeden współczynnik stowarzyszenia, zwykle oznaczony jako "Q" (bardziej znany jako Q) Yule, który mierzy asocjację w? Tabela x 2. Współczynnik asocjacji (Q) uzyskuje się przez obliczenie stosunku między różnicą a sumą produktów krzyżowych przekątnych komórek, jeżeli komórki tabeli 2 × 2 są oznaczone w poniższej tabeli:

accc / ad + be

gdzie a, b, c oraz d odnoszą się do częstotliwości komórek.

Współczynnik asocjacji Q wynosi od minus jeden do jednego (+1), ponieważ jest mniejszy lub większy od reklamy. Q osiąga granice +1, gdy dowolna z komórek wynosi zero, tj. Powiązanie jest zakończone (korelacja jest idealna). Q wynosi zero, gdy zmienne są niezależne (to znaczy, gdy nie ma powiązania), tj. Gdy reklama. = być i. Q = 0.

Zastosowanie powyższego wzoru przedstawiono w następującym przykładzie:

Obliczmy współczynnik współczynnika stowarzyszenia Yule między stanem cywilnym a wynikami w badaniu na podstawie danych przedstawionych w poniższej tabeli:

Zastępując powyższe wartości w formule Yule:

W związku z tym istnieje niewielkie negatywne powiązanie między stanem cywilnym a wynikami w badaniu.

Możemy spojrzeć na problem również z innego punktu widzenia.

Odsetek studentów będących w związku małżeńskim, którzy zawiedli, wynosi 60 × 100/150 = 40.

Odsetek niezamężnych studentów, którzy zawiedli, jest: = 100 × 100/350 = 28, 57 (w przybliżeniu)

Tak więc 40 procent zamężnych studentów i prawie 29 procent niezamężnych studentów nie zdało egzaminu. W związku z tym słabe wyniki uczniów mogą być przypisane do stanu cywilnego.

Wnioski przyczynowe można bardzo bezpiecznie ustalić w sytuacjach eksperymentalnych. Rozważaliśmy ten problem, gdy mamy do czynienia z projektami eksperymentalnymi. W naukach społecznych bardzo trudno jest przeprowadzić eksperyment, więc większość badań nie jest eksperymentalna. Procedury analityczne zostały jednak opracowane w celu wyciągnięcia wniosków dotyczących związków przyczynowych w badaniach nieeksperymentalnych.

O ile większość badań społecznych obejmuje badanie próbek pobranych od "populacji" i próbują wyciągnąć uogólnienia do tej "populacji", w interesie nauki konieczne jest poznanie stopnia, w jakim uogólnione w ten sposób są usprawiedliwiony.

Załóżmy, że w badaniu na próbkach studentów płci męskiej i żeńskiej nasze wyniki wskazują na znaczne różnice między tymi dwiema próbkami pod względem liczby godzin poświęconych na studia.

Możemy zapytać, czy obserwowane różnice odzwierciedlają prawdziwe różnice między studentami płci męskiej i żeńskiej, czy też "dwie grupy" studentów są w rzeczywistości podobne pod względem godzin poświęcanych na studia, ale próbki pochodzące z tych "populacji" ponieważ badanie mogło różnić się w tym zakresie od "przypadku".

Opracowano szereg procedur statystycznych, które pozwalają nam odpowiedzieć na takie pytanie w kategoriach stwierdzeń prawdopodobieństwa.

Kiedy porównujemy próbki lub badamy różnicę między grupami eksperymentalnymi i kontrolnymi, zwykle chcemy przetestować pewną hipotezę na temat natury prawdziwej różnicy między "populacjami", które mają być reprezentowane przez badane próbki.

W naukach społecznych zwykle zajmujemy się stosunkowo surową hipotezą (na przykład studentki poświęcają więcej czasu na naukę niż studenci płci męskiej).

Zwykle nie jesteśmy w stanie rozważyć bardziej konkretnej lub dokładnej hipotezy (np. Które dokładnie określają różnicę między tymi dwiema "populacjami"). Załóżmy, że nasze dane pokazują, że próba studentów poświęca średnio cztery godziny na naukę, podczas gdy próbka studentów płci męskiej trwa tylko dwie godziny.

Najwyraźniej wyniki naszych próbek są zgodne z hipotezą, tj. Studentki poświęcają więcej czasu na naukę niż ich męscy odpowiednicy. Musimy jednak stale pamiętać o tym, że odkrycia oparte na naszych próbach mogą nie być dokładnie takie same jak wyniki, które mogliśmy uzyskać, gdybyśmy zbadali dwie "populacje" w toto.

Teraz chcemy oszacować, czy nadal obserwowalibyśmy więcej czasu spędzanego na studiach wśród studentów, gdybyśmy zbadali całkowitą "populację". Takie oszacowanie jest możliwe, jeśli przetestujemy "hipotezę zerową".

"Hipoteza zerowa" stwierdza, że ​​"populacje" nie różnią się pod względem badanych cech. W tym przypadku "hipoteza zerowa" oznacza, że ​​w większej "populacji" studentów jako całości podgrupy studentów płci żeńskiej i męskiej nie różnią się pod względem czasu poświęcanego na studia.

Opracowano różne techniki statystyczne zwane testami istotności, które pomagają nam oszacować prawdopodobieństwo, że nasze dwie próbki mogły różnić się w zależności od ich zakresu, przez przypadek, nawet jeśli faktycznie nie ma żadnej różnicy między dwiema odpowiadającymi "populacjami" mężczyzn. i studentki w odniesieniu do czasu poświęconego na studia.

Spośród różnych metod testowania znaczenia, decyzja, która metoda będzie odpowiednia dla danego badania, zależy od rodzaju zastosowanych pomiarów i rozkładu cech (np. Godzin nauki, liczby dzieci, oczekiwań płacowych itp. ).

Większość z tych testów istotności zakłada, że ​​pomiary stanowią skalę interwału i że rozkład charakterystyki jest zbliżony do krzywej normalnej. W badaniach społecznych te założenia rzadko odpowiadają rzeczywistości. Ostatnie zmiany w statystyce pojawiły się jednak z pewnego rodzaju rozwiązaniem tego problemu, w postaci testów nieparametrycznych, które nie opierają się na tych założeniach.

Powinniśmy starać się zrozumieć w tym miejscu powód, dla którego "hipoteza zerowa" powinna być testowana, gdy naszym rzeczywistym zainteresowaniem jest testowanie hipotezy (alternatywna hipoteza, jak to się nazywa), która stwierdza, że ​​istnieje różnica między tymi dwoma "populacjami" reprezentowane przez próbki.

Powód łatwo jest docenić. Ponieważ nie znamy prawdziwego obrazu w "populacji", najlepiej możemy wyciągnąć wnioski na jego podstawie na podstawie naszych badań.

Jeśli porównujemy dwie próbki, istnieją oczywiście dwie możliwości:

(1) Populacje reprezentowane przez próbkę są jednakowe lub

(2) Są różne.

Nasze próbki z dwóch "populacji" różnią się pod względem niektórych cech; godziny poświęcone studiom w naszym przykładzie. Oczywiście może się tak zdarzyć, jeśli dwie "populacje" reprezentowane przez próbki faktycznie różnią się pod względem wspomnianego atrybutu.

Nie stanowi to jednak ostatecznego dowodu, że owe "populacje" są różne, ponieważ zawsze istnieje możliwość, że próbki nie odpowiadają dokładnie "populacji", które mają reprezentować.

Musimy zatem pozostawić miejsce na możliwość, że element przypadku, który bierze udział w doborze próby, może dać nam próbki, które różnią się od siebie, mimo że dwie "populacje", z których są rysowane, w rzeczywistości nie różnią się.

Pytanie, które możemy chcieć zadać, brzmi:

"Czy moglibyśmy otrzymać próbki różniące się od siebie w takim stopniu, w jakim robią, nawet jeśli" populacje ", od których są rysowane, nie różniły się?" Dokładnie to jest pytanie, na które odpowiada "zerowa hipoteza".

"Hipoteza zerowa" pomaga nam oszacować, jakie są szanse, że dwie próbki różniące się w tym zakresie zostałyby zaczerpnięte z dwóch "populacji", które w rzeczywistości są podobne: 5 na 100? 1 na 100? lub cokolwiek.

Jeżeli test statystyczny istotności sugeruje, że jest nieprawdopodobne, aby dwie próbki różniące się w tym zakresie mogły pochodzić od "populacji", które są w rzeczywistości podobne, możemy stwierdzić, że te dwie "populacje" prawdopodobnie różnią się od siebie.

Należy tutaj wziąć pod uwagę, że wszystkie testy statystyczne istotności, a więc wszystkie uogólnienia z próbek do populacji, opierają się na założeniu, że próbki nie są wybierane w sposób, w jaki odchylenie mogło wejść w proces pobierania próbek.

Innymi słowy, założenie jest takie, że wybrana przez nas próbka została narysowana w taki sposób, że wszystkie przypadki lub elementy w "populacji" miały taką samą lub możliwą do przewidzenia szansę włączenia do próby.

Jeśli to założenie nie jest uzasadnione, testy znaczenia stają się bez znaczenia i nie mają zastosowania. Innymi słowy, testy istotności mają zastosowanie tylko wtedy, gdy do doboru próby zastosowano zasadę prawdopodobieństwa.

Aby wrócić do naszej ilustracji, przypuśćmy, że nasze odkrycia nie wykazują żadnej różnicy między tymi dwiema próbkami: co oznacza, że ​​zarówno mężczyźni, jak i kobiety uczniowie z naszej próby poświęcili tyle samo czasu na naukę.

Czy możemy zatem powiedzieć, że dwie "populacje" studentów płci męskiej i żeńskiej są podobne pod względem tego atrybutu? Oczywiście nie możemy tego powiedzieć z całą pewnością, ponieważ istnieje możliwość, że próbki będą podobne, gdy populacje faktycznie się różnią.

Ale aby wrócić do przypadku, w którym dwie próbki różnią się, możemy stwierdzić, że dwie reprezentowane przez nie populacje prawdopodobnie różnią się, jeśli możemy odrzucić "hipotezę zerową"; to znaczy, jeśli uda nam się wykazać, że różnica pomiędzy tymi dwiema próbami raczej się nie pojawi, jeśli powyższe "populacje" nie różnią się.

Ale znowu istnieje pewna szansa, że ​​możemy mylić się z odrzuceniem "hipotezy zerowej", ponieważ istnieje prawdopodobieństwo, że czasami zdarzają się nawet wysoce nieprawdopodobne wydarzenia.

Jest też druga strona. Tak samo, jak możemy się mylić, odrzucając "hipotezę zerową", jest również prawdopodobne, że możemy mylić się przyjmując "hipotezę zerową". Oznacza to, że nawet jeśli nasz statystyczny test istotności wskazuje, że różnice w próbkach mogły łatwo powstać przypadkowo, mimo że "populacje" są podobne, to jednak może być prawdą, że "populacje" faktycznie różnią się.

Innymi słowy, zawsze stoimy w obliczu ryzyka popełnienia jednego z dwóch rodzajów błędów:

(1) Możemy odrzucić "hipotezę zerową", gdy w rzeczywistości jest to prawdą,

(2) Możemy zaakceptować "hipotezę zerową", gdy w rzeczywistości jest ona fałszywa.

Pierwszy typ błędu, możemy nazwać błędem typu I. Polega to na stwierdzeniu, że te dwie "populacje" różnią się, gdy w rzeczywistości są do siebie podobne.

Drugi typ błędu można nazwać błędem typu II. Polega to na wnioskowania, że ​​te dwie "populacje" są podobne, podczas gdy w rzeczywistości różnią się.

Ryzyko popełnienia błędu typu I zależy od poziomu istotności, jaki jesteśmy gotowi zaakceptować w naszych testach statystycznych, np. 0, 05, 0, 01, 0, 001 itd. (Czyli 5 na 100, 1 na 100 i 1 na 1000). Tak więc, jeśli zdecydujemy na przykład, że populacja rzeczywiście się różni, ilekroć test istotności wykaże, że różnica między dwiema próbami mogłaby wystąpić przypadkowo nie więcej niż 5 razy na 100.

Oznacza to, że jeśli dwie "populacje" reprezentowane przez próbę były w rzeczywistości podobne (pod względem określonego atrybutu), wówczas przyjmujemy 5 szans na 100, że popełnimy błąd, odrzucając "hipotezę zerową". Możemy, oczywiście, zminimalizować ryzyko popełnienia błędu typu I, czyniąc nasze kryterium odrzucania hipotezy zerowej, bardziej surowej i ścisłej.

Możemy na przykład zdecydować o poziomie istotności na poziomie 0, 01, tj. Odrzucilibyśmy "hipotezę zerową" tylko wtedy, gdy test wykaże, że różnica w dwóch "próbkach" mogła pojawić się przypadkowo tylko raz na sto.

W gruncie rzeczy mówimy, że odrzucimy "hipotezę zerową", jeśli test wykaże, że spośród setek próbek o określonym rozmiarze wybranych z odpowiednich "populacji" przy zastosowaniu zasady prawdopodobieństwa, tylko jedna próbka będzie pokazywała różnicę pod względem atrybutów w zakresie, w jakim jest to widoczne w dwóch badanych próbkach.

Kryterium odrzucenia "hipotezy zerowej" można jeszcze bardziej zaostrzyć, podnosząc dalej poziom istotności. Trudność polega jednak na tym, że błędy Typu I i Typu II są ze sobą tak powiązane, że im bardziej chronimy się przed popełnieniem błędu typu I, tym bardziej podatni jesteśmy na popełnienie błędu typu II.

Po określeniu zakresu ryzyka błędu typu I jesteśmy gotowi do działania, jedynym sposobem ograniczenia możliwości błędu typu II jest pobranie większych próbek i zastosowanie testów statystycznych, które maksymalnie wykorzystują dostępne istotne informacje.

Sytuację w odniesieniu do błędu typu II można zilustrować bardzo precyzyjnie za pomocą "krzywej charakterystyki otwarcia" . Zachowanie tej krzywej zależy od wielkości próbki. Im większa próba, tym mniej prawdopodobne, że zaakceptujemy hipotezę, która sugeruje stan bardzo odbiegający od stanu rzeczywistości.

O ile związek pomiędzy błędami typu I i typu II jest odwrotny, konieczne jest znalezienie rozsądnej równowagi między dwoma rodzajami ryzyka.

W naukach społecznych prawie stała się ustaloną praktyką lub konwencją odrzucania "hipotezy zerowej", gdy test wskazuje, że różnica między próbkami nie pojawiłaby się przypadkowo więcej niż 5 razy na 100. Ale konwencje są użyteczne, gdy nie jest żadnym rozsądnym przewodnikiem.

Decyzję o tym, w jaki sposób należy osiągnąć równowagę pomiędzy dwoma rodzajami błędów, musi podjąć badacz. W niektórych przypadkach ważniejsze jest, aby odrzucić hipotezę, gdy jest ona fałszywa, niż nie zaakceptować jej, gdy jest prawdziwa. W innych przypadkach odwrotność może być prawdą.

Na przykład w niektórych krajach uważa się za ważniejsze odrzucenie hipotezy o winie, gdy jest ona fałszywa, niż nie zaakceptowanie tej hipotezy, gdy jest ona prawdziwa, tj. Osoba uważana jest za niewinną, o ile istnieją uzasadnione wątpliwości o swojej winie. W niektórych innych krajach osoba oskarżona o popełnienie przestępstwa jest uznawana za winną do czasu, gdy wykazał brak winy.

W przypadku wielu badań nie ma oczywiście jasnej podstawy do podjęcia decyzji, czy błąd typu I lub typu II byłby bardziej kosztowny, a zatem badacz korzysta z konwencjonalnego poziomu określania istotności statystycznej. Ale mogą być pewne badania, w których jeden rodzaj błędu byłby zdecydowanie bardziej kosztowny i szkodliwy niż drugi.

Załóżmy, że w organizacji zasugerowano, że nowa metoda podziału pracy byłaby bardziej skuteczna i przypuśćmy również, że ta metoda wymagałaby dużego nakładu pracy.

Jeśli eksperyment składa się z dwóch grup personelu - jedna działająca jako grupa eksperymentalna, a druga, jako grupa kontrolna - zostaje ustanowiona w celu sprawdzenia, czy nowa metoda jest naprawdę korzystna dla celów organizacyjnych i czy przewiduje się, że nowa metoda wiele wydatków, organizacja nie chciałaby go przyjąć, gdyby nie istniała znacząca pewność co do jej wyższości.

Innymi słowy, popełnienie błędu typu 1 byłoby kosztowne, tj. Stwierdzenie, że nowa metoda jest lepsza, gdy tak nie jest.

Gdyby nowa metoda wiązała się z wydatkami mniej więcej identycznymi jak w przypadku starej metody, błąd II typu byłby niepożądany i bardziej szkodliwy, ponieważ może doprowadzić do niepowodzenia ze strony kierownictwa w zakresie przyjęcia nowej metody, gdy w rzeczywistości jest ona lepsza i jako taki ma długoterminowe korzyści dla organizacji.

Wszelkie uogólnienia z próbki do "populacji" to po prostu zestawienie statystycznego prawdopodobieństwa. Powiedzmy, że zdecydowaliśmy się pracować z poziomem istotności 0, 05. Oznacza to, że odrzucimy "hipotezę zerową" tylko wtedy, gdy można się spodziewać, że różnica w wielkości próbki, którą zaobserwowaliśmy, przypadkiem nie będzie większa niż 5 razy na 100.

Oczywiście zaakceptujemy "hipotezę zerową", jeśli można oczekiwać, że taka różnica wystąpi przypadkowo więcej niż 5 razy na 100. Teraz pytanie brzmi: czy nasze odkrycie reprezentuje jeden z tych 5 razy, gdy taka różnica mogła mieć pojawił się przez przypadek?

Na to pytanie nie można jednoznacznie odpowiedzieć na podstawie pojedynczego odkrycia. Być może jednak będziemy mogli powiedzieć coś na ten temat, gdy przeanalizujemy wzorce w naszych ustaleniach.

Załóżmy, że jesteśmy zainteresowani testowaniem efektów filmu na postawy wobec konkretnego programu rządowego, np. Planowania rodziny. Mamy, powiedzmy, pełną opiekę, aby utrzymywać pożądane warunki do eksperymentowania na maksimum.

Teraz przypuśćmy, że używamy jako jednej miary postaw wobec programu, tylko jeden przedmiot, a mianowicie, stosunek do rozstawiania dzieci i stwierdzamy, że ci, którzy widzieli film, są bardziej przychylni temu zagadnieniu niż ci, którzy nie widzieli filmu.

Załóżmy teraz, że test statystyczny pokazuje, że różnica nie pojawiłaby się przypadkowo z powodu losowych fluktuacji próbkowania więcej niż raz na dwadzieścia. Logicznie oznacza to również, że mogło pojawić się przypadkowo raz na dwadzieścia (lub 5 razy na 100). Jak wskazaliśmy, nie mamy określonego sposobu na stwierdzenie, czy nasza próbka jest jedną z pięciu na 100. Co możemy zrobić najlepiej?

Powiedzmy, że zadaliśmy 40 różnym pytaniom dla respondentów, które są rozsądnymi wskaźnikami stosunku do programu rządowego na rzecz dobrobytu rodziny. Jeśli używamy poziomu ufności 5% i jeśli zadamy 100 pytań, możemy spodziewać się statystycznie istotnych różnic przypisywanych przypadkowi na 5 z nich.

W związku z tym na 40 pytań dotyczących różnych pozycji możemy spodziewać się statystycznie istotnych różnic w 2 z nich. Przypuśćmy jednak, że w 25 z 40 pytań na temat tych, którzy widzieli film, jego postawa była bardziej przychylna w porównaniu z tymi, którzy nie widzieli filmu.

Możemy, w tym przypadku, czuć się znacznie bezpieczniej, stwierdzając, że istnieje prawdziwa różnica w postawach (nawet jeśli test statystyczny wskazuje, że różnica mogła powstać przypadkowo na każde pytanie 5 razy na 100).

Załóżmy teraz, że spośród 40 pytań odpowiedź na tylko jedną, tj. Na odstępy między dziećmi, wykazała statystycznie istotną różnicę między dwiema grupami, które były narażone na film, a tymi, które nie były). Ta różnica mogła równie dobrze pojawić się przez przypadek.

Z drugiej strony może się zdarzyć, że treść filmu rzeczywiście wpłynęła na opinie w tej kwestii, ale nie na żadnej innej (na przykład dotyczącej operacji sterylności). Ale jeśli nasza hipoteza nie przewidziała z góry, że film będzie miał większy wpływ na postawy wobec odstępów dzieci niż postawy wobec któregokolwiek z pozostałych 39 pytań, nie jesteśmy usprawiedliwieni w dokonywaniu takiej interpretacji.

Taka interpretacja, tj. Przywoływana w celu wyjaśnienia ustaleń po ich wypłynięciu, znana jest jako interpretacja "post factum", ponieważ obejmuje ona wyjaśnienia dostarczone w celu uzasadnienia ustaleń, niezależnie od tego, jacy są. To zależy od pomysłowości badacza, co do tego, jakie wyjaśnienie może wymyślić, aby uzasadnić te odkrycia. W związku z tym może uzasadnić nawet przeciwne ustalenia.

Merton bardzo jasno zauważył, że interpretacje post factum mają na celu "wyjaśnienie" obserwacji. Metoda wyjaśnienia postfaktycznego jest całkowicie elastyczna. Jeśli badacz stwierdzi, że bezrobotni mają tendencję do czytania mniejszej liczby książek niż poprzednio, można to "wyjaśnić" hipotezą, że lęk wynikający z bezrobocia wpływa na koncentrację, a zatem czytanie staje się trudne.

Jeśli jednak zauważy się, że bezrobotni czytają więcej książek niż poprzednio (w przypadku zatrudnienia), można przywołać nowe wyjaśnienie post factum; Wyjaśnienie jest takie, że bezrobotni mają więcej wolnego czasu i dlatego czytają więcej książek.

Krytycznym testem na "uzyskaną zależność (pomiędzy zmiennymi) nie są racjonalne post factum i wyjaśnienia; to raczej zdolność przewidywania lub przewidywania innych relacji na podstawie tego. Dlatego nasze wcześniej nieprzewidziane stwierdzenie różnicy w podejściu do rozmieszczenia dzieci, choć statystycznie istotne, nie może być uznane za ustalone w badaniu, które przeprowadziliśmy.

Ponieważ stwierdzenia statystyczne są stwierdzeniami prawdopodobieństwa, nigdy nie możemy całkowicie polegać na samych dowodach statystycznych, aby zdecydować, czy zaakceptujemy hipotezę jako prawdziwą.

Zaufanie do interpretacji wyników badań wymaga nie tylko statystycznej pewności co do wiarygodności wyników (tj. Że różnice nie pojawiły się przypadkowo), ale dodatkowo niektórych dowodów na zasadność założeń badania.

Ten dowód jest koniecznie pośredni. Wynika to z zbieżności podanych wyników badań z inną wiedzą, która wytrzymała próbę czasu, a stąd, która jest znacząca.

Nawet w najbardziej rygorystycznie kontrolowanym dochodzeniu ustalenie zaufania do interpretacji wyników lub do przypisania związków przyczynowych wymaga powielenia badań i powiązania wyników z wynikami innych badań.

Należy zauważyć, że nawet jeśli testy statystyczne i wyniki wielu badań sugerują, że rzeczywiście istnieje spójna różnica między dwiema grupami lub spójny związek między dwiema zmiennymi, nadal nie stanowi to dowodu przyczyny tego związku.

Jeśli chcemy wyciągnąć wnioski przyczynowe (np. X wytwarza Y), musimy spełnić założenia wykraczające poza te wymagane do ustalenia istnienia związku. Warto również zauważyć, że wynik nie ma znaczenia społecznego ani psychologicznego, tylko dlatego, że jest statystycznie istotny. Wiele statystycznie istotnych różnic może być banalnych w praktycznym żargonie społecznym.

Na przykład, średnia różnica mniejsza niż jeden punkt IQ pomiędzy ludźmi z miast i wsi może być znacząca statystycznie, ale nie w praktycznym codziennym życiu. W przeciwnym razie istnieją przypadki, w których mała, ale pewna różnica ma duże znaczenie praktyczne.

Na przykład w wielkoskalowej ankiecie różnica w wysokości połowy lub jednego procenta może reprezentować setki tysięcy ludzi, a świadomość różnicy może być ważna dla istotnych decyzji politycznych. Dlatego badacz, oprócz bycia zainteresowanym statystycznym znaczeniem swoich ustaleń, musi również zajmować się ich znaczeniem społecznym i psychologicznym.

Wnioskowanie związków przyczynowych:

Z powodu oczywistych trudności takie sztywne projekty eksperymentalne rzadko można opracować w społecznych badaniach naukowych. Większość zapytań w naukach społecznych ma charakter nie-eksperymentalny.

W takich badaniach istnieją pewne empiryczne przeszkody w ustalaniu, czy związek między zmiennymi jest przyczynowy. Wielokrotnie wspominano, że jednym z najtrudniejszych zadań w analizie danych dotyczących zachowań społecznych jest ustalenie związków przyczynowo-skutkowych.

Sytuacja problemowa zawdzięcza swoje pochodzenie i proces stawania się nie tylko jednym czynnikiem, ale też kompleksem wielu czynników i ciągów.

Proces rozplątywania tych elementów stanowi poważne wyzwanie dla wyobraźni socjologicznej i stawia na sprawdzenie umiejętności badaczy. It is dangerous to follow a 'one- track' explanation which leads to the cause. It is imperative to look for a whole battery of causal factors which generally play a significant role in bringing about complex social situations.

Jak trafnie zauważa Karl Pearson, "żadne zjawisko lub etap w sekwencji nie ma tylko jednej przyczyny; wszystkie poprzedzające etapy są kolejnymi przyczynami; kiedy naukowo stwierdzamy przyczyny, tak naprawdę opisujemy kolejne etapy rutyny doświadczenia ".

Yule i Kendall zdawali sobie sprawę z faktu, że statystyki "muszą zaakceptować analizę, dane podlegają wpływowi wielu przyczyn i muszą próbować odkryć na podstawie samych danych, które przyczyny są ważne i jak wiele z obserwowanych efektów wynika z działanie każdego. "

Paul Lazarsfeld prześledził fazy związane z techniką, którą nazywa "rozeznaniem". Opowiada się za jego wykorzystaniem do określania związków przyczynowych między zmiennymi. Lazarsfeld określa tę procedurę:

(a) Weryfikacja rzekomego zdarzenia jako:

Aby zweryfikować to zdarzenie, należy sprawdzić, czy dana osoba rzeczywiście doświadczyła rzekomych sytuacji. Jeśli tak, to w jaki sposób to zjawisko ujawnia się i w jakich warunkach, w jego bezpośrednim życiu?

Jakie powody przemawiają za przekonaniem, że istnieje specyficzne połączenie między dwiema zmiennymi, np. Utrata zatrudnienia i utrata autorytetu? Jak poprawne jest rozumowanie danej osoby w tym konkretnym przypadku?

(b) Próba odkrycia, czy domniemany warunek jest zgodny z obiektywnymi faktami z poprzedniego życia tej osoby.

(c) Testowanie wszystkich możliwych wyjaśnień obserwowanego stanu.

(d) Wyjaśnianie tych wyjaśnień, które nie są zgodne ze schematem zdarzeń.

Jest całkiem zrozumiałe, że większość trudności lub przeszkód w nawiązywaniu związków przyczynowo-skutkowych najbardziej uderza w badania nieeksperymentalne. W badaniach nieeksperymentalnych, w których zainteresowanie polega na ustanowieniu związku przyczynowo-skutkowego między dwiema zmiennymi, badacz musi znaleźć substytuty dla zabezpieczeń, które są w oczywisty sposób wbudowane w badania eksperymentalne.

Wiele z tych zabezpieczeń wchodzi w momencie planowania gromadzenia danych, w postaci zapewnienia zbierania informacji o wielu zmiennych, które mogą być alternatywnymi warunkami do wywołania hipotetycznego efektu.

Wprowadzając takie dodatkowe zmienne do analizy, naukowiec przybliża niektóre kontrole, które są nieodłączne w eksperymentach. Niemniej jednak wnioskowanie o przyczynowości zawsze pozostaje nieco niebezpieczne w badaniach nieeksperymentalnych.

Omówimy teraz niektóre problemy i strategie ich przezwyciężenia, odnoszące się do wnioskowania o przyczynowości w badaniach nieeksperymentalnych. Jeśli badanie nieeksperymentalne wskazuje na związek lub powiązanie między dwiema zmiennymi, powiedzmy X i Y, i jeśli zainteresowanie badawcze dotyczy związków przyczynowych, a nie prostego faktu skojarzenia między zmiennymi, analiza podjęła tylko pierwszy krok.

Naukowiec musi dodatkowo rozważyć (poza powiązaniem między X i Y), czy Y (efekt) mógł wystąpić przed X (hipotetyczna przyczyna), w którym to przypadku Y nie może być efektem X.

Oprócz tych rozważań, badacz musi zastanowić się nad kwestią, czy czynniki inne niż X (hipotetyczna przyczyna) mogły spowodować Y (hipotetyczny efekt). Jest to ogólnie uwzględniane przez wprowadzenie dodatkowych zmiennych do analizy i zbadanie, w jaki sposób te dalsze zmienne wpływają na relację między X i Y.

Jeśli relacja między X i Y utrzymuje się nawet wtedy, gdy wprowadzane są inne prawdopodobnie skuteczne i ewentualnie alternatywne zmienne, hipoteza, że ​​X jest przyczyną Y pozostaje możliwa do utrzymania.

Na przykład, jeśli związek pomiędzy spożywaniem określonego owocu sezonowego (X) i zimnego (Y) nie zmienia się, nawet gdy inne zmienne, takie jak wiek, temperatura, stan trawienia itp., Zostały wprowadzone do analizy, możemy zaakceptować hipoteza, że ​​X prowadzi do Y jako możliwej do utrzymania.

Jednak w niewielu przypadkach możliwe jest, że wprowadzenie innych dodatkowych zmiennych może zmienić relację między X i Y. Może to zredukować całkowite wyeliminowanie zależności między X i Y lub może poprawić relacje w jednej grupie i ją zmniejszyć. winnym.

Jeśli związek między X (spożywanie owoców sezonowych) i Y (przeziębienie) jest wzmocniony w podgrupie charakteryzującej się Z (zły stan trawienia) i zredukowany w podgrupie nie scharakteryzowanej przez Z (stan normalnego trawienia), to może stwierdzić, że Z jest warunkiem warunkowym dla związku między X i Y.

Oznacza to, innymi słowy, że udało nam się określić warunek (Z), pod którym zachowana jest relacja między X i Y. Teraz jeśli wprowadzenie Z w analizie zmniejsza lub całkowicie eliminuje relację między X i Y, będziemy bezpieczni, stwierdzając, że X nie jest producentem Y, to znaczy, że relacja między X i Y jest "fałszywa" lub że prześledziliśmy proces, w którym X prowadzi do Y (tj. poprzez Z).

Przyjrzyjmy się sytuacji, w której możemy słusznie stwierdzić, że relacja między X i Y jest fałszywa.

Widoczny związek między dwiema zmiennymi X i Y jest uważany za fałszywy, jeśli ich współistniejąca odmiana nie wynika z połączenia między nimi, ale z faktu, że każdy z nich (X i Y) jest powiązany z pewną trzecią zmienną (Z) lub kombinacją zmiennych, które nie służą jako łącze w procesie, w którym X prowadzi do Y.

Sytuacja charakteryzująca związek pozorny może być przedstawiona jako:

Celem jest ustalenie przyczyny Y, zmiennej zależnej (powiedzmy, oczekiwania pieniężne absolwentów szkół wyższych). Związek (linia przerywana) między X zmienną niezależną (powiedzmy, oceny uzyskane przez studentów) a oczekiwaniami pieniężnymi absolwentów (Y) zaobserwowano w trakcie analizy danych.

Wprowadza się kolejną zmienną (Z), aby zobaczyć, jak zachowuje się relacja między X i Y z wprowadzeniem tego trzeciego czynnika. Z to trzeci czynnik (powiedzmy, poziom dochodów rodziców uczniów). Uważamy, że wprowadzenie tego czynnika zmniejsza zależność między X i Y.

Oznacza to, że okazuje się, że związek między wyższą oceną w badaniu a wyższymi oczekiwaniami pieniężnymi nie utrzymuje się, ale jest znacznie zmniejszony, gdy wprowadzimy trzecią zmienną, tj. Poziom dochodów rodziców.

Takie wprowadzenie Z uwydatnia fakt, że nie X, lecz Z może być prawdopodobnie czynnikiem determinującym Y. Tak więc relacja między X i Y (pokazana na wykresie linią przerywaną) jest fałszywa, podczas gdy relacja między Z i Y są prawdziwe. Zilustrujmy to za pomocą hipotetycznych danych.

Załóżmy, że w trakcie analizy danych w badaniu zaobserwowano, że istnieje istotna korelacja pomiędzy ocenami lub działami (I, II, III), które studenci zabezpieczyli podczas egzaminu, a wynagrodzeniem, którego oczekują za pracę, która mogą zostać wyznaczeni.

Zauważono na przykład, że na ogół pierwsi dzielnicy wśród studentów oczekiwali wyższego wynagrodzenia w porównaniu z drugim dywizjonem, a druga część spodziewała się więcej w porównaniu z trzecią dywizją.

Poniższa tabela ilustruje hipotetyczny stan rzeczy:

Z tabeli jasno wynika, że ​​istnieją podstawy do hipotezy, że oceny uczniów określają ich oczekiwania dotyczące wynagrodzeń. Załóżmy teraz, że badacz w jakiś sposób uderza w ideę, że poziom dochodu rodziców (X) może być jedną z ważnych zmiennych określających lub wpływających na oczekiwania uczniów dotyczące płac (Y). Z tego powodu do analizy włączono Z.

Załóżmy, że poniższa tabela przedstawia relację między zmiennymi:

Uwaga:

HML w rzędzie poziomym, dzieląc każdą kategorię ocen uczniów, oznacza odpowiednio wysoki poziom dochodów rodziców, umiarkowany poziom dochodów rodziców i niski poziom dochodów rodziców. Powyższa tabela wyraźnie pokazuje, że relacja między X i Y stała się mniej znacząca w porównaniu do relacji między Z i Y. "

Aby uzyskać jaśniejszy obraz, spójrzmy na poniższą tabelę (wersję Tabeli B, z pominięciem kategorii X), pokazującą związek między Z a, tj. Poziomem dochodu rodziców i oczekiwaniami finansowymi studentów:

Bardzo wyraźnie widać z tabeli, że niezależnie od ich ocen, oczekiwania finansowe uczniów są bardzo mocno uzależnione od poziomu dochodów rodziców (Z).

Widzimy, że przeważająca liczba studentów (tj. 91, 5%) o wysokich oczekiwaniach monetarnych pochodzi z grupy wysokiego rodzicielskiego dochodu, 92% z umiarkowanymi oczekiwaniami monetarnymi pochodzi z umiarkowanej grupy dochodów rodzicielskich, a na koniec, 97% z niskimi oczekiwaniami niska grupa dochodów rodziców.

Porównując ten obraz z obrazem przedstawionym w Tabeli A, możemy powiedzieć, że relacja między X i Y jest fałszywa, to znaczy, że ocena uczniów nie określała przede wszystkim poziomu oczekiwań finansowych uczniów.

Zauważono w tabeli A, że uczniowie uzyskujący wyższe oceny wykazują znaczną tendencję do wyższych oczekiwań monetarnych, podczas gdy uczniowie niższej klasy mają bardzo wyraźną koncentrację w niższym przedziale pieniężnej oczekiwania.

Ale kiedy wprowadzimy trzecią zmienną dochodów rodzicielskich, pojawiający się obraz staje się wystarczająco jasny, aby uzasadnić wniosek, że rzeczywistym czynnikiem odpowiedzialnym za zróżnicowane poziomy oczekiwań monetarnych jest poziom dochodu rodzicielskiego.

W tabeli C widzimy bardzo silną i potężną koncentrację przypadków studentów odpowiadających trzem poniższym kombinacjom, tj. Wyższych oczekiwań monetarnych i wyższego dochodu rodziców, umiarkowanych oczekiwań monetarnych i umiarkowanego dochodu rodziców oraz niższych oczekiwań monetarnych i niższy dochód rodzicielski, tj. odpowiednio 5%, 92, 1% i 1%.

Śledzenie zaangażowanego procesu i związek między zmiennymi: Jak stwierdzono wcześniej, jeśli trzeci czynnik Z zmniejsza lub eliminuje zależność między zmienną niezależną X a zmienną zależną Y, możemy wywnioskować, że relacja między X i Y jest fałszywa, lub że udało nam się prześledzić proces, w którym X prowadzi do Y.

Przejrzymy teraz okoliczności, które uzasadniałyby wniosek, że proces zależności między X i Y został prześledzony przez trzeci czynnik Z.

Załóżmy, że w badaniu badacze stwierdzili, że mniejsze społeczności miały wyższą średnią punktację intymności, punkt intymności jest miarą intymności związku między członkami społeczności uzyskanej dzięki zastosowaniu skali intymności.

Przypuśćmy, że również średnie gminy miały mniejszy stopień intymności w porównaniu do małych społeczności, a duże społeczności miały najmniejszy średni wskaźnik intymności. Takie odkrycie sugeruje, że wielkość społeczności decyduje o intymności stowarzyszenia między członkami społeczności.

Innymi słowy, obserwacje uzasadniają wniosek, że członkowie żyjący w małej społeczności mają większą intymność stowarzyszenia, podczas gdy społeczności wielkoobszarowe charakteryzują się mniejszą intymnością stowarzyszenia między członkami.

Poniższa tabela przedstawia hipotetyczne dane:

W drugiej kolumnie tabeli pokazano próbki odpowiadające każdej ze społeczności.

W drugiej kolumnie tabeli pokazano próbki odpowiadające każdej ze społeczności. W kolumnie 3 przedstawiono średnie wskaźniki intymności odpowiadające typom społeczności obliczone na podstawie odpowiedzi udzielonych niektórym punktom w skali związanej z codziennymi powiązaniami między członkami.

Z tabeli wynika, że ​​średnie wskaźniki intymności różnią się odwrotnie proporcjonalnie do wielkości społeczności, tj. Im mniejszy rozmiar, tym większy wskaźnik intymności, i odwrotnie, im większy rozmiar, tym niższa ocena intymności.

Przypuśćmy teraz, że śledczy wpadli na pomysł, że te trzy typy społeczności będą się różniły pod względem możliwości, jakie oferują interakcjom między członkami, w takim stopniu, jak żywe aranżacje, wzorce mieszkaniowe, powszechnie używane narzędzia itd. Promowałyby takie stowarzyszenia.

W związku z tym badacze wprowadzą trzeci czynnik do analizy potencjału interakcji, tj. Zakresu, w jakim okoliczności, w jakich żyją ludzie, prawdopodobnie zapewnią możliwości interakcji między sobą.

Aby sprawdzić hipotezę, że w dużej mierze wynikało to z różnic w wzornictwie mieszkaniowym, mieszkaniach, powszechnie dostępnych udogodnieniach itp., Że trzy typy społeczności powodowały różnice w interakcji między członkami społeczności, badacze rozważaliby wielkość społeczności i potencjał interakcji łącznie w stosunku do średniej punktacji intymności.

Potencjał wtargnięcia jest zatem trzecią zmienną Z wprowadzoną do analizy. Potencjał oddziaływania jest sklasyfikowany, powiedzmy, w potencjale interakcji o niskim potencjale oddziaływania (b) i (c) o wysokim potencjale oddziaływania.

Poniższa tabela przedstawia hipotetyczne dane:

Czytając w wierszach tabeli, widzimy, że potencjał interakcji jest ściśle powiązany z wynikiem intymności członków społeczności, niezależnie od wielkości społeczności.

Oznacza to, że niezależnie od tego, czy rozważamy rząd dla małych społeczności, dla społeczności średniej wielkości, czy dla dużych społeczności, to w każdym przypadku wzrasta średni wskaźnik intymności ze wzrostem potencjału interakcji. Co więcej, czytając wpisy w wierszach, staje się jasne, że wielkość społeczności i potencjał interakcji mają znaczną korelację.

Na przykład około dwie trzecie respondentów w małej społeczności żyje w warunkach wysokiego potencjału interakcji; Stwierdzamy również, że znacznie mniejszy odsetek mieszkańców społeczności średniej wielkości żyje w warunkach dużego potencjału interakcji i bardzo niewielkiej części dużych mieszkańców gminy w warunkach wysokiego potencjału interakcji.

Teraz odczytujemy wyniki intymności w kolumnach, aby stwierdzić, że relacja między rodzajem społeczności a intymnością stowarzyszenia została znacznie zmniejszona. W rzeczywistości, dla osób żyjących w warunkach wysokiego potencjału interakcji, nie uzyskuje się definitywnej zależności między wielkością społeczności a stopniem intymności.

Z tego zestawu relacji śledczy mogą wywnioskować, że odwrotna zależność między wielkością społeczności a oceną intymności utrzymuje się dobrze, ale jednym z głównych sposobów, w jaki szczególny typ społeczności zachęca do intymności swoich członków, jest oferowanie możliwości, które zwiększają interakcję między nimi.

Innymi słowy, małe społeczności charakteryzują się wyższym średnim wynikiem intymności, ponieważ ich mały rozmiar zapewnia wiele możliwości dla wysokiego stopnia interakcji między członkami. Z drugiej strony społeczności o dużych rozmiarach charakteryzują się relatywnie niższą oceną zażyłości.

Jednak niższy wskaźnik zażyłości wynika nie z wielkości społeczności jako takiej, ale z faktu, że duża społeczność nie może zaoferować lepszej interakcji między członkami, jak robią to małe społeczności.

W związku z tym badacze zamiast stwierdzać, że związek między wielkością społeczności a średnim wynikiem intymności wśród członków jest fałszywy, mogliby wywnioskować, że byli w stanie prześledzić proces, w którym X (tj. Rodzaj społeczności) wpływa na Y (wskaźnik intymności).

Pierwsza z nich uzasadniała wniosek, że związek między zmiennymi X i Y był fałszywy, a drugi wniosek, że proces od X do Y można prześledzić poprzez Z (X do Z do Y). W obu przypadkach wprowadzenie trzeciej zmiennej Z zmniejszyło lub wyeliminowało związek między nimi (X i Y).

Jedną różnicę można jednak zauważyć. W pierwszym przykładzie zmienna Z (tj. Poziom dochodów rodziców) była wyraźnie wcześniejsza niż dwie pozostałe zmienne (ocena uczniów w egzaminie i oczekiwania finansowe uczniów).

W drugim przykładzie trzecia zmienna Z (potencjał interakcji zapewniany przez społeczności) nie wystąpiła przed założoną zmienną przyczynową (wielkość społeczności). Było to współbieżne i można by pomyśleć, że zaczyna się po nim.

Zatem kolejność czasowa zmiennych jest ważnym czynnikiem przy podejmowaniu decyzji, czy pozorny związek przyczynowy jest fałszywy. Oznacza to, że jeśli trzecia zmienna Z, która usuwa lub eliminuje związek między pierwotnie powiązanymi zmiennymi X i Y, wyciągamy zwykle wniosek, że pozorna przyczynowo-skutkowa między zmiennymi X i Y jest fałszywa.

Ale jeśli trzecia zmienna Z jest znana lub przypuszczalnie miała miejsce w tym samym czasie co X lub po X, może to oznaczać, że proces, w którym X prowadzi do Y, został odnaleziony. Aby uzyskać pewną miarę zaufanie w związku przyczynowo-skutkowego wynikające z badań, które nie mają charakteru eksperymentalnego, konieczne jest poddanie ich krytycznej próbie wyeliminowania innych potencjalnie istotnych zmiennych.

Z tego powodu ważne jest zbieranie w trakcie badań danych o takich potencjalnie wpływowych zmiennych, innych niż te, z którymi centralna jest hipoteza badania.

Stwierdzono wcześniej, że wprowadzenie trzeciej zmiennej do analizy może spowodować nasilenie zależności w obrębie jednej podgrupy i zmniejszenie jej w innej podgrupie. Jeśli tak jest, mówimy, że określiliśmy warunek (Z), pod którym zachowana jest relacja między X i Y.

Zilustrujmy teraz proces specyfikacji. Przypuśćmy, że w badaniu społecznościowym identyfikujemy związek między poziomem dochodów a wykształceniem.

Zostało to przedstawione w poniższej tabeli:

W tabeli widzimy, że związek między wykształceniem a dochodami jest dość wyraźny. Wyższe wykształcenie, ogólnie rzecz biorąc, wyższy odsetek przypadków, w których dochód roczny wynosi Rs.5, 000 / - i więcej. Możemy jednak zdecydować, że związek wymaga dalszych specyfikacji.

To znaczy, możemy chcieć dowiedzieć się więcej o warunkach, w których ten związek się znajduje. Przypuśćmy, że ta myśl uderza w nas, że fakt respondentów mieszkających w miejsko-przemysłowej społeczności może pozytywnie wpłynąć na zalety edukacji na opłacalne zatrudnienie, a tym samym na jej odbicie w dochodach.

Przy takim założeniu wprowadzamy trzeci czynnik Z, tj. Tych respondentów, którzy mieszkają w miejskiej społeczności przemysłowej i tych, którzy mieszkają w wiejskiej społeczności nieprzemysłowej, do analizy i widzimy, jak wpływa ona na początkowy związek między X i Y ( tj. edukacja i dochody).

Załóżmy, że otrzymujemy obraz, jak pokazano w poniższej tabeli:

Widać wyraźnie, że tabela B odzwierciedla bardzo różny stosunek dochodów i wykształcenia dla osób żyjących w społeczności wiejskiej i nieprzemysłowej, w porównaniu do tej, którą otrzymują mieszkańcy społeczności miejsko-przemysłowej. Widzimy, że dla osób mieszkających w miastach przemysłowych związek między wykształceniem a dochodem jest nieco wyższy niż pierwotny związek.

Jednak dla osób mieszkających w wiejskich, nieprzemysłowych społecznościach relacja w powyższej tabeli jest znacznie niższa niż początkowy związek.

Tak więc wprowadzenie trzeciego czynnika i podział pierwotnego związku na podstawie trzeciego czynnika (Z) pomógł określić warunek, w którym relacja między X i Y jest bardziej wyraźna, jak również warunek, w którym relacja jest mniej wyraźna.

Podobnie przypuśćmy, że podczas badania stwierdzamy, że osoby należące do kategorii o wyższym dochodzie mają na ogół mniejszą liczbę dzieci w porównaniu do osób z niższym dochodem. Przypuśćmy, że odczuwamy (na podstawie teoretycznej orientacji), że czynnik zamieszkiwania w miastach może mieć znaczenie w wpływie na związek.

Przedstawiając ten czynnik, przypuśćmy, że odkrywamy, że pierwotny związek między poziomem dochodów i liczbą dzieci staje się bardziej widoczny w mieście i że staje się mniej wyraźny wśród mieszkańców wsi, niż że zidentyfikowaliśmy warunek Z (tj. ), w którym relacja staje się zdecydowanie wzmocniona lub wyraźniejsza.

Interpretacja wyników badania:

Do tej pory zajmowaliśmy się głównie procedurami, które razem zawierają, jak to zwykle nazywamy, analizę danych. Zadanie badacza jest jednak niekompletne, jeśli zatrzymuje się, przedstawiając swoje odkrycia w formie empirycznych uogólnień, do których jest w stanie dojść poprzez analizę danych.

Naukowiec, który na przykład kończy swoje badania jedynie stwierdzeniem, że "osoby niezamężne mają większą częstość samobójstw w porównaniu z osobami pozostającymi w związku małżeńskim", nie wypełnia swojego ogólnego obowiązku naukowego, chociaż empiryczne uogólnienie, które przedstawił ma pewną wartość samo w sobie.

Badacz w większym interesie nauki musi również starać się pokazać, że jego obserwacja wskazuje na pewne relacje leżące u podstaw i procesy, które początkowo są ukryte dla oczu. Innymi słowy, badacz musi wykazać, że jego obserwacja ma znaczenie, znacznie szersze i głębsze niż to, które wydaje się mieć na poziomie powierzchni.

Aby powrócić do naszego przykładu samobójstwa, badacz powinien być w stanie wykazać, że jego obserwacja, że ​​"osoby niezamężne charakteryzują się samobójstwem" odzwierciedla w rzeczywistości głębszy związek między spójnością społeczną a stopą samobójstwa (teoria Durkheima).

Gdy badacz będzie w stanie ujawnić relacje i procesy, które leżą u podstaw jego konkretnych odkryć, może ustanowić abstrakcyjne związki między swoimi odkryciami i różnymi innymi.

W gruncie rzeczy praca badacza wykracza daleko poza gromadzenie i analizę danych. Jego zadaniem jest interpretacja wyników jego badań. To dzięki interpretacji badacz może zrozumieć prawdziwe znaczenie swoich odkryć, tzn. Może docenić, dlaczego odkrycia są tym, czym są.

Jak stwierdzono wcześniej, interpretacja jest poszukiwaniem szerszych i bardziej abstrakcyjnych znaczeń wyników badań. Poszukiwanie to obejmuje przegląd wyników badań w świetle innej ustalonej wiedzy, teorii lub zasady. To wyszukiwanie ma dwa główne aspekty.

Pierwszy aspekt obejmuje wysiłki zmierzające do ustanowienia ciągłości badań poprzez powiązanie wyników danego badania z wynikami innego badania. To dzięki interpretacji badacz może rozwikłać lub zrozumieć abstrakcyjną zasadę pod konkretnymi obserwacjami empirycznymi.

Ten abstrakcyjny wspólny mianownik, który został rozpoznany, naukowiec może łatwo połączyć swoje odkrycia z wynikami innych badań prowadzonych w różnych miejscach, zróżnicowanych pod względem szczegółów, ale odzwierciedlających tę samą abstrakcyjną zasadę na poziomie ustaleń.

Nie trzeba dodawać, że badacz może na podstawie rozpoznania abstrakcyjnej zasady teoretycznej leżącej u podstaw tego odkrycia, dokonać różnych przepowiedni o konkretnym świecie wydarzeń zupełnie niezwiązanych z obszarem swoich odkryć. W związku z tym można przeprowadzić nowe badania w celu przetestowania przewidywań i, co zrozumiałe, badania takie będą miały związek z początkowymi badaniami naukowca.

W nieco innym sensie interpretacja jest koniecznie związana z przejściem od badań eksploracyjnych do eksperymentalnych. Interpretacja wyników poprzedniej kategorii badań często prowadzi do hipotez dla tej ostatniej.

Ponieważ badanie eksploracyjne nie ma hipotezy na początek, odkrycia lub wnioski z takiego badania muszą być interpretowane na podstawie interpretacji "post factum", często jest to gra niebezpieczna obarczona niebezpiecznymi konsekwencjami. Taka interpretacja wiąże się z poszukiwaniem ojca chrzestnego w naturze jakiejś teorii lub zasady, które przyjęłyby (tj. Wyjaśniły) wyniki badania.

Zadanie to często okazuje się ćwiczeniem ze strony badacza, aby uzasadnić swoje odkrycia, lokalizując jakąś odpowiednią teorię, aby dopasować ją do swoich odkryć. W rezultacie dość często sprzeczne wnioski mogą znaleźć swoich "ojców chrzestnych" w różnych teoriach.

Ten aspekt interpretacji post factum, obejmujący próby racjonalizacji wyników badań, powinien być wyraźnie brany pod uwagę przy jej kontynuowaniu. Czasami nie ma jednak innej alternatywy.

Po drugie, interpretacja prowadzi do ustanowienia pojęć wyjaśniających. Jak już wskazano, interpretacja wyników obejmuje wysiłki mające na celu wyjaśnienie, dlaczego obserwacje lub odkrycia są tym, czym są. Wykonując to zadanie, teoria ma kluczowe znaczenie.

Jest sensybilizatorem i przewodnikiem dla podstawowych czynników i procesów (podstawy objaśniające) pod wynikami. Pod obserwacjami badacza w toku studiów znajduje się zestaw czynników i procesów, które mogą wyjaśnić jego obserwacje świata empirycznego. Interpretacja teoretyczna odkrywa te czynniki.

Zadaniem badacza jest wyjaśnienie relacji, które zaobserwował w trakcie jego studiów, poprzez ujawnienie podstawowych procesów, które pozwalają mu głębiej zrozumieć te relacje i wskazać na rolę pewnych podstawowych czynników działających w obszarze problemowym jego badań.

Interpretacja służy zatem dwojakiego celu. Po pierwsze, daje zrozumienie ogólnych czynników, które wydają się wyjaśniać to, co zaobserwowano w toku badań, a po drugie zapewnia teoretyczną koncepcję, która może służyć jako przewodnik do dalszych badań.

W ten sposób nauka kumulatywnie odsuwa z sukcesem podstawowe procesy, które kształtują część świata empirycznego, z którym boryka się badacz.

Interpretacja jest tak nierozerwalnie związana z analizą, że należy ją raczej uważać za szczególny aspekt analizy, a nie za odrębną lub odrębną operację. Kończąc, mamy pokusę, aby zacytować profesora C. Wrighta Millsa, który stwierdził istotę tego, co jest zaangażowane w analizę danych.

Mówi Mills: "Odkryjesz i opisasz, ustawiasz rodzaje zamawianych przedmiotów, koncentrujesz i porządkujesz doświadczenie, wyróżniając przedmioty po imieniu. Poszukiwanie porządku spowoduje, że będziesz szukał wzorców i trendów oraz odnajdywał relacje, które mogą być typowe i przyczynowe. Będziesz szukać w skrócie, dla znaczenia tego, co przyszedłeś lub co można zinterpretować jako widoczny znak czegoś, co wydaje się być zaangażowane w to, co próbujesz zrozumieć; sprawisz, że będzie to niezbędne; następnie ostrożnie i systematycznie powiążesz je ze sobą, aby stworzyć rodzaj działającego modelu ... ".

"Ale zawsze wśród wszystkich szczegółów, będziesz szukał wskaźników, które mogą wskazywać na główny dryf, na podstawowe formy i tendencje w zakresie społeczeństwa w danym okresie czasu." Po zakończeniu badań, oświadczenie w ten sposób powstaje szereg nowych pytań i problemów.

Niektóre z nowych pytań stanowią podstawę dla nowych przedsięwzięć badawczych i formułowania nowych teorii, które będą albo modyfikować, albo zastąpić stare. To jest rzeczywiście, co oznaczają badania. Służy on do otwierania nowych i szerszych ścieżek intelektualnej przygody i symuluje poszukiwanie większej wiedzy oraz większą mądrość w jej używaniu.