Rozmiar próbki: problem i matematyka

Po przeczytaniu tego artykułu dowiesz się o problemie i matematyce wielkości próby.

Problem wielkości próby:

Weźmiemy teraz pod uwagę jeden z najbardziej problematycznych problemów związanych z pobieraniem próbek, a mianowicie problem wielkości próby. "Jaka powinna być odpowiednia wielkość próbki w stosunku do wielkości populacji?" "Jak duża powinna być próba?" To pytania często zadawane przez studentów badawczych. Można udzielić decydującej odpowiedzi na to pytanie.

Dzieje się tak dlatego, że na pytanie o wielkość można odpowiedzieć tylko wtedy, gdy próbkujemy elementy dla populacji w taki sposób, że każdy element ma taką samą szansę włączenia do próbki, tj. Kiedy przyjmujemy projekt prawdopodobieństwa pobierania próbek.

Tylko projekt prawdopodobieństwa umożliwia sformułowanie reprezentatywnych planów próbkowania. W związku z tym umożliwia sformułowanie reprezentatywnych planów próbkowania.

Dlatego pytanie "jak duża powinna być próba, aby być reprezentatywną dla populacji o określonej wielkości?" Zakłada procedurę próbkowania prawdopodobieństwa. W przypadku braku tej procedury reprezentatywność próby, niezależnie od wielkości, może być jedynie kwestią nadziei i domysłów.

Ogólne nieporozumienia związane z rozmiarem próbki polegają na tym, że rozmiar wszechświata, od którego pobrana jest próbka, określa liczbę przypadków potrzebnych do uzyskania odpowiedniej lub reprezentatywnej próbki tego wszechświata.

Powinniśmy od razu zauważyć, że nacisk powinien być położony nie na liczbę przypadków we wszechświecie, ale na ich liczbę w próbie.

Matematyka wielkości próbki:

Podstawowe praktyczne pytanie: "Jak określić wielkość próbki, która da pożądany stopień dokładności określony przez badacza dla danego badania?" Problem pobierania próbek jest oczywiście taki sam we wszystkich badaniach, tj. Do oszacowania lub przewidzieć coś na temat populacji na podstawie wiedzy o czymś na temat próbki.

Naukowiec musi wiedzieć, jakie statystyki na próbce będą służyć celowi, np. Odsetki, średnie, odchylenie standardowe itp., Dla takiego oszacowania. Jest to ważne, ponieważ różne rodzaje statystyk są użyteczne w zależności od żądanych stopni precyzji w przykładowych zwrotach, które z kolei są przyznawane przez różne rozmiary próbek.

Średnie i wartości procentowe są bardziej pożądanymi statystykami, w związku z tym zajmujemy się w szczególności kwestią rozmiarów próbek odpowiadających pożądanym stopniom dokładności w odniesieniu do średnich i procentów.

Ponieważ próbka narysowana przez badacza jest tylko jedną z wielu możliwych próbek wszechświata, którą mógł wybrać, musi wiedzieć, ile zaufania może umieścić na próbce jako reprezentant "wszechświata", o którym chce wiedzieć coś lub w odniesieniu do którego chce generalizować.

Musi wiedzieć, jak duża powinna być próbka, aby zapewnić mu zadowalający poziom precyzji. Obliczenie to jest możliwe przez odwoływanie się do matematyki, ponieważ w losowym próbkowaniu (projekt próbny prawdopodobieństwa), gdzie każdy element we wszechświecie ma określone prawdopodobieństwo włączenia do próbki, dokładność przewidywania lub oszacowania jest związana z pierwiastkiem kwadratowym liczby elementów w próbce.

Przed przystąpieniem do obliczania wymaganej wielkości próbki dla danego badania, konieczne jest w praktyce uzyskanie pewnych wstępnych informacji o populacji lub wszechświecie.

Jeśli badacz zamierza wykorzystać próbkę do oszacowania średniej miary określonej cechy we Wszechświecie, musi mieć pewne wstępne oszacowanie względem odchylenia standardowego (rozproszenia) w rozkładzie wartości przedmiotów we wszechświecie w odniesieniu do do podanej charakterystyki.

Badacz, który pozna zakres wartości (rozprzestrzenianie się) w odniesieniu do określonej cechy we wszechświecie, może uzyskać wstępne oszacowanie odchylenia standardowego przez podzielenie tego zakresu przez 6, ponieważ standardowe odchylenie (skończonego) wszechświata może ze względów praktycznych przyjmuje się, że jest to około 1/6 pełnego zakresu zmian.

Innymi słowy, zakres dyspersji rozkładu może wynosić 6 standardowych jednostek odchylenia. Wstępne informacje o wszechświecie można uzyskać za pomocą badania pilotażowego, wyników wcześniejszych badań, raportów opublikowanych przez biura statystyczne, oceny ekspertów w terenie itp.

Badacz, przed przystąpieniem do obliczenia wielkości próbki, musi zdecydować o spodziewanym poziomie dokładności oszacowań. Oczekiwania te opierają się głównie na celu badania.

Innymi słowy, badacz musi zdecydować:

(a) Jak duży błąd w oszacowaniu może pochodzić z próbki (w porównaniu z wartością rzeczywistą, tj. wartością "wszechświata") może być tolerowany (nazywany marginesem błędu lub limitem dokładności) i

(b) Z jak dużą pewnością można stwierdzić, że oszacowanie mieści się w tym marginesie błędu (nazywanym poziomem zaufania lub prawdopodobieństwa).

Należy jednak rozważyć je bardziej szczegółowo, obecnie:

(a) Margines błędu lub granica dokładności:

Podstawowe pytanie brzmi: "Ile procent lub średnia, jaką należy zabezpieczyć na podstawie badania próbki, może różnić się od rzeczywistej średniej (populacji) i czy nadal można ją tolerować?". Badacz może tolerować błąd 5% lub może wymagać dokładności w granicach 2%.

Wszystko zależy od tego, jak dokładnie lub dokładnie chce poznać pewne fakty. Przypuśćmy, że badacz chce wiedzieć z góry, który z dwóch kandydatów, którzy zakwestionują wybory, wygra miejsce. Jeśli głosowanie będzie bliskie, badacz może pozwolić sobie na tolerowanie tylko mniejszego błędu, jeśli ma być praktycznie pewny.

Może na przykład ustawić błąd dopuszczalny na mniej niż 2%. Z drugiej strony, jeśli wybory wydają się jednostronne i całkowicie stronnicze na korzyść określonego kandydata, badacz może być w stanie przewidzieć wyniki nawet przy znacznie większym błędzie w oszacowaniu.

Jeżeli badanie próby ujawni, że 60% głosów byłoby na korzyść kandydata, dopuszczalny byłby błąd tak wysoki jak 9%. W tym przypadku, nawet gdyby próbka pobrała najbardziej niefortunną próbkę odbiegającą o 9% od wartości rzeczywistej, prawdziwa wartość nadal wynosiłaby 51%, tj. 1% powyżej 50%, która jest punktem krytycznym.

Zatem zarówno szacowana wartość 60%, jak i rzeczywista wartość 51% byłaby powyżej punktu krytycznego (tj. 50%), a przewidywania byłyby wiarygodne.

(b) Prawdopodobieństwo lub poziom zaufania:

Oprócz ograniczenia dokładności, naukowiec musi również zdecydować w odniesieniu do swojego badania, jak dużą ufność chciałby umieścić w szacunkach próbek tak bliskich rzeczywistemu oszacowaniu, że mieści się w granicach tolerancji lub dokładności ustalonych przez go do badania.

W pewnych sytuacjach może on być bardzo pewny, że jego szacunki (na podstawie próby) będą w granicach 51% prawdziwej wartości, podczas gdy w pewnych innych sytuacjach może być zadowolony z nieco mniejszego stopnia pewności.

W badaniach z zakresu nauk społecznych dwa stopnie prawdopodobieństwa lub pewności są bardzo dobrze znane i często używane.

Jednym z nich jest 0, 95 poziomu prawdopodobieństwa, tj. Będzie 95 szans na 100, że oszacowanie próbki nie przekroczy granic tolerancji lub marginesu błędu, a drugi poziom to poziom 0, 99 prawdopodobieństwa, tj. prawdopodobne jest, że w 99 szansach na 100 oszacowanie próbki nie przekroczy dopuszczalnego marginesu błędu.

Poziom ufności można nawet ustalić na 0, 999, to znaczy oszacowanie próbki nie odstąpiłoby od wartości rzeczywistej (wszechświata) przekraczającej granice tolerancji w 999 szansach na 1000. Dla pewnych celów badacz może celować w niski i ustawić poziom prawdopodobieństwa na 0, 67 (tj. 2 na 3).

Szanse, że konkretna próbka narysowana do badania dostarczy szacunkowi wszechświata, który znajduje się w granicach błędu, zależą od zmienności między próbkami, które można wyciągnąć z wszechświata. Jeżeli wartości zabezpieczone z próbek mają tendencję do znacznego odchylenia od wartości rzeczywistej, szanse na to, że dowolna wartość próbki mieści się w dopuszczalnych granicach błędu, są niskie.

Błąd standardowy jest miarą, która mówi nam, jakie są szanse na próbkę mieszczącą się w dopuszczalnych granicach. Jest to miara zmienności w oszacowaniu pobierania próbek, której można oczekiwać w losowym próbkowaniu. Losowe próbki mają tendencję do podążania za prawami prawdopodobieństwa, a oszacowania próbki mają tendencję do skupiania się wokół prawdziwej wartości wszechświata.

Szacunki te można przedstawić za pomocą krzywej dzwonowej lub normalnej. Punkt środkowy tej krzywej reprezentuje prawdziwą wartość (wszechświata), a maksymalna zmienność lub odchylenie losowej próbki od tej wartości rzeczywistej jest około trzykrotnością błędu standardowego.

Błąd standardowy wynosi zatem około 1/6 całego zakresu losowej zmiany próbkowania. Jednak ze względów praktycznych błąd standardowy przyjmuje się jako 1/4 przedziału zmienności, ponieważ skrajne zmiany występują bardzo rzadko.

Tabele prawdopodobieństwa pokazują, że można oczekiwać, że 95 ze 100 próbnych oszacowań mieści się w granicach błędów standardowych +2 i -2. Oznacza to, że jeśli ustawimy poziom ufności lub prawdopodobieństwa na poziomie 0, 95, naszym problemem będzie losowanie próbki z błędem standardowym, który wynosi około 1/2 (połowy) naszego marginesu błędu.

Dla wyższego poziomu prawdopodobieństwa musielibyśmy pobrać próbkę ze standardowym błędem, który jest jeszcze mniejszą częścią marginesu błędu.

Należy zauważyć, że błąd standardowy staje się mniejszy (wyższa precyzja), ponieważ próbki stają się większe. Aby podwoić precyzję, wielkość próbki musi zostać pomnożona przez 4, tj. Czterokrotnie zwiększona; do potrojenia, wielkość próbki musi być pomnożona przez 9; czterokrotnie, o 16 i tak dalej.

Oznacza to tylko, że precyzja wzrasta jako pierwiastek kwadratowy liczby przypadków w próbce. Statystycy przygotowali tabele, które pokazują prawdopodobieństwo przykładowych szacunków mieszczących się w różnych standardowych granicach błędu.

Limity te są na ogół określone jako + (plus) i - (minus). Tabele takie łatwo pokazują na przykład, że 95% próbek losowych próbek mieści się w granicach błędów standardowych +196 i -1.96, około 68% szacunków mieści się w granicach błędu standardowego + 1 i -1 oraz 99% szacunki mieszczą się w przedziale +2, 57 i -2, 57 błędów standardowych i tak dalej.

Przy pełnym uwzględnieniu (1) marginesu błędu i (2) prawdopodobieństwa lub poziomu ufności, naukowiec może przystąpić do obliczenia pożądanej wielkości próbki. Mildred Parten podał następującą formułę do obliczania wielkości próby, gdy statystyką do oszacowania jest procent. Jest to oczywiście transponowana zmiana standardowej formuły błędu.

Rozmiar próbki = PC (100-PC) Z 2 / T 2

W powyższym wzorze PC oznacza wstępne oszacowanie procentu (ze wszechświata).

Z oznacza liczbę standardowych jednostek błędu, które można znaleźć (z normalnej tabeli prawdopodobieństwa), aby odpowiadały wymaganemu poziomowi prawdopodobieństwa.

T oznacza margines błędu, który może być tolerowany (5% lub 2%).

Parten podał następującą formułę do obliczania wielkości próby do przewidywania lub szacowania średniej wartości Wszechświata w odniesieniu do określonej charakterystyki na pewnym poziomie ufności i ukierunkowanej na dany margines lub błąd lub granicę tolerancji.

Wielkość próbki = (δ + Z / T) 2

Gdzie 8 oznacza wstępne oszacowanie odchylenia standardowego wszechświata.

Z oznacza liczbę standardowych jednostek błędu odpowiadającą wymaganemu prawdopodobieństwu lub poziomowi ufności.

Weźmy konkretny przykład i opracuj próbkę. Załóżmy, że chcemy oszacować średni roczny dochód rodzin zamieszkujących pewną lokalną dzielnicę miasta.

Powiedzmy, że ustaliliśmy nasz margines błędu w Rs.100 / -, tzn. Będziemy tolerować oszacowanie próbki w granicach plus minus 100 od prawdziwej średniej populacji w odniesieniu do dochodu. Załóżmy, że ustawiliśmy prawdopodobieństwo lub poziom ufności na 0.95.

Załóżmy również, że z badania przeprowadzonego kilka lat temu szacujemy odchylenie standardowe w odniesieniu do rocznego dochodu ludności (miejscowości) za Rs.500 / -. Wartość Z, tj. Standardowe jednostki błędu odpowiadające prawdopodobieństwu 0, 95 wynosi 1, 96.

Zastępując te wartości we wzorze podanym powyżej, mamy

Rozmiar prostej = (500 × 1, 96 / 100) 2

= (9, 8) 2

= 95

Oznacza to, że losowa próba 95 przypadków (rodzin, które są jednostkami próby) powinna dać nam oszacowanie średniej z danego "wszechświata" w granicach ustalonego marginesu błędu i na pożądanym poziomie ufności lub prawdopodobieństwa, odpowiednio, z Rs. 100 / - i 0, 95.

Jeśli zacieśnimy margines błędu i ustawimy go na Rs. 50 / - liczba przypadków w próbie, tj. Wymagana wielkość próbki będzie czterokrotnie większa (tj. 380) jako wielkość wymagana dla wcześniejszego marginesu błędu (Rs 100 / -).

Jeżeli inna miejscowość charakteryzuje się większą jednorodnością w odniesieniu do dochodu i przypuszczać, że standardowe odchylenie w dochodach wynosi tylko 100, wielkość próby dla powyższego marginesu błędu będzie znacznie niższa.

Innymi słowy, użycie wzoru ilustruje lekcję, mianowicie: im większa homogeniczność jest mniejsza, wymagana jest próbka i im większa jest wymagana dokładność, tym większa wymagana wielkość próbki.

Powtarzające się stosowanie takich terminów, jak margines błędu i poziom ufności oraz inne wyrażenia liczbowe prawdopodobieństw i wielkości próbek, może powodować wrażenie, że wielkość próbki obliczona przez formułę zapewni pożądaną precyzję.

Należy jednak pamiętać, że relacje przedstawione w tabelach statystycznych prawdopodobieństwa przedstawiają normalne oczekiwania w idealnym losowym próbkowaniu. Ale o ile faktyczne pobieranie próbek rzadko jest idealne, nie można oczekiwać, że relacje wyrażone w tabelach będą się utrzymywać.

Ogólna trudność i rzadkość idealnego pobierania próbek powinny w sposób zrozumiały wywoływać sceptycyzm wobec wyników dokładnie odpowiadających oczekiwaniom.

Nie oznacza to jednak, że badacz nie powinien używać ani preferować dokładnej wielkości próbki obliczonej na podstawie wzoru prawdopodobieństwa. W rzeczywistości jest to dokładnie to, co powinien zrobić, ponieważ jest to jego najlepszy zakład. Nie powinien jednak nalegać na tę dokładną wielkość, jeśli względy praktyczne sprawiają, że jest on nieadekwatny.

Zasadniczo odmienne podejście do problemu określania pożądanej wielkości próbki to "test stabilności". Polega to na zbieraniu danych dla stosunkowo małych podpróbek i prowadzeniu ewidencji dystrybucji zwrotów.

Kiedy po punkcie dodawanie większej liczby podpróbek nie zmieni znacząco wyników, naukowiec może założyć, że całkowita próbka narysowana do tej pory stała się odpowiednia, pod względem wielkości. Ale ta procedura może być uważana za marnotrawstwo czasu, ponieważ w rzeczywistości skutkuje badaczem wykonującym serię oddzielnych badań rozłożonych na znaczny okres czasu.

Argumentowano, że procedura ta jest nieekonomiczna, ponieważ gromadzi się więcej harmonogramów niż jest to faktycznie potrzebne, ponieważ zwężenie do punktu o przybliżonej stabilności nie może być zlokalizowane z żadną pewnością, dopóki krzywa nie utrzyma poziomu przez pewien czas.

Ale nie wydaje się to być poważnym ograniczeniem w porównaniu z konserwatywną praktyką wielu renomowanych badań, które zbierają więcej niż niezbędna / minimalna liczba przedmiotów jako próbka.

Główną zaletą tego typu testu stabilności jest to, że zamiast zależeć od obliczeń opartych na wstępnych informacjach, po prostu zwiększa się ogólna wielkość próbki, którą zaobserwowano jako wystarczającą. Empiryczna kontrola oglądania powrotów i zatrzymania, gdy się stabilizują, wydaje się prosta i przekonująca.

Główne niebezpieczeństwo tej procedury polega na tym, że kolejne pobierane pod-próbki prawdopodobnie nie rozprzestrzenią się we wszechświecie. Wyniki mogą się ustabilizować, nawet jeśli nie reprezentują populacji.

W rzeczywistości, im mniej reprezentatywny jest pod-próbka, tym bardziej prawdopodobne jest dodanie większej liczby przypadków w celu uzyskania tego samego wyniku i pojawienia się efektu stabilizacji. Dopóki pod-próbka nie jest przekrojem wszechświata, nie będzie supersensownej próbki, na której będzie obserwowana zbliżająca się stabilizacja.

Podstawowym wymaganiem tej procedury jest to, że rosnąca reprezentatywna próbka musi być dostępna do obserwacji. Wydatki i trudności w gromadzeniu kolejnych pod-próbek, które są rozproszone we wszechświecie, są głównymi powodami, dla których nie jest to prawdopodobnie reprezentatywne.

Empiryczny test stabilności może być bardzo skuteczny, gdy podpróbki są prawidłowo rysowane i gromadzone. Metoda ta jest najbardziej odpowiednia w przypadku ankiet wywiadów obejmujących stosunkowo małe obszary lub społeczność, np. Miasto lub miasto, ponieważ wtedy nie jest tak trudno lub kosztownie sprawić, aby każda podpróbka była losową próbką populacji.

Bardziej wyrafinowaną formą kontroli empirycznej w porównaniu z testem stabilności jest stosunkowo niedawne opracowanie zwane Analizą Sekwencyjną. Ogólna procedura dotyczy tutaj dalszego dodawania do próbki i jednoczesnego testowania próbki pod kątem istotności do momentu zgromadzenia minimalnej próbki, która zapewni wymagany poziom istotności.