Logo PW tablica galtona - schematycznie


 
 
  WARSAW UNIVERSITY OF TECHNOLOGY
 
INSTITUTE OF PHYSICS
 
ECOLE DES MINES DE NANTES
 
J. Pluta1), B. Pluta2), E. Peyre3), A. Wasążnik4), Z.J.-Szmek5)
WARSZAWA
1997

Tablica Galtona

Komputerowe modelowanie procesu pomiaru

  1. Instytut Fizyki, Politechnika Warszawska
  2. Szkoła Główna Handlowa, Warszawa
  3. Ecole des Mines de Nantes
  4. Liceum Ogólnokształcące Nr 40, Warszawa
  5. XIV LO im. Stanisława Staszica w Warszawie


SPIS TREŚCI

1. Podstawy Fizyczne - pomiary i statystyka
     1.1 Pomiar, rezultat, dokładność
     1.2 Rodzaje błędów i niepewności pomiarowych
     1.3 Cechy przypadkowych błędów pomiarowych
     1.4 Kilka pojęć ze statystyki i kilka otwartych kwestii
2. Modelowanie procesu pomiaru
     2.1 Cel eksperymentu komputerowego
     2.2 Tablica Galtona i procesy stochastyczne
     2.3 Rzeczywiste i modelowane pomiary
     2.4 Założenia Hagena
     2.5 Procedura modelowania
3. Analiza wyników modelowania
     3.1 Rozkład dwumianowy (Bernoulliego)
     3.2 Centralne Twierdzenie Graniczne
     3.3 Rozkład normalny (Gaussa)
     3.4 Skończona liczba pomiarów
     3.5 Rozkład Poissona
     3.6 Test zgodności c2
     3.7 Przykłady analizy danych
     3.8 Interpretacja wyników i wnioski
4. Pytania kontrolne
5. Bibliografia

1. Podstawy Fizyczne - pomiary i statystyka

1.1 Pomiar, rezultat, dokładność

Pomiar jest podstawowym źródłem informacji w naukach przyrodniczych i technice. Proces pomiaru polega na porównaniu wielkości mierzonego obiektu z wzorcem przyjętym za jednostkę. Wynik pomiaru zawiera zasadniczo dwie informacje: wymiar jednostki (np. metr, sekunda, kilogram, amper itp.) oraz wartość liczbową, która określa ile razy mierzony obiekt jest większy lub mniejszy od przyjętego wzorca.

Uzyskana w wyniku pomiaru liczba będąca wynikiem pomiaru nie jest jednak nigdy wyznaczona bezwzględnie precyzyjnie. Dlatego rezultat pomiaru musi zawsze zawierać informację określającą dokładność uzyskanej wartości liczbowej. Bez tej dodatkowej informacji wynik pomiaru może prowadzić do zupełnie .

W przedstawionym tu modelowaniu komputerowym pokazane zostaną mechanizmy powstawania błędów pomiarowych, metody oszacowania dokładności pomiarów oraz interpretacja statystyczna wyznaczonych wartości reprezentujących wynik pomiaru i jego dokładność.

1.2 Rodzaje błędów i niepewności pomiarowych

Błędy występujące w pomiarach można podzielić na trzy grupy, które określają też sposób w jaki powinny być one traktowane w procesie pomiaru.

  1. Błędy grube - powstające wskutek pomyłki wykonującego pomiar lub nagłej zmiany warunków pomiaru. Takie błędy należy eliminować w procesie pomiaru, zaś wynik pomiaru nie powinien być obarczony ich wpływem.
  2. Błędy systematyczne - wynikające z niedoskonałości przyrządów pomiarowych lub metody pomiaru. Wynik pomiaru należy (w miarę możliwości) korygować a granice błędów systematycznych powinny być wyraźnie określone.
  3. Błędy przypadkowe - występujące zawsze w pomiarach spowodowane są przez wiele różnorodnych czynników. Nie można ich ani wyeliminować ani skorygować. Należy jednak oszacować ich wartość, która następnie powinna stanowić element wyniku pomiaru.

Błędy, których wyeliminowanie nie jest możliwe, noszą też nazwę niepewności pomiarowych.

1.3 Cechy przypadkowych błędów pomiarowych

Charakterystyczną cechą błędów przypadkowych jest to, że na błąd pomiaru składa się suma wielu małych, niezależnych przyczynków, tzw. błędów elementarnych. Spowodowane są one czynnikami wynikającymi z zewnętrznych warunków prowadzenia pomiarów (np. zmian temperatury), właściwości obiektu mierzonego (np. elastyczności materiału w pomiarach długości), niestabilnej pracy urządzeń pomiarowych, itp. W rezultacie, przy kilkakrotnym wykonywaniu pomiarów tej samej wielkości uzyskuje się różne wyniki. Wyniki te grupują się wokół wartości prawdziwej, zaś ich rozrzut może być miarą dokładności pomiaru. Samej wartości prawdziwej nie znamy, możemy jednak uzyskać jej wartość przybliżoną, oraz ocenić na ile wyznaczona wartość może różnić się od wartości prawdziwej.

1.4 Kilka pojęć ze statystyki i kilka otwartych kwestii

Traktując błędy przypadkowe jako wartości zmiennej losowej, możemy dla naszych ocen zastosować pojęcia rachunku prawdopodobieństwa i statystyki matematycznej.

Przypomnijmy te, które dotyczą bezpośrednio naszego ćwiczenia.

Wartość oczekiwana lub wartość przeciętna E(x), zmiennej losowej x określona jest jako

(1)

gdzie P(xi ) jest prawdopodobieństwem, że zmienną losowa x, będzie mieć wartość xi, a sumowanie rozciąga się na wszystkie możliwe wartości zmiennej losowej dyskretnej.

Dla zmiennych losowych o rozkładzie ciągłym wartość oczekiwana zdefiniowana jest jako

(2)

gdzie f(x) jest gęstością prawdopodobieństwa zmiennej losowej x.

Rozrzut wartości zmiennej losowej x, wokół wartości oczekiwanej, określony jest przez odchylenie standardowe s,

s2(x)=E{[x-E(x)]2}=E(x2)-[E(x)]2 (3)

W rzeczywistych pomiarach nie znamy jednak ani wartości oczekiwanej ani odchylenia standardowego. Wykonujemy natomiast serię N pomiarów i wyliczamy wartość średnią,<x>,oznaczaną też jako x.

(4)

Rozrzut poszczególnych pomiarów wokół wartości średniej opisujemy z pomocą tzw. średniego błędu kwadratowego pojedynczego pomiaru, sx .

(5)

Dokładność wyznaczenia wartości średniej określamy poprzez tzw. średni błąd kwadratowy średniej:

(6)

Wyznaczone w ten sposób wielkości <x> i sx zbiegają przy zdążającej do nieskończoności liczbie pomiarów do zdefiniowanych wcześniej wartości E(x) i s. Wielkość s<x> charakteryzuje odchylenie standardowe rozrzutu wartości średnich.

Taka procedura pozostawia jednak szereg otwartych kwestii; na przykład:

Można sformułować bardziej ogólne pytanie - co oznacza liczba nieskończenie wielka - w praktyce.

2. Modelowanie procesu pomiaru

2.1 Cel eksperymentu komputerowego

Celem przedstawionego tu eksperymentu komputerowego jest ułatwienie znalezienia odpowiedzi na postawione wyżej i podobne pytania poprzez analizę procesu pomiaru oraz mechanizmów prowadzących do powstawania błędów pomiarowych. W przeciwieństwie do realnych pomiarów, będziemy znać wartość prawdziwą x, stanowiącą punkt odniesienia w naszych rozważaniach. Będzie również możliwe wykonanie dużej liczby pomiarów w stosunkowo krótkim czasie.

Równocześnie zobaczymy, że proces powstawania błędów pomiarowych posiada wiele cech wspólnych dla całej klasy procesów statystycznych i wiedza zdobyta przy opisie procesu pomiaru może znaleźć zastosowanie w wielu dziedzinach życia, niekoniecznie dotyczących fizyki.

2.2 Tablica Galtona i procesy stochastyczne

Poglądowym modelem ilustrującym proces pomiaru jest tzw. Tablica Galtona. W oryginalnym wykonaniu przyrząd ten stanowi płyta na której rozmieszczone jest wiele rzędów kołeczków, Rys. 1. Tablica ustawiona jest pionowo bądź nachylona względem pionu.

Schematyczne przedstawienie tablicy Tablica G. na Politechnice Warszawskiej

Po lewej - Ilustracja ruchu kulki na tablicy Galtona.
Po prawej - mechaniczna wersja tablicy Galtona w Laboratorium studenckim Instytutu Fizyki PW, wykonana przez p. Andrzeja Kozłowskiego.

2.3 Rzeczywiste i modelowane pomiary

Wykonujemy pomiar wielkości x, czyli spuszczamy kulkę na tablicy Galtona. Najmniejsza działka naszego przyrządu pomiarowego równa jest odległości między kołeczkami w rzędzie. Następujące relacje określają związki pomiędzy rzeczywistym i modelowanym pomiarem.

2.4 Założenia Hagena

Sprecyzujmy podstawowe cechy procesu powstawania błędów przypadkowych oraz zestawmy je z własnościami ruchu kulek na tablicy Galtona (są to tzw.: założenia Hagena):

  1. Błędy przypadkowe obecne są w każdym pomiarze - spadające kulki zawsze ulegają zderzeniom z kołeczkami.
  2. Błąd przypadkowy pomiaru można rozpatrywać jako sumę bardzo dużej liczby małych, jednakowych błędów elementarnych - końcowe przemieszczenie kulki jest sumą dużej liczby małych, jednakowych przemieszczeń.
  3. Błędy elementarne występują z jednakowym prawdopodobieństwem ze znakiem plus i minus - prawdopodobieństwa odchyleń w prawo i w lewo są takie same.

Oznaczmy przez ±d dwie możliwe wartości przemieszczenia kulki wskutek zderzenia z kołeczkiem, a przez p prawdopodobieństwo przemieszczenia w jedną (np. prawą) stronę. Prawdopodobieństwo przemieszczenia w lewo wyniesie oczywiście: q=1-p. Jeżeli spełnione jest trzecie założenie Hagena, to p=q=0.5. Zwróćmy też uwagę, że wielkość d równa jest połowie odstępu pomiędzy kołeczkami w rzędzie.

2.5 Procedura modelowania

Procedura modelowania składa się z dwóch zasadniczych części:

  1. Opis jakościowy. W tej części zilustrowane są podstawowe własności procesu pomiaru. Modeluje się pojedyncze pomiary i możliwe jest obserwowanie ruchu kulek na tablicy, zmiana szybkości ruchu kulek, sterowanie ruchu krok za krokiem itp. Wykonuje się również serie pomiarów gdzie można obserwować zmieniające się wartości <x>, sx, s<x> wraz z rosnącą liczbą wykonanych pomiarów. Można również zmieniać prawdopodobieństwo odchylenia kulki w danym kierunku. Zestaw pytań umożliwia sprawdzenie stopnia zrozumienia związanych z modelowaniem zagadnień.
    Na pytania te należy odpowiedzieć w formie pisemnej i załączyć w sprawozdaniu.
  2. Analiza ilościowa. W drugiej części nie obserwuje się już ruchu kulek na tablicy, natomiast możliwa jest zmiana liczby aktów rozproszeń (rzędów kołeczków) w szerokim zakresie, zaś pomiary wykonuje się znacznie szybciej. Kształt końcowego rozkładu kulek na tablicy pokazywany jest wraz z zaznaczonymi granicami błędów statystycznych. Zestaw zadań umożliwia wykonanie ilościowej analizy kształtu i parametrów generowanych rozkładów. Rezultaty mogą być zapisane na dysku oraz wydrukowane w celu kontynuowania dalszej analizy oraz interpretacji wyników.
    Zadania te należy wykonać, a wyniki przedstawić w sprawozdaniu w formie liczbowej i graficznej

3. Analiza wyników modelowania

Wykonanie analizy wyników modelowania wymaga zrozumienia szeregu zagadnień z zakresu statystycznej analizy danych. Niezbędne wiadomości podane są poniżej Następnie przedstawiony jest zestaw zadań umożliwiający powiązanie wiedzy teoretycznej z zastosowaniem jej w praktyce.

3.1 Rozkład dwumianowy (Bernoulliego)

Niech nasza tablica Galtona posiada n poziomych rzędów kołeczków. Oznaczmy przez kliczbę przemieszczeń kulki w prawo nie interesując się w jakiej kolejności one zachodzą. Liczba kombinacji, w których kulka przemieści się k razy w prawo przy n rzędach kołeczków określona jest przez znany czynnik kombinatoryczny

(7)

Zakładamy, że poszczególne przemieszczenia są wzajemnie niezależne, z czego wynika, że prawdopodobieństwo danej kombinacji przemieszczeń jest iloczynem prawdopodobieństw. Uzyskujemy wówczas bardzo prosty wzór określający prawdopodobieństwo tego, ze przy n rzędach kołeczków kulka przemieści się k razy w prawo.

(8)

Jest to wzór opisujący tzw. dwumianowy rozkład prawdopodobieństwa. Wartość oczekiwana dla tego rozkładu wynosi: E(k)=np., zaś kwadrat odchylenia standardowego (wariancja), s2=np(1-p)=npq. Przy k przemieszczeniach w prawo, które przyjmijmy za dodatnie, przemieszczenie sumaryczne kulki wyniesie

(9)

Kiedy więc k będzie równe n/2, czyli kulka odbije się tyle samo razy w prawo co i w lewo, przemieszczenie sumaryczne wyniesie zero - pomiar nasz będzie dokładny. Kiedy k będzie równe n lub zero, przemieszczenie będzie największe i wyniesie ± nd; to największy dla danej wartości n możliwy błąd pomiaru w naszej procedurze modelowania.

3.2 Centralne Twierdzenie Graniczne

Opisując błędy przypadkowe zgodnie z założeniami Hagena zakładamy, że liczba błędów (przemieszczeń) jest bardzo duża, zaś poszczególne błędy (przemieszczenia) są bardzo małe. Aby to zrealizować w naszym modelu zwiększamy liczbę rzędów kołeczków zmniejszając równocześnie szerokość przegródki. Rozkład prawdopodobieństwa błędów pomiarowych (przemieszczeń) będziemy opisywać podając wartość stosunku DPkn/Dx gdzie Dx jest szerokością przegródki, która w naszym przypadku wynosi 2d

W granicy: n®¥, Dx®0, rozkład nasz przechodzi w krzywą ciągłą a zdefiniowany powyżej stosunek określa funkcje gęstości prawdopodobieństwa

(10)

Analityczna postać tak otrzymanej krzywej stanowi treść jednego z fundamentalnych twierdzeń statystyki matematycznej, tzw. Centralnego Twierdzenia Granicznego. Sens tego twierdzenia wyrazić można następująco:
Jeżeli xi są niezależnymi zmiennymi losowymi podlegającymi rozkładowi o wartości przeciętnej a i odchyleniu standardowym s, to przy n®¥ ich suma podlega rozkładowi normalnemu (Gaussa) o wartości przeciętnej równej na i odchyleniu standardowym równym s*Ön.

3.3 Rozkład normalny (Gaussa)

Można pokazać, że sumy zmiennych losowych podlegają rozkładowi Gaussa nawet wówczas gdy nie wszystkie xi pochodzą z tego samego rozkładu. W naszym przypadku odpowiada to sytuacji, kiedy błędy elementarne mają różne wartości. Twierdzenie to ma ogromne znaczenie praktyczne, a dzięki niemu rozkład Gaussa należy do najbardziej rozpowszechnionych rozkładów statystycznych. Przykład wyprowadzenia rozkładu Gaussa poprzez wykonanie przejścia granicznego:
n®¥, Dx®, przy warunku nd2=const. (zwany metodą Hagena) podany jest w podręczniku Wróblewskiego i Zakrzewskiego, Wstęp do Fizyki, tom 1, str. 67.

Zmienna losowa x ma rozkład Gaussa, jeżeli jej gęstość prawdopodobieństwa zdefiniowana jest następująco:

(11)

gdzie: a=E(x) jest wartością przeciętna, a s jest odchyleniem standardowym. Rozkład jest symetryczny względem wartości a, dla której gęstość prawdopodobieństwa osiąga maksimum. Parametr s określa "szerokość" rozkładu. Warto zapamiętać, że prawdopodobieństwo występowania zmiennej losowej w granicach jednego odchylenia standardowego względem wartości przeciętnej wynosi około 68.2 % zaś w granicach trzech wartości s wynosi 99.8 %.

3.4 Skończona liczba pomiarów

Wiemy już dlaczego właśnie rozkład Gaussa stosujemy do opisu przypadkowych błędów pomiarowych. Pomimo jednak, że liczba rzędów kołeczków na tablicy jest duża a wielkość przegródki mała, zauważamy istotne różnice w wynikach modelowania w zależności od liczby wykonanych pomiarów.

Co więcej, nawet przy tej samej liczbie pomiarów, wyniki poszczególnych serii różnią się między sobą. Jest to naturalną konsekwencją faktu, że wykonując serię N pomiarów pobieramy próbę o wymiarze N, która ma reprezentować całą populację czyli zbiór wszystkich możliwych pomiarów wielkości mierzonej. Każdy wykonany pomiar jest próbą o wymiarze jeden.

Wielkości <x>, Sx, S<x>, podobnie jak wynik pojedynczego pomiaru, są także zmiennymi losowymi w odróżnieniu od ściśle określonych wartości parametrów rozkładu Gaussa. Wielkości te noszą nazwę estymatorów - odpowiednio: wartości oczekiwanej, odchylenia standardowego, odchylenia standardowego wartości średniej dla serii N pomiarów. Wartości estymatorów dążą do wartości estymowanych parametrów przy zdążającej do nieskończoności liczbie prób.

Kiedy jednak liczba pomiarów jest niewielka, liczby trafień do poszczególnych przegródek nie układają się w spodziewany regularny kształt. Łatwo jest to zaobserwować wykonując kilka serii po N pomiarów i obserwując zmieniające się liczby trafień do tej samej przegródki.

Trafienie kulki do danej przegródki możemy traktować jako jedną z n+1 możliwych wartości zmiennej losowej stanowiącej wynik naszego modelowanego pomiaru. Liczby trafień do poszczególnych przegródek przy N wykonanych pomiarach podlegać będą tzw. rozkładowi wielomianowemu będącego uogólnieniem rozkładu dwumianowego. Pomiędzy liczbami trafień do różnych przegródek wystąpi ujemna korelacja, bowiem kiedy kulka trafia więcej razy do jednej przegródki, to automatycznie musi mniej razy trafić do innych.

3.5 Rozkład Poissona

Kiedy liczba rzędów kołeczków jest bardzo duża wówczas korelacja ta staje się nieistotna i proces zapełniania przegródek możemy opisać rozkładem dwumianowym traktując trafienie do danej przegródki jako sukces zaś nie trafienie jako porażkę. Oczywiście, wartość p=DPkn mm będzie wówczas bardzo mała ale wartość oczekiwana takiego rozkładu będzie mieć nadal wartość skończoną równą Np, gdzie N jest liczbą wykonanych pomiarów.

Ten graniczny przypadek rozkładu dwumianowego, kiedy p zdąża do zera, a N zmierza do nieskończoności, ale tak, że iloczyn Np pozostaje stały, to także jeden z najważniejszych rozkładów statystycznych - rozkład Poissona. Inne przykłady tego rozkładu to: liczba aktów rozpadu substancji promieniotwórczej w ustalonym odcinku czasu, liczba gwiazd w określonym wycinku sfery niebieskiej, liczba klientów wchodzących do sklepu w danym odcinku czasu, itp.

Rozkład Poissona, podobnie jak i rozkład dwumianowy, określony, jest dla dyskretnej zmiennej losowej;

(12)

Jedynym parametrem rozkładu Poissona jest wartość oczekiwana, l =np. Kwadrat odchylenia standardowego (wariancja) równa jest wartości oczekiwanej, s2=l.
Zwróćmy uwagę, że wartość stosunku s/l = 1/Öl zmniejsza się za wzrostem wartości oczekiwanej. Oznacza to, że błąd względny związany ze statystycznym charakterem naszego procesu maleje wraz ze wzrostem liczby pomiarów i ilościowo może być opisany przez pierwiastek kwadratowy z liczby trafień do danej przegródki.

3.6 Test zgodności c2

Konsekwencją omawianych wyżej fluktuacji statystycznych jest "poszarpany" kształt rozkładu wyników pomiarów, wizualnie niezgodny z gładkim rozkładem Gaussa. Wizualna niezgodność może być jednak uzasadniona dużą niepewnością statystyczną pomiarów. Istnieje więc potrzeba obiektywnego testu hipotezy zgodności wyników z rozkładem teoretycznym. Do tego celu wykorzystać można test zgodności c2.

W celu wykonania tego testu dzielimy wyniki uzyskanej serii pomiarów na M grup i wyznaczamy wartość wyrażenia

(13)

Każdy składnik w liczniku, to kwadrat różnicy pomiędzy liczbą pomiarów w danej grupie, a analogiczną liczbą przewidywana przez testowany rozkład statystyczny. w naszym przypadku grupę może stanowić zawartość jednej lub kilku przegródek. Jeżeli różnice te spowodowane są tylko przez rozrzut statystyczny, czyli nasza hipoteza jest prawdziwa, każdy składnik sumy powinien być rzędu jedynki (por. stosunek s2/l, powyżej). Wartość X2 będzie więc rzędu M, a jej rozkład będzie zgodny z rozkładem c2. Jedynym parametrem tego rozkładu jest liczba stopni swobody, NDF=(M-L-1); L jest liczba parametrów testowanego rozkładu, np. 2 - dla rozkładu Gaussa, 1 - dla rozkładu Poissona. Dla weryfikacji naszej hipotezy należy wprowadzić jeszcze tzw. poziom ufności, a. Jeżeli wartość X2 jest większa niż c2 dla danych NDF i a, to hipotezę należy odrzucić.

Ważnym elementem testu c2 jest wybór szerokości przedziałów, które powinny być na tyle wąskie, by odzwierciedlać kształt badanego rozkładu, ale i na tyle szerokie, by zapewnić w każdej grupie wystarczającą liczbę obserwacji przewidywanych przez testowany rozkład. Liczbę 5 przyjmuje się zwykle jako wystarczającą. Jest to szczególnie ważne na brzegach rozkładów, gdzie liczby obserwacji często są niewielkie. Właśnie wówczas można wziąć sumę obserwacji z kilku przedziałów jako jedną grupę.

3.7 Przykłady analizy danych

Poniżej przedstawionych jest kilka przykładów analizy rezultatów modelowania, które należy wykonać w ramach tego ćwiczenia. Podany zestaw nie wyczerpuje oczywiście istniejących możliwości. Wykonanie również innych testów traktowane będzie jako twórczy wkład w zrozumienie praw statystyki leżących u podstaw analizy danych doświadczalnych.

  1. Wykonaj kilka serii dla ustalonych wartości n oraz p (np. n=40, p=0.5) i dla zwiększającej się liczby pomiarów N, np. N=5, 10, 20, 50, 100, 1000. Zbadaj zależność wartości <x>,sx, s<x> od N.
  2. Sprawdź zależność pomiędzy rozrzutem wartości średnich a oszacowaniem tego rozrzutu przez wartość s<x>. Wykonaj kilka serii pomiarów dla ustalonych wartości n, p, N. Powtórz to samo dla innej wartości N. Porównaj uzyskane wyniki.
  3. Sprawdź warunki w których rozkład dwumianowy może (lub nie może) być przybliżony przez rozkład Gaussa. Wykonaj kilka serii pomiarów dla różnych wartości n, p, i N wybierając je tak, by pozwalały na wyciągnięcie uzasadnionych wniosków. Sprawdź relacje pomiędzy parametrami rozkładu dwumianowego i odpowiadającego mu rozkładu Gaussa. Sprawdź słuszność Centralnego Twierdzenia Granicznego.
  4. Przeprowadź podobny test dla przejścia granicznego pomiędzy rozkładem dwumianowym a rozkładem Poissona. Wykonaj kilka serii modelowania dla różnych wartości p i n zachowując stałą wartość iloczynu np, na przykład: (p=0.5, n=6); (p=0.2, n=15); (p=0.05,n=60). ( Wykonaj dużą liczbę pomiarów N ). Sprawdź związki pomiędzy parametrami rozkładu dwumianowego i rozkładu Poissona.
  5. Centralne twierdzenie graniczne mówi, ze rozkład sumy wielu zmiennych losowych ma kształt rozkładu Gaussa. Sprawdź to dla dużej liczby n ale niewielkiej liczby p (np. rozpocznij test od n=40 i p=0.2). Następnie modyfikuj wartości n i p. Znajdź związki pomiędzy rozkładami Gaussa i Poissona.
  6. Wykonaj test c2 dla wybranego rozkładu modelowanego i teoretycznego.
  7. Podaj kilka przykładów procesów prowadzących do rozkładów: dwumianowego, Poissona, Gaussa. Przykłady niekoniecznie dotyczyć muszą fizyki.

Uwaga: Wyniki należy przedstawić w postaci liczbowej i graficznej. Należy podać również wynikające z analizy wnioski.

3.8 Interpretacja wyników i wnioski

Prawidłowo wykonany pomiar powiększa zasób naszej wiedzy i umożliwia wyciagnięcie właściwych wniosków: naukowych, ekonomicznych, sportowych, socjologicznych itd. W przypisie na stronie pierwszej podano przykład błędnego wniosku spowodowanego zignorowaniem skali niepewności uzyskanej informacji. Konkretne wnioski zależne są od badanego problemu, jednak zawsze przy wyciąganiu wniosków musi być wzięta pod uwagę niepewność uzyskanej informacji, niezależnie od dziedziny, której ona dotyczy.

Uwaga ta odnosi się także do pomiaru, jakim było przestudiowanie tego opracowania. Z cała pewnością zawarte powyżej informacje pozostawiają wiele niepewności, które nie zostały wystarczająco wyjaśnione. Przykładem może być podanie “magicznej” liczby 5 przy opisie testu c2.
Można uzupełnić tę informację dodając, że chodzi tu o warunek przybliżenia rozkładu wielomianowego rozkładem Gaussa. Dlaczego jednak ten właśnie warunek jest tu istotny?

dpowiedź będzie bardziej ogólna. Przedstawione tu ćwiczenie stanowi pojedynczy pomiar, który w ograniczonym tylko zakresie reprezentuje populację możliwych prezentacji poruszonych tu zagadnień. Autorzy będą wdzięczni Czytelnikom za pomoc w odnalezieniu błędów grubych, które zostaną niezwłocznie wyeliminowane oraz niedopatrzeń systematycznych wynikających z profesjonalnych przyzwyczajeń autorów. Najlepiej jednak jest wyznaczyć wartość średnią poprzez uzupełnienie podanych tu wiadomości korzystając z bogatej literatury. Kilka wybranych pozycji podanych będzie poniżej.

4. Pytania kontrolne

  1. Czy wartość średnia z serii pomiarów jest bliższa wartości rzeczywistej niż pojedynczy pomiar?
  2. Czy zawsze należy wykonywać serię pomiarów i wyznaczać wartość średnią ?
  3. Jakie są korzyści z wykonania serii pomiarów w stosunku do pomiaru pojedynczego?
  4. Ile wynosi prawdopodobieństwo, że wartość zmiennej losowej o rozkładzie Gaussa równa jest wartości oczekiwanej.
  5. Kiedy rozkład dwumianowy można aproksymować rozkładem Gaussa?
  6. Kiedy kształty rozkładów: Gaussa i Poissona bardzo się różnią, a kiedy są do siebie podobne?
  7. Podaj kilka przykładów procesów prowadzących do rozkładów dwumianowego, Poissona, Gaussa.

5.Bibliografia

  1. Garbarczyk, Badanie własności rozkładu Gaussa przy użyciu tablicy Galtona, Instytut Fizyki PW, (niepublikowane)
  2. J.Pluta, Modelowanie procesu powstawania błędów przypadkowych (Tablica Galtona), Laboratorium Podstaw Fizyki, red. J.Hrabowska, L.Tykarski, zeszyt 2. str. 224, Wyd.PW, Warszawa, 1986.
  3. J.Gałązka-Friedman, I.Śledzińska, Metody opracowania i analizy wyników pomiarów, Laboratorium Podstaw Fizyki, red. J.Hrabowska, L.Tykarski, Poradnik, str. 126, Wyd.PW, Warszawa, 1985.
  4. A.K.Wróblewski, J.A. Zakrzewski, Wstęp do Fizyki, t.1, str. 45, 67, PWN, Warszawa, 1984.
  5. A.Plucińska, E. Pluciński, Elementy probabilistyki, PWN, Warszawa, 1981.
  6. S.Brandt, Metody statystyczne i obliczeniowe analizy danych, PWN, Warszawa, 1974.
  7. W.T.Eadie, D. Drijard, F.E. James, M. Roos, B. Sadoulet, Metody statystyczne w fizyce doświadczalnej, PWN, Warszawa, 1989.
  8. A.G.Frodesen, O.Skjeggestad, H. Tofte, Probability and Statistics in Particle Physics, UNIVERSITETSFORLAGET, Berlin-Oslo-Tromso, 1979.
[Spis treści]