Statystyka matematyczna/Momenty statystyczne w działaniu

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania

Szablon:SkomplikowanaStronaStart

Będziemy się posługiwać momentami statystycznymi i wykonywać na nich działania.

Działania na wartościach oczekiwanych

Poniżej pokażemy, jakie są właściwości sumy czy różnicy, a nawet iloczynu wartości oczekiwanych oraz jakie są warunki by takowe działania zachodziły w przypadku ostatniego działania.

Suma wartości oczekiwanych

Określmy czemu jest równa wartość oczekiwana sumy argumentów x i y. Zmienna x należy do przedziału (a,b), a zmienna y należy do przedziału (c,d). Wartość oczekiwana sumy argumentów x i y, jak w przypadku wartości oczekiwanych dla dwóch argumentów definiujemy tutaj względem funkcji złożonej H(x,y)=x+y, zatem według wzoru na wartość oczekiwaną dwóch zmiennych Szablon:LinkWzór. Szablon:CentrujWzór Mając gęstość uzyskania jednocześnie zmiennej x i y, czyli f(x,y) możemy policzyć gęstość prawdopodobieństwa uzyskania zmiennej x, czyli g(x) określamy według wzoru Szablon:LinkWzór, a gęstość uzyskania zmiennej y, czyli h(y) określamy według wzoru Szablon:LinkWzór, zatem mając definicję tychże gęstości i podstawiamy je do wzoru Szablon:LinkWzór: Szablon:CentrujWzór Po skorzystaniu z definicji wartości oczekiwanych zmiennej x lub y wedle przepisu Szablon:LinkWzór, ostatecznie otrzymujemy że wartość oczekiwana sumy dwóch zmiennych jest równa sumie wartości oczekiwanych tychże samych argumentów. Szablon:CentrujWzór Analogicznie jak przy dowodzie schematu Szablon:LinkWzór wartość oczekiwana różnicy argumentów x i y jest równa różnicy wartości oczekiwanych tychże samych argumentów: Szablon:CentrujWzór Gdy we wzorze Szablon:LinkWzór zachodzi y=x, to wtedy otrzymujemy, że wartość oczekiwana z liczby zero jest liczbą zero. Szablon:CentrujWzór Podstawiając we wzorze Szablon:LinkWzór za zmienną x liczbę zero i wykorzystując własność Szablon:LinkWzór, otrzymujemy że wartość oczekiwana jest funkcją nieparzystą. Szablon:CentrujWzór

Iloczyn wartości oczekiwanych

Określmy iloczyn wartości oczekiwanych. Załóżmy, że mamy dwa niezależne zdarzenia, wtedy gęstość prawdopodobieństwa uzyskania wyników x i y jest równa iloczynowi gęstości prawdopodobieństwa uzyskania tychże samych wyników. Szablon:CentrujWzór Niech naszą funkcją złożoną będzie H(x,y)=xy, to zgodnie z Szablon:LinkWzór oraz ze wzorem na niezależne zdarzenia Szablon:LinkWzór i jeśli dodatkowo przyjmować będziemy wzory na gęstość uzyskania zmiennej x lub y względem gęstości uzyskania jednocześnie dwóch wyników Szablon:LinkWzór i Szablon:LinkWzór, wtedy otrzymujemy wzór na wartość oczekiwaną iloczynu dwóch argumentów, która jak się dowiemy dla zmiennych niezależnych jest równa iloczynowi wartości oczekiwanych dla tychże samych zmiennych: Szablon:CentrujWzór Wzór wynikający z obliczeń Szablon:LinkWzór możemy przepisać dla przejrzystości wykładu: Szablon:CentrujWzór

Wariancja, współczynnik korelacji, transformacje liniowe

Odchylenie standardowe i wariancja to podstawowe wielkości w statystyce matematycznej, pozwalają określić, jaki błąd popełniliśmy w doświadczeniu, oraz czy wyniki uzyskane w doświadczeniu są zależne od innych wyników (tu mowa o kowariancji).

Kowariancja dwóch zmiennych

Kowariancję dwóch zmiennych typu dyskretnego x i y, gdy ich wartościami oczekiwanymi są kolejno Szablon:Formuła i Szablon:Formuła, definiujemy wedle wzoru Szablon:LinkWzór, gdy prawdopodobieństwo uzyskania tychże wyników jest P(xSzablon:Sub,ySzablon:Sub): Szablon:CentrujWzór Dla zmiennych typu losowego ciągłego wzór Szablon:LinkWzór na kowariancję, gdy gęstość uzyskania dwóch wyników x i y jest równe h(x,y), piszemy: Szablon:CentrujWzór Ogólnie, oba te przypadki losowych wartości, dyskretnych bądź ciągłych, można zapisać jako wartość oczekiwana wyrażenia (x-xSzablon:Sub)(y-ySzablon:Sub), ale tylko dla dwóch zmiennych: Szablon:CentrujWzór Można powiedzieć, że kowariancja jest wartością oczekiwaną Szablon:LinkWzór, gdy funkcją złożoną jest: Szablon:CentrujWzór

Kowariancja dwóch niezależnych wyników w doświadczeniu

Zdefiniujmy f(x) jako gęstość prawdopodobieństwa uzyskania wyniku x, a także g(x) jako gęstość prawdopodobieństwa uzyskania wyniku y, wówczas prawdopodobieństwo uzyskania tychże wyników dla dwóch niezależnych zdarzeń określa się wzorem Szablon:LinkWzór.

Dla zmiennych niezależnych typu ciągłego można udowodnić z definicji jedynkowego momentu statystycznego zmiennej x lub y, czyli Szablon:LinkWzór względem ich wartości oczekiwanych Szablon:Formuła lub Szablon:Formuła, która jest zawsze równa zero, stąd dochodzimy do wniosku, że ta kowariancja dwóch zdarzeń w tym przypadku jest równa zero, zatem można by powiedzieć, że w takim razie te dwa pomiary są niezależne od siebie. Szablon:CentrujWzór W ten sposób otrzymujemy, że dla dwóch niezależnych zdarzeń (uzyskania wyników) kowariancja jest równa zero, czyli ostatecznie: Szablon:CentrujWzór

Wariancja kombinacji liniowej dwóch zmiennych

Wyznaczmy wariancję sumy kombinacji liczb x i y. Obliczenia przeprowadzimy wykorzystując ze wzorów skróconego mnożenia i z wartości oczekiwanych sumy zdarzeń Szablon:LinkWzór oraz definicji wariancji Szablon:LinkWzór i ostatecznie z definicji kowariancji dla dwóch zmiennych Szablon:LinkWzór: Szablon:CentrujWzór Wzór wynikający z obliczeń Szablon:LinkWzór możemy przepisać dla przejrzystości wykładu w formie: Szablon:CentrujWzór

Współczynnik korelacji

Definicja współczynnika korelacji wygląda jako iloraz kowariancji zmiennej x i y przez iloczyn odchyleń standardowych pomiarowych tych samych zmiennych: Szablon:CentrujWzór

Obliczenia z użyciem współczynnika korelacji

Użyjemy zredukowanych zmiennych, która jest ilorazem odchylenia od wartości oczekiwanej Szablon:Formuła zmiennej x przez odchylenie standardowe tej samej zmiennej Szablon:CentrujWzór Z własności podstawienia Szablon:LinkWzór wnioskujemy, że wartość oczekiwana tej samej zmiennej jest taka jak udowodnimy, że jest równa zero, co nie powinno nas dziwić: Szablon:CentrujWzór Natomiast wariancja wartości zmiennej rozważanej zmiennej u, przy czym wykorzystując tożsamość Szablon:LinkWzór, jest równa jeden, jak udowodnimy poniżej. Szablon:CentrujWzór Powyżej skorzystaliśmy, że wariancja z wartości oczekiwanej jest równa zero, również kowariancja, w której jedna ze zmiennej jest wartością oczekiwaną również też jest równa zero. Korzystając z dowodu wariancji Szablon:LinkWzór, a także z tożsamości Szablon:LinkWzór i na końcu z definicji współczynnika korelacji Szablon:LinkWzór, wtedy można napisać, że wariancja sumy zmiennych u i v, którego definicje są według Szablon:LinkWzór, można jak udowodnić, tą wielkość przedstawić wedle sposobu: Szablon:CentrujWzór W przypadku wariancji różnicy tychże argumentów, co poprzednio możemy otrzymać wzór bardzo podobny do tożsamości Szablon:LinkWzór, ale trochę w innej postaci: Szablon:CentrujWzór Ponieważ dowolna wariancją jest funkcją nieujemną. Z dwóch tożsamości Szablon:LinkWzór i Szablon:LinkWzór otrzymujemy własność dla współczynnika korelacji: Szablon:CentrujWzór Można wykazać, że współczynnika korelacji w zmiennych u i v zdefiniowanych w punkcie Szablon:LinkWzór jest równa współczynnikowi korelacji, ale w zmiennych x i y, a oto dowód tej tożsamości Szablon:CentrujWzór Dla zmiennych zależnych według pewnej funkcji y=f(x), ale tym razem określmy, że te zmienne zależą w sposób liniowy wedle: Szablon:CentrujWzór Zatem na podstawie zależności Szablon:LinkWzór możemy policzyć współczynnik kowariancji wedle schematu: Szablon:CentrujWzór Również otrzymujemy, że wariancja zmiennej y, która się zmienia według funkcji liniowej Szablon:LinkWzór, jest ona określona według wyprowadzenia: Szablon:CentrujWzór Z obliczeń Szablon:LinkWzór możemy wyznaczyć odchylenie standardowe zmiennej y, biorąc pierwiastek obu stron wspomnianej tożsamości: Szablon:CentrujWzór Zatem funkcja korelacji, dla y zależnego liniowo od x, według Szablon:LinkWzór zależy od odchylenia standardowego zmiennej y Szablon:LinkWzór oraz z definicji odchylenia standardowego zmiennej x, wtedy dostajemy, że liczona wspomniana wielkość jest: Szablon:CentrujWzór Dodatkowo mamy ρ(x,y)=0, gdy a=0.

Czyli gdy ρ(x,y)=1, to funkcja liniowa Szablon:LinkWzór jest rosnąca, tzn. a>0, ale następnie gdy zachodzi ρ(x,y)=-1 ta sama funkcja liniowa jest teraz malejąca, bo wtedy mamy a<0. Natomiast, gdy jeszcze zachodzi dla współczynnika korelacji ρ(x,y)=0, wtedy ta nasza funkcja liniowa jest funkcją stałą, bo a=0.

Transformacje liniowe i ortogonalne

Wiemy, że każdą funkcję można przetransformować pewnymi transformacjami liniowymi wokół pewnego punktu, a więc zakładamy, że mamy Szablon:Formuła, która jest wielkością wektorową, którą można przetransformować pewnymi funkcjami liniowymi względem argumentu Szablon:Formuła, według wzoru poniżej: Szablon:CentrujWzór Można udowodnić z transformacji Szablon:LinkWzór, że współczynniki tSzablon:Sub można zapisać jako pochodne cząstkowe zmiennej ySzablon:Sub względem argumentu xSzablon:Sub: Szablon:CentrujWzór Macierzowa postać wzoru na zmienną ySzablon:Sub względem argumentu xSzablon:Sub, lub ogólniej przy wektorze Szablon:Formuła względem wektora argumentu Szablon:Formuła, przedstawia się wedle:

Szablon:CentrujWzór

Powyższy zapis można przedstawić w bardziej uproszczony sposób macierzowy, przy czym używając macierzy T, którego elementy są zdefiniowane w punkcie Szablon:LinkWzór: Szablon:CentrujWzór Aby uzyskać wartość oczekiwaną zmiennej y, korzystamy z wzoru Szablon:LinkWzór zastępując wszystkie zmienne w wspomnianym wzorze ich wartościami oczekiwanymi, względem wartości oczekiwanej wektora x i "y", ostatecznie otrzymując: Szablon:CentrujWzór Ogólnie, gdy chcemy policzyć kowariancję zmiennej x i y, tzn. czy oba zdarzenia są zależne od siebie, wtedy należy wykorzystać ze wzoru na macierzową postać kowariancji napisanej wedle tożsamości Szablon:LinkWzór. Wzory Szablon:LinkWzór i Szablon:LinkWzór podstawiamy do wzoru na kowariancję, wtedy dostajemy wyrażenie na kowariancję zmiennej y. Szablon:CentrujWzór Na podstawie definicji kowariancji zmiennej x, czyli Szablon:LinkWzór, możemy zapisać jak zależy kowariancja zmiennej y względem kowariancji zmienne x, gdy macierz transformacji w przekształceniu Szablon:LinkWzór jest T: Szablon:CentrujWzór Jeśli mamy n zmiennych, które nie zależą od siebie, to wyrazy pozadiagonalne są równe od zero, czyli conv(x,y)=0, ale posiada tylko wyrazy diagonalne, które w ogólności są różne od zera i są równe wariancji poszczególnych zmiennych losowych.

Wiemy, jakie są elementy macierzy transformacji z Szablon:Formuła do Szablon:Formuła według wzoru Szablon:LinkWzór, którego elementy są policzone według Szablon:LinkWzór, stąd kowariancja wyniku wykorzystując przy tym przybliżenie wedle wzoru Szablon:LinkWzór, którą jest funkcja liniowa wokół pewnego punktu względem małego wychylenia od tego elementu, zatem wariacja zmiennej ySzablon:Sub przy zerowaniu się elementów kowariancji (elementów macierzy kowariancji pozadiagnoalnych), jeżeli mamy zmienne niezależne, jest napisana: Szablon:CentrujWzór W doświadczeniach fizycznych przyjmuje się zwykle, że pierwiastek wariancji jest to odchylenie wyniku pomiarowego: Szablon:CentrujWzór Jest to niepewność pomiarowa wyniku pomiaru zmiennej ySzablon:Sub, obliczonej przez eksperymentatora na podstawie wyników doświadczeń.

Szablon:SkomplikowanaStronaKoniec