Współczynnik korelacji znaku Fechnera. Współczynnik korelacji liniowej Współczynnik korelacji znakowej

I kilka współczynników rankingowych

Oprócz tych omówionych w podrozdziale. 10,2 współczynnik korelacji

Zależność, współczynnik determinacji, korelacja

Noszenie, istnieją inne współczynniki oceny

Stopień bliskości korelacji pomiędzy badanymi

Wystarczą zjawiska i przepis na ich odnalezienie

Prosty. Przyjrzyjmy się niektórym z tych współczynników.

Współczynnik korelacji znaku Fechnera

Współczynnik ten jest najprostszym wskaźnikiem

Stopień bliskości połączenia zaproponował niemiecki naukowiec

G. Fechnera. Wskaźnik ten opiera się na ocenie stopnia

Zgodność kierunków poszczególnych odchyleń

Wartości współczynnika i wynikowe cechy z odpowiednich

Odpowiednie wartości średnie. Aby to ustalić, oblicz

Pokazane są średnie wartości wynikowej () i silni ().

znaków, a następnie znaleźć oznaki odchyleń od średniej dla

Wszystkie wartości charakterystyk wypadkowych i czynnikowych. Jeśli

porównywana wartość jest większa od średniej, wówczas umieszcza się znak „+”,

a jeśli mniej - znak „-”. Dopasowywanie znaków indywidualnie

wartości serii X i y oznacza stałą zmienność, i ich

Niespójność jest naruszeniem spójności.

Współczynnik Fechnera oblicza się za pomocą następującego wzoru:

, (10.40)

Gdzie Z- liczba dopasowań poszczególnych znaków odchylenia

Nowe wartości z wartości średniej;

N to liczba rozbieżności w oznakach odchyleń indywidualnych

Nowe wartości od wartości średniej.

Zauważ, że -1 ≤ Kf≤ 1. Kiedy Kf= ±1 mamy pełny bezpośredni

wzajemna lub odwrotna spójność. Na Kf= 0 - połączenie pomiędzy

Nie ma rzędów obserwacji.

Korzystając z danych początkowych z przykładu 10.1, obliczamy współczynnik

Enta Fechnera. Dane niezbędne do ustalenia jego lokalizacji to

Tim w tabeli. 10.4.

Ze stołu 10.4 to stwierdzamy Z= 6; N= 0, zatem zgodnie z formą-

le (10.40) otrzymujemy: , czyli pełną zależność bezpośrednią

pomiędzy kradzieżami broni ( X) i uzbrojonych przestępców

pycha ( y). Otrzymana wartość Kf potwierdza poczyniony wniosek

Po obliczeniu współczynnika korelacji widać, że

Pomiędzy rzędami x i y istnieje dość bliska linia prosta

Zależność liniowa.

Tabela 10.4

Kradzież

bronie, X

Uzbrojony

przestępstwa, y

Oznaki odchylenia od średniej

773 4481 − −

1130 9549 − −

1138 8873 − −

1336 12160 + +

1352 18059 + +

1396 19154 + +

Współczynnik korelacji rang Spearmana

Współczynnik ten odnosi się do rankingu, czyli korelacji

Nie określa się wartości współczynnika i samych wartości wynikowych;

Znaki i ich szeregi (numery ich miejsc zajętych w każdym rzędzie

Wartości w kolejności rosnącej lub malejącej). Cor-

Relacje rang Spearmana opierają się na rozważeniu różnicy

Rangi współczynników i wartości cech wypadkowych. Dla

aby go znaleźć, stosuje się następującą formułę:

, (10.41)

Gdzie jest kwadrat różnicy rang.

Na podstawie danych obliczmy współczynnik Spearmana

Przykład 10.1. Od wartości uznania czynnika

ka X początkowo ułożyliśmy je w kolejności rosnącej, a następnie w szeregu X biegł-

nie trzeba tuczyć. Rankingujemy (od najmniejszej do największej) serię y.

Wszystkie dane niezbędne do obliczeń znajdują się w tabeli. 10,5.

Tabela 10.5

Szeregi Rgx wiersz X Szeregi Rgy wiersz y|di| = |RgxiRgyi|

Teraz korzystając ze wzoru (10.41) otrzymujemy

Zauważ, że -1 ≤ ρ C≤ 1, tj. wynikowa wartość pokazuje

Prawdą jest, że pomiędzy kradzieżą broni a przestępczością z użyciem broni

Ogólne zrozumienie analizy korelacji-regresji

Formy i rodzaje powiązań występujących pomiędzy zjawiskami są bardzo zróżnicowane w swojej klasyfikacji. mają wyłącznie charakter ilościowy i są badane metodami ilościowymi. Rozważmy metodę analizy korelacyjno-regresyjnej, która ma fundamentalne znaczenie w badaniu zależności między zjawiskami.

Ta metoda zawiera jego dwie części składowe— analiza korelacji i analiza regresji. Analiza korelacji jest metodą ilościową służącą do określenia siły i kierunku zależności pomiędzy zmiennymi próby. Analiza regresji jest ilościową metodą określania rodzaju funkcji matematycznej w związku przyczynowo-skutkowym pomiędzy zmiennymi.

Do oceny siły związku w teorii korelacji stosuje się skalę angielskiego statystyka Chaddocka: słabe – od 0,1 do 0,3; umiarkowany - od 0,3 do 0,5; zauważalne - od 0,5 do 0,7; wysoki - od 0,7 do 0,9; bardzo wysoki (silny) - od 0,9 do 1,0. Jest on używany dalej w przykładach na ten temat.

Korelacja liniowa

Korelacja ta charakteryzuje liniową zależność w zmienności zmiennych. Może być sparowany (dwie skorelowane zmienne) lub wielokrotny (więcej niż dwie zmienne), bezpośredni lub odwrotny - dodatni lub ujemny, gdy zmienne zmieniają się odpowiednio w tym samym lub różnych kierunkach.

Jeżeli zmienne są ilościowe i równoważne w swoich niezależnych obserwacjach z ich całkowitą liczbą, wówczas najważniejszymi empirycznymi miarami bliskości ich liniowej zależności są współczynniki bezpośredniej korelacji znaków austriackiego psychologa G.T. Fechnera (1801-1887) i współczynniki korelacji sparowanej, czystej (prywatnej) i wielokrotnej (skumulowanej) angielskiego statystyka-biometrysty K. Pearsona (1857-1936).

Współczynnik korelacji par znaków Fechnera określa zgodność kierunków poszczególnych odchyleń zmiennych od ich średnich oraz . Jest równy stosunkowi różnicy między sumami pasujących () i niedopasowanych () par znaków w odchyleniach oraz do sumy tych sum:

Ogrom Kf waha się od -1 do +1. Sumowanie w (1) przeprowadza się na podstawie obserwacji, które dla uproszczenia nie są ujęte w sumach. Jeżeli wystąpi choć jedno odchylenie lub , wówczas nie jest ono uwzględniane w obliczeniach. Jeżeli oba odchylenia jednocześnie wynoszą zero: , to przypadek taki uważa się za mający te same znaki i uwzględnia się go w . W tabeli 12.1. pokazano przygotowanie danych do obliczeń (1).

Tabela 12.1 Dane do obliczenia współczynnika Fechnera.

Liczba pracowników, tys. osób

Obrót handlowy, c.u.

Odchylenie od średniej

Porównanie znaków i

zbieg okoliczności
(Od do)

niedopasowanie (N k)

Według (1) mamy Kf = (3 - 2)/(3 + 2) = 0,20. Kierunek zależności w wahaniach!!Przeciętna liczba pracowników|liczba pracowników]] i jest dodatni (bezpośredni): znaki w odchyleniach iw większości (w 3 przypadkach na 5) pokrywają się. Bliskość zależności między zmiennymi w skali Chaddocka jest słaba.

Para Pearsona, czyste (częściowe) i wielokrotne (całkowite) współczynniki korelacji liniowej, w przeciwieństwie do współczynnika Fechnera, uwzględniają nie tylko znaki, ale także wielkość odchyleń zmiennych. Do ich obliczania stosuje się różne metody. Zatem zgodnie z metodą bezpośredniego zliczania danych niezgrupowanych współczynnik korelacji par Pearsona ma postać:

Współczynnik ten również waha się od -1 do +1. Jeżeli istnieje kilka zmiennych, obliczany jest wielokrotny (skumulowany) współczynnik korelacji liniowej Pearsona. Dla trzech zmiennych x, y, z to wygląda jak

Współczynnik ten waha się od 0 do 1. Jeśli wyeliminujemy (całkowicie wykluczymy lub ustalimy na stałym poziomie) wpływ na i , to ich „ogólna” zależność zamieni się w „czystą”, tworząc czystą (częściową) korelację liniową Pearsona współczynnik:

Współczynnik ten waha się od -1 do +1. Kwadraty współczynników korelacji (2)-(4) nazywane są współczynnikami (wskaźnikami) determinacji - odpowiednio parami, czystymi (szczególnymi), wielokrotnymi (ogółem):

Każdy ze współczynników determinacji zmienia się od 0 do 1 i ocenia stopień pewności wariacyjnej w liniowej zależności zmiennych, pokazując proporcję zmienności jednej zmiennej (y) na skutek zmienności drugiej (pozostałych) - x i y . Przypadek wielowymiarowy obejmujący więcej niż trzy zmienne nie jest tutaj brany pod uwagę.

Według ustaleń angielskiego statystyka R.E. Fishera (1890-1962) sprawdza się istotność statystyczną sparowanych i czystych (częściowych) współczynników korelacji Pearsona, jeśli ich rozkład jest normalny, w oparciu o rozkład angielskiego statystyka V.S. Gosseta (pseudonim „Student”; 1876-1937) o zadanym poziomie istotności probabilistycznej i dostępnym stopniu swobody, gdzie jest liczba połączeń (zmiennych czynnikowych). Dla współczynnika sparowanego mamy jego pierwiastek średniokwadratowy i rzeczywistą wartość testu t-Studenta:

Aby uzyskać czysty współczynnik korelacji, przy jego obliczaniu zamiast (n-2) należy przyjąć , ponieważ w tym przypadku jest m=2 (dwie zmienne czynnikowe x i z). Dla dużej liczby n>100 zamiast (n-2) lub (n-3) w (6) można przyjąć n, zaniedbując dokładność obliczeń.

Jeśli t r > t tabela, to współczynnik korelacji pary – całkowity lub czysty – jest istotny statystycznie i kiedy t r ≤ t tab.- nieistotny.

Istotność współczynnika korelacji wielokrotnej R sprawdza się za pomocą: F— Kryterium Fishera poprzez obliczenie jego rzeczywistej wartości

Na F R > zakładka F. współczynnik R uważa się za znaczący przy danym poziomie istotności a i dostępnych stopniach swobody i , i at F r ≤ F tabela- nieistotny.

W dużych populacjach n > 100 prawo rozkładu normalnego (tabelaryzowaną funkcję Laplace'a-Shepparda) stosuje się bezpośrednio do oceny istotności wszystkich współczynników Pearsona zamiast testów t i F.

Wreszcie, jeśli współczynniki Pearsona nie są zgodne z prawem normalnym, wówczas jako kryterium ich istotności stosuje się Z - test Fishera, który nie jest tutaj brany pod uwagę.

Przykład obliczeń warunkowych(2) - (7) podano w tabeli. 12.2, gdzie przyjmuje się początkowe dane z tabeli 12.1 z dodatkiem trzeciej zmiennej z - wielkości całkowitej powierzchni sklepu (100 m2).

Tabela 12.2.Przygotowanie danych do obliczenia współczynników korelacji Pearsona

Wskaźniki

Zgodnie z (2) - (5) współczynniki korelacji liniowej Pearsona są równe:

Związek zmiennych X I y jest dodatnia, ale nie zbliżona i wynosi wielkość opartą na ich sparowanym współczynniku korelacji oraz wielkość opartą na czystym współczynniku korelacji i została oceniona w skali Chaddocka odpowiednio jako „zauważalna” i „słaby”.

Współczynniki determinacji dxy =0,354 I dxy. z = 0,0037 wskazują, że jest to odmiana Na(obrót) wynika ze zmienności liniowej X(liczba pracowników) wg 35,4% w ich ogólnym powiązaniu i w czystym powiązaniu - tylko dalej 0,37% . Sytuacja ta wynika ze znacznego wpływu na X I y trzecia zmienna z— całkowita powierzchnia zajmowana przez sklepy. Bliskość jego związku z nimi jest odpowiednio rxz =0,677 i ryz =0,844.

Wielokrotny (skumulowany) współczynnik korelacji trzech zmiennych pokazuje, że zależność liniowa jest bliskość X I z C y wynosi R = 0,844, oceniany w skali Chaddocka jako „wysoki”, a wartością jest współczynnik wielokrotnej determinacji D=0,713, wskazując na to 71,3 % cała odmiana Na(obroty handlowe) wyznaczane są poprzez skumulowany wpływ na nie zmiennych X I z. Odpoczynek 28,7% ze względu na wpływ y innymi czynnikami lub krzywoliniową zależnością zmiennych y, x, z.

Aby ocenić istotność współczynników korelacji, przyjmujemy poziom istotności. Według danych początkowych mamy stopnie swobody dla i dla . Zgodnie z tabelą teoretyczną znajdujemy odpowiednio t tabelę 1. = 3,182 i t tabela 2. = 4,303. Dla kryterium F mamy i oraz z tabeli znajdujemy tabelę F. = 19,0. Rzeczywiste wartości każdego kryterium zgodnie z (6) i (7) są równe:

Wszystkie obliczone kryteria są mniejsze niż ich wartości tabelaryczne: wszystkie współczynniki korelacji Pearsona są nieistotne statystycznie.

  • Współczynnik korelacji rang Kendalla.
    Wzór obliczeniowy ma postać: Wszystkie elementy szeregujemy według atrybutu x^, według szeregu innych atrybutów x 10 ): Gdzie m.in./2 - kwantyl wyznaczony z tabeli rozkładu normalnego dla wybranego poziomu istotności a (przykładowo dla a = 0,05 otrzymujemy m.in./2 = 1,96). Jeśli P 10, potem obliczają...
    (Wieloczynnikowe metody statystyczne w ekonomii)
  • Współczynniki korelacji wskaźników stanu podsystemów regionalnych ze wskaźnikiem inwestycji
    Współczynnik dzietności -0,08 (p = 0,768) 0,10 (p = 0,707) Współczynnik zgonów -0,36 (p = 0,158) -0,65 (p = 0,004) Współczynnik umieralności noworodków -0,13 (p = 0,619) ) -0,40 (p = 0,113) Ludność 0,98 (p = 0,000) 0,62 (p = 0,008) Oczekiwana długość życia w chwili urodzenia, lata 0,20...
    (Rozwój regionalny: diagnozowanie różnic regionalnych)
  • Współczynniki korelacji wskaźników stanu podsystemów regionalnych ze wskaźnikiem inwestycji
    Współczynnik dzietności -0,08 (p = 0,768) 0,10 (p = 0,707) Współczynnik zgonów -0,36 (p = 0,158) -0,65 (p = 0,004) Współczynnik umieralności noworodków -0,13 (p = 0,619) ) -0,40 (p = 0,113) Ludność 0,98 (p = 0,000) 0,62 (p = 0,008) Oczekiwana długość życia w chwili urodzenia, lata 0,20...
    (Rozwój regionalny: diagnozowanie różnic regionalnych)
  • Współczynnik korelacji rang Spearmana
    Współczynnik ten odnosi się do współczynników rankingowych, tj. skorelowane są nie same wartości czynnika i wynikowe cechy, ale ich rangi (liczba ich miejsc zajmowanych w każdym rzędzie wartości w kolejności rosnącej lub malejącej) . Współczynnik korelacji rang Spearmana opiera się na uwzględnieniu różnicy w rangach wartości czynników...
    (Ogólna teoria statystyki)

Współczynnik korelacji, zaproponowany w drugiej połowie XIX wieku przez G. T. Fechnera, jest najprostszą miarą związku między dwiema zmiennymi. Opiera się na porównaniu dwóch cech psychologicznych X I I y I, mierzone na tej samej próbce, porównując znaki odchyleń poszczególnych wartości od średniej: i
. Wniosek o korelacji pomiędzy dwiema zmiennymi wyciąga się na podstawie zliczenia liczby dopasowań i niedopasowań tych znaków.

Przykład

Pozwalać X I I y I– dwie cechy mierzone na tej samej próbie osób. Aby obliczyć współczynnik Fechnera, należy obliczyć wartości średnie dla każdej cechy, a także dla każdej wartości zmiennej - znak odchylenia od średniej (tabela 8.1):

Tabela 8.1

X I

y I

Przeznaczenie

Na stole: A– zbieżność znaków, B– niedopasowanie znaków; N a – liczba dopasowań, N b – liczba niedopasowań (w tym przypadku N a = 4, N b = 6).

Współczynnik korelacji Fechnera oblicza się ze wzoru:

(8.1)

W tym przypadku:

Wniosek

Pomiędzy badanymi zmiennymi istnieje słaba ujemna zależność.

Należy zaznaczyć, że współczynnik korelacji Fechnera nie jest kryterium dostatecznie rygorystycznym, dlatego można go stosować jedynie na wstępnym etapie przetwarzania danych i do formułowania wstępnych wniosków.

8. 4. Współczynnik korelacji Pearsona

Oryginalną zasadą współczynnika korelacji Pearsona jest wykorzystanie iloczynu momentów (odchyłek wartości zmiennej od wartości średniej):

Jeśli suma iloczynów momentów jest duża i dodatnia, to X I Na są bezpośrednio powiązane; jeśli suma jest duża i ujemna, to X I Na silnie odwrotnie powiązane; wreszcie, jeśli nie ma połączenia pomiędzy X I Na suma iloczynów momentów jest bliska zeru.

Aby mieć pewność, że statystyki nie zależą od wielkości próby, przyjmuje się wartość średnią, a nie sumę iloczynów momentów. Podziału nie dokonuje się jednak według liczebności próby, lecz według liczby stopni swobody N - 1.

Ogrom
jest miarą powiązania pomiędzy X I Na i nazywa się kowariancją X I Na.

W wielu zagadnieniach nauk przyrodniczych i technicznych kowariancja jest całkowicie zadowalającą miarą powiązania. Jego wadą jest to, że zakres jego wartości nie jest stały, tzn. może zmieniać się w nieokreślonych granicach.

Aby ujednolicić miarę asocjacji, należy uwolnić kowariancję od wpływu odchyleń standardowych. Aby to zrobić, musisz podzielić S xy NA S x i S ty:

(8.3)

Gdzie R xy- współczynnik korelacji, czyli iloczyn momentów Pearsona.

Ogólny wzór na obliczenie współczynnika korelacji jest następujący:

(niektóre konwersje)

(8.4)

Wpływ konwersji danych na R xy:

1. Przekształcenia liniowe X I y typ bx + A I dy + C nie zmieni wielkości korelacji pomiędzy X I y.

2. Przekształcenia liniowe X I y Na B < 0, D> 0, a także kiedy B> 0 i D < 0 изменяют знак коэффициента корреляции, не меняя его величины.

Wiarygodność (lub inaczej istotność statystyczną) współczynnika korelacji Pearsona można określić na różne sposoby:

Zgodnie z tabelami wartości krytycznych współczynników korelacji Pearsona i Spearmana (patrz załącznik, tabela XIII). Jeżeli wartość uzyskana w obliczeniach R xy przekracza wartość krytyczną (tabelaryczną) dla danej próbki, współczynnik Pearsona uznaje się za istotny statystycznie. Liczba stopni swobody w tym przypadku odpowiada N– 2, gdzie N– liczba par porównywanych wartości (wielkość próby).

Zgodnie z Tabelą XV Załącznika zatytułowaną „Liczba par wartości wymaganych do statystycznej istotności współczynnika korelacji”. W takim przypadku należy skupić się na uzyskanym w obliczeniach współczynniku korelacji. Uznaje się, że jest istotny statystycznie, jeśli liczebność próby jest równa lub większa niż tabelaryczna liczba par wartości dla danego współczynnika.

Według współczynnika Studenta, który oblicza się jako stosunek współczynnika korelacji do jego błędu:

(8.5)

Błąd współczynnika korelacji oblicza się za pomocą następującego wzoru:

Gdzie M r - błąd współczynnika korelacji, R- Współczynnik korelacji; N- liczba porównywanych par.

Rozważmy procedurę obliczeń i określenia istotności statystycznej współczynnika korelacji Pearsona na przykładzie rozwiązania następującego problemu.

Zadanie

22 uczniów szkół ponadgimnazjalnych przebadano dwoma testami: USK (poziom kontroli subiektywnej) i MkU (motywacja do sukcesu). Otrzymano następujące wyniki (tabela 8.2):

Tabela 8.2

USK ( X I)

MkU ( y I)

USK ( X I)

MkU ( y I)

Ćwiczenia

Sprawdzenie hipotezy, że osoby o wysokim poziomie wewnętrzności (wynik USC) charakteryzują się wysokim poziomem motywacji do osiągnięcia sukcesu.

Rozwiązanie

1. Współczynnik korelacji Pearsona wykorzystujemy w następującej modyfikacji (patrz wzór 8.4):

Dla wygody przetwarzania danych na mikrokalkulatorze (w przypadku braku niezbędnego programu komputerowego) zaleca się utworzenie pośredniej tabeli roboczej o następującej postaci (tabela 8.3):

Tabela 8.3

X I y I

X 1 y 1

X 2 y 2

X 3 y 3

X N y N

Σ X I y I

2. Wykonujemy obliczenia i podstawiamy wartości do wzoru:

3. Istotność statystyczną współczynnika korelacji Pearsona wyznaczamy na trzy sposoby:

Pierwsza metoda:

W tabeli Załącznik XIII znajdujemy wartości krytyczne współczynnika dla 1. i 2. poziomu istotności: R kr.= 0,42; 0,54 (ν = N – 2 = 20).

Dochodzimy do wniosku, że R xy > R kr . , czyli korelacja jest istotna statystycznie dla obu poziomów.

druga metoda:

Skorzystajmy z tabeli. XV, w którym wyznaczamy liczbę par wartości (liczbę badanych) wystarczającą do istotności statystycznej współczynnika korelacji Pearsona równej 0,58: dla 1., 2. i 3. poziomu istotności jest to 12, 18 i 28, odpowiednio.

Stąd wnioskujemy, że współczynnik korelacji jest istotny dla 1. i 2. poziomu istotności, ale „nie osiąga” 3. poziomu istotności.

Trzecia metoda:

Obliczamy błąd współczynnika korelacji i współczynnika Studenta jako stosunek współczynnika Pearsona do błędu:

W tabeli X znajdujemy standardowe wartości współczynnika Studenta dla 1., 2. i 3. poziomu istotności z liczbą stopni swobody ν = N – 2 = 20: T kr. = 2,09; 2,85; 3,85.

Wniosek ogólny

Korelacja pomiędzy wskaźnikami testów USC i MkU jest istotna statystycznie dla I i II poziomu istotności.

Notatka:

Interpretując współczynnik korelacji Pearsona, należy wziąć pod uwagę następujące punkty:

    Współczynnik Pearsona można stosować w różnych skalach (ilorazowych, przedziałowych lub porządkowych) z wyjątkiem skali dychotomicznej.

    Korelacja nie zawsze oznacza związek przyczynowo-skutkowy. Innymi słowy, jeśli stwierdziliśmy, powiedzmy, dodatnią korelację między wzrostem i masą ciała w grupie badanych, nie oznacza to, że wzrost zależy od masy ciała i odwrotnie (obie te cechy zależą od trzeciej (zewnętrznej) zmiennej, która w tym przypadku wiąże się z genetycznymi cechami konstytucyjnymi danej osoby).

    R xu » 0 można zaobserwować nie tylko przy braku połączenia pomiędzy X I y, ale także w przypadku silnego połączenia nieliniowego (ryc. 8.2 a). W tym przypadku korelacje ujemne i dodatnie równoważą się, co daje iluzję braku powiązania.

    R xy może być dość mały, jeśli istnieje między nimi silne połączenie X I Na obserwowane w węższym zakresie wartości niż badany (ryc. 8.2 b).

    Łączenie próbek o różnych średnich może stworzyć iluzję dość wysokiej korelacji (ryc. 8.2 c).

y I y I y I

+ + . .

X I X I X I

Ryż. 8.2. Możliwe źródła błędów przy interpretacji wartości współczynnika korelacji (objaśnienia w tekście (pkt 3 – 5 uwagi))

Wnioski:

Wynikowa wartość współczynnika korelacji znaków wynosi zero, ponieważ liczba dopasowań i liczba niedopasowań znaków jest równa. Jest to główna wada tego wskaźnika. Na podstawie tego wskaźnika można założyć, że zależności nie ma.

Liniowy współczynnik korelacji

Sprawdzanie istotności współczynnika korelacji:

Wnioski:

Uzyskana wartość współczynnika korelacji liniowej wskazuje, że związek pomiędzy udziałem w całkowitej podaży spalanych paliw a oczekiwaną długością życia w chwili urodzenia jest umiarkowany, co wskazuje na istnienie zależności odwrotnej.

Zatem z prawdopodobieństwem 95% można przyjąć, że korelacja jest nadal istotna.

Empiryczny współczynnik korelacji:

Sprawdzanie znaczenia empirycznej zależności korelacyjnej:

Wnioski:

Uzyskana wartość empirycznego współczynnika korelacji wskazuje na umiarkowaną zależność pomiędzy badanymi cechami.

Zatem z prawdopodobieństwem 95% można stwierdzić, że korelacja pomiędzy analizowanymi wskaźnikami jest nieistotna.

Współczynnik korelacji rang Spearmana:

Wnioski:

Na podstawie wyników obliczeń współczynnika Spearmana można założyć, że istnieje słaba odwrotna zależność pomiędzy udziałem w całkowitej podaży spalanych paliw a oczekiwaną długością życia w chwili urodzenia.

Współczynnik korelacji rang Kendala:

Wnioski:

Na podstawie obliczonego współczynnika korelacji rang można założyć, że pomiędzy badanymi cechami istnieje słaba odwrotna zależność.

· Badanie możliwości wykorzystania funkcji liniowej jako formy zależności

Uważa się, że możliwe jest zastosowanie liniowego równania zależności korelacji, jednak do sprawdzenia hipotezy zależności liniowej bardziej efektywne jest wykorzystanie ilości .

Wnioski:

Prawidłowa jest zatem hipoteza o liniowości zależności pomiędzy udziałem w całkowitej podaży spalanych paliw a oczekiwaną długością życia w chwili urodzenia.



Kraje o średnim poziomie rozwoju społecznego

· Identyfikacja istnienia związku między czynnikiem a cechą wypadkową

Grupowanie analityczne

Empiryczna linia regresji


Wnioski:

Porównując średnie wartości otrzymanej cechy w podziale na grupy, można zauważyć następującą tendencję: im większy udział w całkowitej podaży spalanych paliw, tym dłuższe oczekiwane trwanie życia w chwili urodzenia (jeśli nie uwzględnimy skoków, ewentualnie ze względu na inne czynniki), czyli można założyć istnienie bezpośredniej korelacji pomiędzy cechami.

Pole korelacji


Wnioski:

Główną część jednostek tworzy chmura, zlokalizowana głównie od lewego dolnego rogu układu współrzędnych do prawego górnego rogu, można założyć, że istnieje bezpośredni związek pomiędzy cechami.

Tabela korelacji

Grupując według cechy czynnikowej liczba grup wynosi 6. Grupując według charakterystyki efektywnej, ustalimy liczbę grup równą liczbie grup według cechy czynnikowej, tj. Wykluczamy także kraje, dla których nie ma danych dotyczących atrybutu czynnikowego, liczbę krajów zmniejszono do trzydziestu, tj.

Teraz tworzymy tabelę korelacji:

Tabela korelacji Średnia długość życia w chwili urodzenia, lata
52,0-57,2 57,2-62,4 62,4-67,6 67,6-70,1 70,1-72,6 72,6-75,1 Całkowity
Udział w całkowitym wolumenie dostaw paliw spalonych, % 15-30
30-45
45-60
60-75
75-90
90-100
Całkowity

Wnioski:

Trudno określić kierunek zależności korelacyjnej, głównie częstotliwości w tabeli korelacji znajdują się na przekątnej od lewego górnego rogu do prawego dolnego rogu, czyli dużym wartościom charakterystyki czynnikowej odpowiadają duże wartości ​​wypadkowej możemy zatem założyć istnienie bezpośredniej korelacji pomiędzy cechami.

· Wskaźniki oceny stopnia bliskości związku