Statystyka. Wykład 1

Download Report

Transcript Statystyka. Wykład 1

Statystyka

Przedmiot, funkcje i zadania statystyki. Rodzaje badań statystycznych. Skale pomiaru. Szeregi statystyczne

Mieczysław Kowerski

Geneza statystyki

Termin statystyka wywodzi się od łacińskiego słowa

status

– co oznacza stan, położenie, stosunki a we współczesnym włoskim

stato

oznacza państwo. W piśmiennictwie słowo statystyka zostało użyte po raz pierwszy w połowie XVIII wieku przez Gottfrieda Achenwalla (1719-1772) profesora uniwersytetów w Marburgu i Getyndze. Pod pojęciem statystyki G. Achenwall rozumiał zbiór szeroko ujmowanych wiadomości o państwie (warunkach fizjograficznych, ludności, ustroju społecznym, gospodarce itp.). Przedmiot zainteresowań statystyki jako nauki o państwie wyłonił się z potrzeb ówczesnej administracji państwowej, na użytek której zaczęto gromadzie dane liczbowe. W opracowaniach państwoznawczych z tamtego czasu posługiwano się bogatymi danymi liczbowymi, ujmowanymi w postaci zestawień tabelarycznych. Autorów tego rodzaju tablic nazywano tabelarystami. Za twórcę kierunku tabelarystycznego uważa się Duńczyka J. R. Anchersena.

John Graunt (ur. 24 kwietnia 1620 zm. 18 kwietnia 1674)

Brytyjski statystyk który razem z Williamem Petty stworzył podwaliny nowoczesnej demografii.

Jakub Bernoulli

(ur. 27 grudnia 1654 w Bazylei, zm. 16 sierpnia 1705 tamże) Szwajcarski matematyk i fizyk. Był protoplastą znanej rodziny matematyków Bernoullich. Był profesorem uniwersytetu w Bazylei.

Stworzył podstawy rachunku prawdopodobieństwa

i przyczynił się do rozwoju rachunku różniczkowego i wariacyjnego. Wprowadził pojęcia

całki

i biegunowego układu współrzędnych. Napisał dzieło z zakresu rachunku prawdopodobieństwa

Ars conjectandi

wydane pośmiertnie w roku 1713, które dotyczy permutacji i kombinacji, a głównym wynikiem jest

twierdzenie Bernoulliego o rozkładzie dwumianowym.

Sformułował

prawo Bernoulliego

najprostszą i historycznie najwcześniejszą postać

prawa wielkich liczb

- seria twierdzeń matematycznych (jedno z tzw. twierdzeń granicznych), opisujących związek między liczbą wykonywanych doświadczeń a faktycznym prawdopodobieństwem wystąpienia zdarzenia, którego te doświadczenia dotyczą.

Carl Friedrich Gauß (Gauss)

(ur. 30 kwietnia 1777 w Brunszwiku, zm. 23 lutego 1855 w Getyndze) Niemiecki matematyk, fizyk, astronom i geodeta. Uznawany jest za jednego z twórców geometrii nieeuklidesowej. Uważany jest za jednego z największych matematyków, przez sobie współczesnych określany był mianem „Księcia matematyków” (łac.

princeps mathematicorum

). Jego podobizna widniała na dziesięciomarkowym banknocie. Jego badania związane z teorią błędów doprowadziły do odkrycia

rozkładu normalnego

zmiennej losowej, nazywany także r

ozkładem Gaussa

(w literaturze francuskiej –

rozkładem Gaussa-Laplace'a

) , który jest najważniejszym rozkładem w teorii prawdopodobieństwa.

Pierre Simon de Laplace

(ur. 23 marca 1749 w Beaumont-en-Auge, zm. 5 marca 1827 w Paryżu) Francuski matematyk, astronom, geodeta i fizyk,

jeden z twórców teorii prawdopodobieństwa

, zwolennik subiektywnej interpretacji prawdopodobieństwa, na podstawie której dokonał m.in. obliczeń masy Saturna, które odbiegają od współcześnie uznanej wartości o mniej niż 1%. W 1772 został profesorem Akademii Wojskowej, następnie w 1785 został członkiem Paryskiej Akademii Nauk. W 1790 został dyrektorem Urzędu Miar i Wag. W 1799 przez krótki czas był Ministrem Spraw Wewnętrznych Francji.

Sir Francis Galton

(ur. 16 lutego 1822 w Sparbrook, Birmingham, zm. 17 stycznia 1911 w Haslemere, Surrey) Angielski podróżnik, przyrodnik, antropolog, eugenik, wynalazca, meteorolog, pisarz, lekarz, psychometra i statystyk, prekursor badań nad inteligencją. Przyrodni brat cioteczny Karola Darwina. Nadano mu tytuł szlachecki w 1909 roku.

Stworzył także teoretyczną koncepcję korelacji i regresji do średniej

. Jako pierwszy zastosował metody statystyczne do studiowania ludzkich różnic indywidualnych i dziedziczenia inteligencji oraz wprowadził kwestionariusze i ankiety do zbierania danych na temat społeczności ludzkich, których potrzebował w swych studiach antropometrycznych.

Karl Pearson

( ur. 27 marca 1857 w Londynie, zm. 27 kwietnia 1936) w Coldharbour, Surrey) Angielski matematyk, prekursor statystyki matematycznej . W roku 1898 otrzymał Medal Darwina

za jego pracę nad ilościowym podejściem do problemów biologicznych

. W 1911 roku był twórcą pierwszego na świecie uniwersyteckiego wydziału statystyki, na University College London. Opracował

współczynnik korelacji liniowej Pearsona

– określający poziom zależności liniowej między 𝜒 2 ) Pearsona zmiennymi losowymi oraz

test niezależności

(

chi-kwadrat

William Sealy Gosset

( ur. 13 czerwca 1876 w Canterbury, zm. 16 października 1937 w Beaconsfield) Angielski statystyk. Publikował pod pseudonimem Student (stąd nazwa wprowadzonego przez niego w roku 1908

rozkładu prawdopodobieństwa: rozkład Studenta

). Przez większość życia pracował w browarach Guinnessa w Dublinie i w Londynie. Zajmował się tam m.in. kontrolą jakości piwa i surowców do jego produkcji, co doprowadziło go do rozważań nad statystyką i szacowaniem nieznanych parametrów. Wniósł wielki wkład w rozwój metod statystycznych (estymacji, testowania hipotez statystycznych) i wiedzy o projektowaniu eksperymentów.

Sir Ronald Aylmer Fisher

(ur. 17 lutego 1890 w Londynie, zm. 29 lipca 1962 w Adelaide) Genetyk i statystyk brytyjski, profesor eugeniki London School of Economics w latach (1933-1943) i profesor genetyki Uniwersytetu w Cambridge (1943-1957), członek Royal Society w Londynie (Towarzystwa Królewskiego). Ronald Fisher stworzył m.in.

statystyczną metodę największej wiarygodności (ang. maximum likelihood), analizę wariancji (ANOVA) oraz liniową analizę dyskryminacyjną.

Był jednym z twórców

nowoczesnej statystyki matematycznej

, zajmował się metodami weryfikacji hipotez za pomocą metod statystycznych, m.in. w antropologii, genetyce, ekologii, autor

Statistical Methods for Research Workers

(1925),

Statistical Methods and Scientific Inference

(1956).Opracował

rozkład F Snedecora

Jerzy Spława-Neyman

( ur. 16 kwietnia 1894 w Benderach, zm. 5 sierpnia 1981 w Oakland w Kalifornii) Polski i amerykański matematyk i statystyk. Był

on twórcą nowoczesnego pojęcia przedziału ufności i wprowadził je do teorii testowania hipotez statystycznych

. Studiował matematykę w Charkowie. W 1921 przyjechał w nowe granice odrodzonej Polski, gdzie prowadził badania i wykłady. W 1924 otrzymał stopień doktora. Od 1938 przebywał w USA, gdzie został profesorem Uniwersytetu w Berkeley. Od 1966 był członkiem zagranicznym Polskiej Akademii Nauk. 9 grudnia 1974 Uniwersytet Warszawski przyznał mu tytuł doktora honoris causa. W swych pracach zajmował się głównie statystyką (zwłaszcza metody weryfikowania hipotez statystycznych) oraz teorią mnogości i rachunkiem prawdopodobieństwa. Wprowadził pojęcie przedziału ufności.

Stanisław Marcin Ulam

(ur. 13 kwietnia 1909 we Lwowie, zm. 13 maja 1984 w Santa Fe) Polsko-amerykański matematyk (w 1943 przyjął obywatelstwo amerykańskie), przedstawiciel lwowskiej szkoły matematycznej, współtwórca amerykańskiej bomby termojądrowej. Ulam ma wielkie dokonania w zakresie matematyki i fizyki matematycznej w dziedzinach topologii, teorii mnogości, teorii miary, procesów gałązkowych. Ulam był także twórcą pierwszych metod numerycznych, na przykład

metody Monte Carlo

. Był też jednym z pierwszych naukowców, którzy wykorzystywali w swych pracach komputer. Metody komputerowe zostały użyte przez Ulama do modelowania powielania neutronów oraz rozwiązania problemu drgającej struny zawierającej element nieliniowy (układ oscylujący Fermiego-Pasty-Ulama).

Znaczenia statystyki

1.

jako nazwy zbioru informacji liczbowych dotyczących określonych zjawisk i procesów (urodzeń, rolnictwa, wypadków drogowych itp.); 2.

jako nazwy wszelkich prac związanych z gromadzeniem i opracowywaniem danych liczbowych; 3.

jako nazwy pewnych charakterystyk liczbowych opisujących właściwości jednostek tworzących zbiorowości próbne (np. średnia arytmetyczna z próby, odchylenie standardowe z próby itp.); 4.

jako nazwy dyscypliny naukowej zajmującej się metodami analizy zbiorów danych liczbowych, odnoszących się do powtarzalnych zjawisk masowych lub wyników eksperymentów.

Definicja statystyki

Woźniak M., Statystyka ogólna, Akademia Ekonomiczna w Krakowie, Kraków 1997, s. 11:

Nauka o metodach ilościowych badania zjawisk masowych

Statystyczne metody analizy mają charakter uniwersalny i są wykorzystywane niemal we wszystkich dyscyplinach naukowych (ekonomii, psychologii, socjologii, demografii, historii, medycynie, politologii, administracji).

Językiem statystyki nieporównanie dokładniej niż słowami (werbalnie) można opisać różnorodne zjawiska-ilościowe

Korzyści wynikające ze statystycznego sposobu myślenia oraz z zastosowania metod statystycznych Statystyka:

 umożliwia dokładniejszy sposób opisu interesującej nas rzeczywistości,  zmusza nas do dokładności i śmiałości w działaniu i rozumowaniu,  umożliwia formułowanie uogólnień na podstawie uzyskanych wyników analizy,  pozwala na przewidywanie rozwoju zjawisk w przyszłości, czyli na budowanie prognoz,  dostarcza narzędzi do porządkowania informacji o zjawiskach - a przez to pozwala na budowę ich ogólnego obrazu,  dostarcza narzędzi do prowadzenia analizy przyczyn kształtujących badane zjawiska i procesy, a więc umożliwia dokonanie ich klasyfikacji na czynniki systematyczne i przypadkowe.

Funkcje statystyki

informacyjna

(dająca pełny i obiektywny obraz badanych zjawisk), 

analityczna

(dzięki której możliwe jest określenie czynników kształtujących konkretne procesy i zjawiska) 

prognostyczna

(pozwalająca na przewidywanie kierunku rozwoju analizowanych zjawisk).

Podział statystyki

Statystyka opisowa

, która zajmuje się problemami programowania badań statystycznych oraz metodami obserwacji statystycznej, sposobami opracowywania i prezentacji materiału statystycznego oraz syntetyzującym (sumarycznym) opisem właściwości zbioru danych.

Statystyka matematyczna

, która zajmuje się metodami wnioskowania (estymacji i weryfikacji hipotez) o całej zbiorowości generalnej na podstawie zbadania wybranej w sposób losowy pewnej jej części zwanej próbą.

Statystyki branżowe

(zwane też stosowanymi), które zajmują się badaniem poszczególnych sfer działalności (np. transportu, handlu, usług, produkcji przemysłowej). Wykorzystuje się tu zarówno statystyczne metody opisu, jak również wnioskowania.

Zbiorowość statystyczna

 Mianem

zbiorowości (populacji) statystycznej

określa się zbiory dowolnych elementów (osób, przedmiotów, faktów) podobnych do siebie pod względem określonych właściwości. Kompletny zbiór elementów nosi nazwę

zbiorowości (populacji) generalnej

.

Indywidualne składowe zbiorowości nazywamy jednostkami statystycznymi lub jednostkami badania

.  Zbiorowości można wyodrębniać według różnych kryteriów. I tak, z względu na kryterium czasu wyróżnia się

zbiorowości statyczne

(np. zbiorowość ludności Polski wg stanu na dzień 31.12.2007 r., na 30.6.2008 r. itp.). Zbiorowości statyczne tworzą więc jednostki, które istniały, istnieją lub będą istniały w ściśle określonym momencie. 

Zbiorowości dynamiczne

składają się z jednostek obserwowanych w pewnym przedziale czasu. Szereg czasowy.

Zbiorowości jednowymiarowe

(opisywane przez jedną cechę) i

zbiorowości wielowymiarowe

(opisywane przez wiele cech).

Cecha statystyczna

Jednostki statystyczne będące elementami składowymi zbiorowości charakteryzują się określonymi właściwościami, które nazywamy

cechami statystycznymi

. Najogólniej rzecz ujmując, cechy statystyczne można podzielić na stałe i zmienne. Cechy stałe (rzeczowe, przestrzenne i czasowe) są wspólne dla wszystkich jednostek zbiorowości. Taką zbiorowość nazywamy wówczas jednorodną. Cechy stałe nie podlegają badaniu statystycznemu a jedynie umożliwiają zaliczanie jednostek do określonych zbiorowości. Właściwości, które różnicują jednostki statystyczne między sobą, nazywa

cechami zmiennymi

. Przedmiotem badania statystycznego są zbiorowości składające się z jednostek posiadających jedną lub kilka cech wspólnych (stałych) oraz jedną lub wiele cech (zmiennych) je różnicujących.

Cechy mierzalne i niemierzalne

Cechy, których warianty podawane są w sposób opisowy, nazywamy

cechami niemierzalnymi (jakościowymi)

. Cechy, których warianty są wyrażane za pomocą liczb, określa się mianem

cech mierzalnych (ilościowych)

.

Cechy mierzalne

Wśród cech mierzalnych (ilościowych) wyróżnia się cechy:  skokowe – przyjmują warianty zmieniające się skokowo (bez wartości pośrednich), w postaci liczb całkowitych (np. ilość braków w ciągu zmiany roboczej).  ciągłe – mogą przyjmować każdą wartość z różną dokładnością (np. wiek, wzrost, wynagrodzenia, tempo wzrostu gospodarczego).

Porządkowe i nominalne cechy niemierzalne (jakościowe)

Cechy jakościowe, których natężenie określane jest przez przymiotniki (np. ocena: bardzo dobra, dobra…), nazywane są

cechami porządkowymi

. Następującym po sobie wariantom takich cech można przyporządkować kolejne liczby (rangi), odpowiadające zmieniającemu się natężeniu cechy Cechy jakościowe, których warianty są określone w sposób opisowy i nie jest możliwe ustalenie dla nich hierarchii ważności (np. zawody: ekonomista, informatyk, logistyk) nazywane są

cechami nominalnymi

.

Skala nominalna

Skala nominalna – stanowi najmniej precyzyjny sposób pomiaru. Liczby pełnią tu jedynie role umownych symboli służących do identyfikacji jednostek statystycznych i ich zaklasyfikowania do wyróżnionych kategorii (student bardzo dobry, dobry, dostateczny, niedostateczny). Na cechach mierzonych w skali nominalnej można wykonywać tylko niektóre operacje arytmetyczne (zliczanie, ustalanie klasy najliczniejszej, określanie częstości występowania).

Skala porządkowa

Skala porządkowa (rangowa) posiada wszystkie cechy skali nominalnej, a dodatkowo pozwala na porządkowanie jednostek w ramach wyróżnionych kategorii, gdyż mierzone jest tutaj natężenie badanej cechy (np. wykształcenie: podstawowe, średnie, wyższe). Każdej kategorii można przypisać liczbę (

rangę

), zgodnie z natężeniem cechy, czyli ustalić kolejność jednostek statystycznych. Na cechach mierzonych w skali porządkowej można wykonywać te operacje, które są właściwe dla skali nominalnej oraz dodatkowo – obliczać charakterystyki porządkowe i miary koncentracji. Skale nominalna i porządkowa nazywane są

skalami słabymi

Skala przedziałowa

Skala przedziałowa (interwałowa) występuje gdy, uporządkowany zbiór badanej cechy składa się z licz rzeczywistych. W skali tej brak jest zera absolutnego, gdyż punkt zerowy jest tu ustalany umownie. W skali przedziałowej wyrażane są np. lata kalendarzowe, indeksy cen. Wszystkie operacje na skalach słabych (nominalna i porządkowa) są dopuszczalne na skali przedziałowej, a ponadto można tutaj obliczać średnie i miary zróżnicowania. Nie można natomiast wykonywać dzielenia (z uwagi na brak absolutnego punktu zerowego).

Skala stosunkowa

Skala stosunkowa (ilorazowa) ma własność trzech poprzednich skal, a jej cechą charakterystyczną jest posiadanie naturalnego punktu zerowego. Punkt ten oznacza brak danej cechy (fizyczny poziom zerowy). Umożliwia to dokonywanie na liczbach w tej skali wszystkich operacji matematycznych (również dzielenia). W skali stosunkowej mierzy się wiek, masę, odległość, dochody, wielkość sprzedaży, ceny towarów, koszty itp.

Rodzaje badań statystycznych

Pod pojęciem

badania statystycznego

rozumie się zespół czynności zmierzających do uzyskania – za pomocą metod statystycznych – informacji charakteryzujących badaną zbiorowość. Z punktu widzenia liczby jednostek objętych badaniem, wyróżnia się

badania pełne

(kompletne, całkowite, wyczerpujące) i

badania częściowe

(niekompletne, niepełne). W badaniach częściowych obserwowane są tylko niektóre wybrane lub wylosowane ze zbiorowości generalnej jednostki. W badaniach częściowych dobór jednostek do próby może być losowy lub celowy. Stąd też wśród badań częściowych wyróżnia się

badania reprezentacyjne

,

monograficzne

oraz

ankietowe

.

Badanie reprezentacyjne

Polega na tym, że z całej zbiorowości generalnej pobiera się

próbę losową

, przeprowadza się dokładne badanie jednostek wchodzących w jej skład, a następnie przenosi się wyniki badania próby na całą populację. Uogólnianie wyników z badania próby na całą zbiorowość generalną odbywa się przy wykorzystaniu rachunku prawdopodobieństwa i nosi nazwę

wnioskowania statystycznego

. Przykładem badania reprezentacyjnego jest prowadzone od 1992 r. przez Główny Urząd Statystyczny badanie aktywności ekonomicznej ludności (BAEL). Przykładem badań częściowych z celowym doborem jednostek są badania monograficzne i ankietowe.

Etapy badania statystycznego

W badaniach statystycznych - niezależnie od ich rodzaju - można wyróżnić cztery etapy:  przygotowanie (programowanie), 

obserwację statystyczną,

opracowanie i prezentację materiału statystycznego,  opis (lub wnioskowanie) statystyczny.

Programowanie i obserwacje statystyczne (1)

1.

Programowanie

oznacza szczegółowo rozpisaną koncepcję zamierzonego badania. 2.

Obserwacja statystyczna

polega na ustaleniu wartości cech ilościowych lub odmian cech jakościowych u jednostek tworzących badaną zbiorowość. Może to odbywać się poprzez bezpośredni pomiar lub zbieranie informacji. W przypadku badań pełnych można wykorzystać wyniki spisów powszechnych, rejestracji bieżącej czy sprawozdawczości statystycznej. W przypadku badań częściowych korzysta się z rezultatów uzyskanych metodami: reprezentacyjną, monograficzną czy ankietową.

Programowanie i obserwacje statystyczne (2)

Spis powszechny jest jednorazowym lub cyklicznie powtarzanym badaniem statystycznym, którego celem jest ustalenie wielkości i struktury analizowanego zjawiska w określonym momencie czasu (np. powszechne spisy ludności, spisy gospodarstw rolnych).

Rejestracja bieżąca polega na systematycznym ewidencjonowaniu ściśle określonych faktów (np. urodzeń, zgonów, małżeństw, bezrobotnych), które są przedmiotem badania. W wyniku rejestracji bieżącej powstają rejestry administracyjne (REGON, PESEL, rejestry ZUS itp.). Stanowią one cenne źródło informacji wykorzystywanych w badaniach statystycznych.

Opracowanie i opis materiału statystycznego

Pochodzący z obserwacji statystycznej materiał liczbowy jest z reguły dość obszerny. Utrudnia to dokonanie analizy statystycznej. Materiał ten należy odpowiednio zaprezentować. Celowi temu służą szeregi statystyczne, tablice statystyczne oraz wykresy statystyczne.

Szeregi statystyczne. Szereg prosty

Szeregiem

statystycznym nazywamy ciąg wartości liczbowych badanej cechy, uporządkowanych według określonych kryteriów (np. rosnąco lub malejąco).

1. Szereg prosty

(szczegółowy) przedstawia materiał statystyczny uporządkowany wyłącznie według wartości badanej cechy. Porządkowanie polega tu na wypisywaniu wartości liczbowych w kolejności rosnącej lub malejącej. Szeregi proste zawierają zwykle wartości powtarzające się.

Osoba Wzrost (cm) 1 2 3 4 5 6 7 158 164 175 175 179 195 200

2. Szereg czasowy (dynamiczny)

Podstawą grupowania jest zmiana badanego zjawiska w czasie Przewozy towarów w Polsce w mln ton Lata 2007 2008 2009 2010 2011 2012 2013 1533 1656 1713 1796 1912 1789 1848

3. Szeregi rozdzielcze. Szereg rozdzielczy cechy niemierzalnej Szereg rozdzielczy

(strukturalny) jest to ciąg wartości liczbowych uporządkowanych według wariantów badanej cechy mierzalnej lub niemierzalnej. Poszczególnym wariantom zmiennej przyporządkowane są odpowiadające im liczebności.

3. 1. Szereg rozdzielczy cechy niemierzalnej

jest zestawieniem poszczególnych wariantów danej cechy i odpowiadających im liczebności.

Powiat grodzki Biała Podlaska Chełm Lublin Zamość Liczba kin 2 2 6 1

3.2. Szeregi rozdzielcze z cechą ilościową (mierzalną) 

Szeregi rozdzielcze przedziałowe

dotyczą cechy ciągłej. W tym przypadku należy najpierw ustalić liczbę przedziałów klasowych (klas), ich rozpiętości oraz sposób oznaczania granic przedziałów. 

Rozpiętość przedziału

(zwana też interwałem) to różnica między górną a dolną wartością przedziału klasowego. Rozpiętości przedziałów mogą być równe lub różne. Niektórzy autorzy proponują ustalać liczbę klas według formuły: 𝑘 = 𝑛 , gdzie: n – liczebność grupy  Szeregi rozdzielcze przedziałowe mogą mieć zamknięte wszystkie przedziały lub też otwarty pierwszy, ostatni lub pierwszy i ostatni przedział.

Otwarte przedziały

stosuje się wówczas, gdy w badanej zbiorowości występują wartości skrajne, znacznie różniące się od pozostałych.

3.2.1.1. Prosty punktowy szereg rozdzielczy z cechą mierzalną 50-85 85-120 120-155 155-190 190-225 225-260 260-295 Razem

Powierzchnia w km 2 Liczba gmin

2 4 8 12 16 7 3 52

3.2.1.2 Skumulowany punktowy szereg rozdzielczy z cechą mierzalna Skumulowane szeregi

rozdzielcze otrzymujemy w drodze łączenia kolejnych przedziałów klasowych i dodawania odpowiadających im liczebności.

Liczebność skumulowana dla ostatniego przedziału klasowego jest wówczas równa ogólnej liczebności badanej zbiorowości. Kumulacyjne szeregi rozdzielcze informują o tym, ile jest w badanej zbiorowości statystycznej jednostek przyjmujących co najwyżej określoną wartość cechy.

Gminy województwa L według powierzchni w km2) Powierzch nia w km 2

50-85 85-120 120-155 155-190 190-225 225-260 260-295 Razem

Liczba gmin

2 4 8 12 16 7 3 52

Szereg rozdzielczy skumulowany powierzchnia w km 2

poniżej 85 poniżej 120 poniżej 155 poniżej 190 poniżej 225 poniżej 260 poniżej 295 X

skumulowane liczebności

2 6 14 26 42 49 52 X

3.2.2.1. Prosty przedziałowy szereg rozdzielczy z cechą mierzalną Waga Granice klas 161,8– 165,2 165,3– 168,6 168,7– 172,0 Wzrost Granice klas 172,1– 175,4 175,5– 178,8 178,9– 182,2 182,3– 185,6 49 – 54 54,1 – 59 59,1 – 64 64,1 – 69 69,1 – 74 74,1 – 79 79,1 – 84 4 2 2 1 1 1 2 9 4 1 2 8 4 1 1 3 9 1 1 5 2 2 1 9 1 1 3 5 3 1

Tablice

Jeśli grupowanie przeprowadzone jest według dwóch lub większej liczby cech - to wyniki przedstawione są w formie tablicy.

Tablice statystyczne

wykorzystywane są do prezentacji danych uporządkowanych według określonego kryterium.

Tablice proste

charakteryzują badaną zbiorowość ze względu na jedną cechę, przy czym może to być zarówno cecha ilościowa, jak i jakościowa. Wynika stąd, że tablica prosta może być utożsamiana z szeregiem statystycznym.

Tablice złożone

opisują jedną zbiorowość statystyczną według kilku cech (co najmniej dwóch), dwie lub kilka zbiorowości według dwóch lub kilku cech. Te go rodzaju tablice prezentują więc zespół szeregów statystycznych, a stopień ich złożoności zależny jest od liczby badanych cech lub liczby zbiorowości (badanych zjawisk).

Wykresy Wykresy statystyczne

są narzędziem analizy i formą rejestracji informacji statystycznych. Każdy wykres składa się z części tekstowej oraz pola wykresu. Cechę ciągłą można zaprezentować za pomocą takich wykresów jak

histogram, diagram

(wielobok liczebności) i krzywą liczebności (ogiwę).

Histogram

jest wykresem złożonym z prostokątów, których podstawy (równe interwałom klasowym) spoczywają na osi odciętych, natomiast wysokości są określone na osi rzędnych przez liczebności (absolutne lub względne). Pola prostokątów tworzących histogram są proporcjonalne do liczebności poszczególnych klas, a łączna powierzchnia wszystkich prostokątów reprezentuje ogólną liczebność badanej zbiorowości.

Diagram

można otrzymać z histogramu przez połączenie odcinkami kolejnych środków przedziałów klasowych, reprezentujących punkty środkowe górnych boków poszczególnych prostokątów. Otrzymana w ten sposób linia łamana nosi nazwę diagramu (wieloboku liczebności).

Histogram – diagram

Histogram Diagram

Który z wykresów jest poprawnym histogramem ?

A 10 8 2 0 6 4 10 20 30 40 50 60 10 8 6 4 2 0 0 10 20 30 D 40 50 60 70 B 10 8 2 0 6 4 10 20 30 40 50 10 8 6 4 2 0

0 10 20 30 40 50 60

E 60 10 8 6 4 2 0 10 10 8 2 0 6 4 20 C 30 F 40 50 60