Probabilistyczne statystyczne modele matematyczne. Materiał teoretyczny

Subskrybuj
Dołącz do społeczności koon.ru!
W kontakcie z:

Wysyłanie dobrej pracy do bazy wiedzy jest proste. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy korzystający z bazy wiedzy w swoich studiach i pracy będą Ci bardzo wdzięczni.

Wysłany dnia http://www.allbest.ru/

MINISTERSTWO EDUKACJI I NAUKIROSJA

Federalna autonomiczna placówka edukacyjna
uczelnia zawodowa
„Południowy Uniwersytet Federalny”

Katedra Aparatury Informacyjno-Pomiarowej i Techniki

Specjalność

230201 Systemy i technologie informacyjne

PRACA PISEMNA

Temat: „Organizacja badań i rozwoju”

Na temat: „Metody modelowania matematycznego w statystyce”

Ukończone przez studenta: Strotsev Wasilij Andreevich

Wykładowca: Gusenko Tamara Grigorievna

1. Elementy statystyki matematycznej

Statystyka matematyczna to dział matematyki poświęcony matematycznym metodom systematyzacji, przetwarzania i wykorzystywania danych statystycznych do wniosków naukowych i praktycznych. Dane statystyczne są tu rozumiane jako informacje o liczbie obiektów w mniej lub bardziej obszernym zbiorze, które posiadają określone cechy.

Głównym celem statystyki matematycznej jest uzyskanie znaczących, naukowo uzasadnionych wniosków z danych podlegających losowemu rozproszeniu. Jednocześnie badane zjawisko generujące te dane jest często zbyt złożone, aby móc sporządzić jego pełny opis, odzwierciedlający wszystkie szczegóły. Stąd wnioski statystyczne wyciąga się na podstawie pewnego matematycznego modelu probabilistycznego rzeczywistego zjawiska losowego, który powinien odtworzyć jego istotne cechy, a wykluczyć te, które z założenia są nieistotne. Metody statystyki matematycznej umożliwiają wyznaczenie probabilistycznych charakterystyk zmiennych losowych uczestniczących w modelu matematycznym opisującym to zjawisko poprzez obserwację badanego zjawiska.

Zadanie statystyki matematycznej - ustalenie wzorców, którym podlegają masowe zjawiska losowe, opiera się na badaniu danych statystycznych, wyników obserwacji, metodami teorii prawdopodobieństwa. Dane statystyczne to dane uzyskane w wyniku badania dużej liczby obiektów lub zjawisk; w konsekwencji statystyka matematyczna zajmuje się zjawiskami masowymi.

Pierwszym zadaniem statystyki matematycznej jest wskazanie metod zbierania i grupowania informacji statystycznych uzyskanych w wyniku obserwacji lub w wyniku specjalnie zaprojektowanych eksperymentów.

Drugim zadaniem statystyki matematycznej jest opracowanie metod analizy danych statystycznych w zależności od celów badania.

Współczesna statystyka matematyczna opracowuje sposoby określania liczby wymaganych testów przed rozpoczęciem badania, w trakcie badania i rozwiązuje wiele innych problemów. Współczesna statystyka matematyczna jest definiowana jako nauka o podejmowaniu decyzji w warunkach niepewności.

Zadaniem statystyki matematycznej jest tworzenie metod gromadzenia i przetwarzania danych statystycznych w celu uzyskania naukowych i praktycznych wniosków.

1.1 Ogólny i przykładowy zestaw danych statystycznych

Niech będzie wymagane badanie zbioru jednorodnych obiektów pod względem jakiejś jakościowej lub ilościowej cechy charakteryzującej te obiekty.

Przedmiot posiada lub nie posiada cech jakościowych. Nie są bezpośrednio mierzalne (np. specjalizacja sportowa, kwalifikacje, narodowość, przynależność terytorialna itp.).

Cechy ilościowe to wyniki liczenia lub pomiaru. W związku z tym dzielą się na dyskretne i ciągłe.

Czasami przeprowadza się pełne badanie, tj. zbadać każdy z obiektów populacji pod kątem interesującej go cechy. W praktyce ankieta ciągła stosowana jest stosunkowo rzadko. Na przykład, jeśli populacja zawiera bardzo dużą liczbę obiektów, to fizycznie niemożliwe jest przeprowadzenie pełnej ankiety. W takich przypadkach z całej populacji wybierana jest losowo ograniczona liczba obiektów i poddawana badaniom. Rozróżnij populację ogólną i populację próbną.

Próbka (próbka) to zbiór losowo wybranych obiektów.

Zbiór ogólny (główny) to zbiór obiektów, z których wykonana jest próbka.

Wielkość populacji (próbnej lub ogólnej) to liczba obiektów w tej populacji. Na przykład, jeśli z 1000 części do badania zostanie wybranych 100 części, to wielkość populacji ogólnej wynosi N = 1000, a wielkość próby n = 100. Liczba obiektów w populacji generalnej N znacznie przekracza liczebność próby n.

1.2 Metody pobierania próbek

Podczas kompilacji próbki można postępować na dwa sposoby: po wybraniu obiektu i obserwacji nad nim można go zwrócić lub nie zwrócić do populacji ogólnej. Zgodnie z powyższym próbki dzielą się na powtarzające się i niepowtarzalne.

Próbka powtarzana to taka, w której wybrany obiekt (przed wybraniem kolejnego) jest zwracany do populacji ogólnej.

Niepowtarzalna próba to taka, w której wybrany obiekt nie jest zwracany do populacji ogólnej.

Aby dane z próby były wystarczająco pewne w ocenie interesującej nas cechy w populacji ogólnej, konieczne jest, aby obiekty z próby poprawnie ją reprezentowały (próba musi poprawnie reprezentować proporcje populacji ogólnej) – próbka musi być reprezentatywna (reprezentatywna).

Próbka będzie reprezentatywna, jeżeli:

Każdy obiekt z próby jest wybierany losowo z populacji ogólnej;

Wszystkie obiekty mają takie samo prawdopodobieństwo włączenia do próby.

1.3 Sposoby grupowania statystyk

1.3.1 Dyskretne serie wariacji

Zazwyczaj obserwowane dane są zbiorem losowo ułożonych liczb. Przeglądając ten zestaw liczb, trudno jest dostrzec jakąkolwiek prawidłowość w ich zmienności (zmianie). Aby zbadać wzorce zmienności wartości zmiennej losowej, przetwarzane są dane eksperymentalne.

Przykład 1. Obserwacje poczyniono na numerze X oceny uzyskane przez studentów na egzaminach. Obserwacje w ciągu godziny dały następujące wyniki: 3; cztery; 3; 5; cztery; 2; 2; cztery; cztery; 3; 5; 2; cztery; 5; cztery; 3; cztery; 3; 3; cztery; cztery; 2; 2; 5; 5; cztery; 5; 2; 3; cztery; cztery; 3; cztery; 5; 2; 5; 5; cztery; 3; 3; cztery; 2; cztery; cztery; 5; cztery; 3; 5; 3; 5; cztery; cztery; 5; cztery; cztery; 5; cztery; 5; 5; 5. Oto liczba X jest dyskretną zmienną losową, a uzyskane o niej informacje są danymi statystycznymi (obserwowanymi).

Układając powyższe dane w kolejności nie malejącej i grupując je tak, aby wartości zmiennej losowej w poszczególnych grupach były takie same, uzyskuje się uszeregowany szereg danych obserwacyjnych.

W przykładzie 1 mamy cztery grupy o następujących wartościach zmiennej losowej: 2; 3; cztery; 5. Wartość zmiennej losowej odpowiadająca wydzielonej grupie z pogrupowanej serii obserwowanych danych nazywana jest wariantem, a zmiana tej wartości jest wariacją.

Warianty są oznaczone małymi literami alfabetu łacińskiego z indeksami odpowiadającymi numerowi seryjnemu grupy - xi. Liczba, która pokazuje, ile razy dany wariant występuje w serii obserwacji, nazywana jest częstością wariantu i jest odpowiednio oznaczona - ni.

Suma wszystkich częstotliwości w serii to wielkość próbki. Stosunek częstotliwości wariantu do wielkości próbki ni/n=wi zwany częstotliwością względną.

Rozkład statystyczny próby to lista opcji i odpowiadające im częstości lub częstości względne (Tabela 1, Tabela 2).

Przykład 2. Biorąc pod uwagę rozkład częstotliwości próbki objętościowej n=20:

Tabela 1

Kontrola: 0,15 + 0,50 + 0, 35 = 1.

Rozkład statystyczny można również określić jako sekwencję przedziałów i odpowiadających im częstotliwości (częstotliwość odpowiadająca przedziałowi jest traktowana jako suma częstotliwości w tym przedziale).

Dyskretny szereg rozkładów wariacyjnych to szeregowy zestaw wariantów xi z ich odpowiednimi częstotliwościami ni lub względne częstotliwości wi.

W powyższym przykładzie 1 dyskretny szereg wariacyjny ma postać:

Tabela 3

Kontrola: suma wszystkich częstości serii zmienności (suma wartości drugiego rzędu tabeli 3) to wielkość próbki (w przykładzie 1 n=60 ); suma częstości względnych szeregu wariacji powinna być równa 1 (suma wartości trzeciego rzędu tabeli 3)

1.3.2 Seria zmienności przedziałów

Jeżeli badana zmienna losowa jest ciągła, to uszeregowanie i grupowanie obserwowanych wartości często nie pozwala na wyróżnienie charakterystycznych cech zmienności jej wartości. Tłumaczy się to tym, że poszczególne wartości zmiennej losowej mogą różnić się od siebie tak mało, jak jest to pożądane, a zatem w całości obserwowanych danych rzadko mogą wystąpić te same wartości wielkości, a częstości wariantów niewiele się od siebie różni.

Niepraktyczne jest również konstruowanie szeregu dyskretnego dla dyskretnej zmiennej losowej, której liczba możliwych wartości jest duża. W takich przypadkach konieczne jest zbudowanie przedziałowej serii zmienności rozkładu.

Aby zbudować taki szereg, cały przedział zmienności obserwowanych wartości zmiennej losowej dzieli się na szereg przedziałów cząstkowych i oblicza się częstość trafienia wartości wielkości w każdym przedziale cząstkowym.

Przedziałowa seria wariacyjna to uporządkowany zestaw przedziałów zmienności wartości zmiennej losowej z odpowiednimi częstotliwościami lub względnymi częstotliwościami wartości wielkości przypadających na każdą z nich.

Aby zbudować serię interwałową, potrzebujesz:

1. określić wartość przedziałów cząstkowych;

2. określić szerokość odstępów;

3. ustawić dla każdego przedziału jego górną i dolną granicę;

4. pogrupuj wyniki obserwacji.

1. Kwestia wyboru liczby i szerokości przedziałów grupowania musi być rozstrzygana w każdym konkretnym przypadku na podstawie celów badanie, wielkość próby i stopień zmienności cechy w próbie.

Przybliżona liczba interwałów k można oszacować tylko na podstawie wielkości próby n w jeden z następujących sposobów:

· według wzoru Jesiotry: k = 1 + 3,32 log n;

korzystając z tabeli 1.

Tabela 1

2. Na ogół preferowane są odstępy o tej samej szerokości. Aby określić szerokość interwałów h Oblicz:

zakres zmienności R- przykładowe wartości: R = xmax - xmin, gdzie xmax oraz xmin- maksymalne i minimalne opcje próbki;

szerokość każdego interwału h określony następującym wzorem: h = R/k.

3. Dolna granica pierwszego przedziału xh1 jest dobrany tak, aby minimalny wariant próbki xmin spadł mniej więcej w połowie tego przedziału: xh1 = xmin - 0,5 h.

Przedziały pośrednie uzyskuje się przez dodanie do końca poprzedniego przedziału długości przedziału częściowego h:

xhi = xhi-1 +h.

Konstrukcja skali przedziałów na podstawie obliczenia granic przedziałów trwa do wartości xhi spełnia relację:

xhi< xmax + 0,5·h .

4. Zgodnie ze skalą przedziałów wartości atrybutu są grupowane - dla każdego przedziału cząstkowego obliczana jest suma częstości ni wariant złapany i-ty przedział. W tym przypadku przedział zawiera wartości zmiennej losowej większe lub równe dolnej granicy i mniejsze od górnej granicy przedziału.

1.4 Wielokąt i histogram

Dla jasności budowane są różne wykresy rozkładu statystycznego. Na podstawie danych dyskretnego szeregu wariacyjnego budowany jest wielokąt częstości lub częstości względne.

Wielokąt częstotliwości nazywany jest linią przerywaną, której odcinki łączą punkty ( x1; n1), (x2; n2),..., (xk; nk). Aby zbudować wielokąt częstotliwości na osi odciętej, opcje są odłożone na bok xi, a na osi y odpowiednie częstotliwości ni. Punkty ( xi; ni) są połączone odcinkami linii prostych i otrzymujemy wielokąt częstotliwości (rys. 1).

Wielokąt względnych częstotliwości nazywany jest linią przerywaną, której odcinki łączą punkty ( x1; W1), (x2; W2),..., (xk; wk). Aby zbudować wielokąt względnych częstotliwości na odciętej, odłóż opcje xi, a na osi y - odpowiadające im częstotliwości względne Wi. Punkty ( xi; Wi) są połączone odcinkami linii prostych i otrzymujemy wielokąt o względnych częstościach. W przypadku cechy ciągłej wskazane jest zbudowanie histogramu.

Histogram częstotliwości to liczba schodkowa składająca się z prostokątów, których podstawą są częściowe przedziały długości h, a wysokości są równe stosunkowi ni/h(gęstość częstotliwości).

Aby zbudować histogram częstotliwości, na osi odciętej wykreśla się częściowe przedziały, a odcinki są rysowane nad nimi równolegle do osi odciętej w pewnej odległości ni/h.

Kwadrat i hni/h=ni- opcja sumy częstotliwości i - przedział; dlatego obszar histogramu częstotliwości jest równy sumie wszystkich częstotliwości, tj. wielkość próbki.

Histogram częstotliwości względnych to schodkowa figura składająca się z prostokątów, których podstawą są częściowe przedziały długości h, a wysokości są równe stosunkowi Wi/h(względna gęstość częstotliwości).

Aby skonstruować histogram częstotliwości względnych, na osi odciętej wykreśla się częściowe przedziały, a odcinki są rysowane nad nimi równolegle do osi odciętej w pewnej odległości Wi/h(rys. 2).

Kwadrat i -ty prostokąt częściowy jest równy hWi / h = Wi- względna częstotliwość złapanego wariantu i-ty przedział. Dlatego obszar histogramu częstotliwości względnych jest równy sumie wszystkich częstotliwości względnych, tj. jednostka.

1.5 Szacowanie parametrów populacji

Głównymi parametrami populacji ogólnej są oczekiwanie matematyczne (średnia ogólna) M(X) i odchylenie standardowe s. Są to stałe, które można oszacować na podstawie danych próbki. Oszacowanie parametru ogólnego, wyrażone pojedynczą liczbą, nazywa się oszacowaniem punktowym.

Oszacowanie punktowe średniej ogólnej jest średnią z próby.

Średnia próbki jest średnią arytmetyczną cechy próbki.

Jeśli wszystkie wartości x1, x2,...,xn przykładowe cechy są różne (lub jeśli dane nie są pogrupowane), to:

x1, x2,...,xn n1, n2,...,nk, oraz n1 + n2 +...+ nk = n(lub jeśli średnia z próby jest obliczona z szeregu wariacyjnego), to

W przypadku, gdy dane statystyczne prezentowane są w postaci szeregu zmienności przedziałowej, przy obliczaniu średniej z próby, wartości wariantów uważa się za środek przedziałów.

Średnia z próby jest główną cechą stanowiska, pokazuje środek rozmieszczenia populacji, pozwala scharakteryzować badaną populację jedną liczbą, prześledzić trend rozwojowy, porównać różne populacje (średnia z próby jest punktem, suma odchyleń obserwacji, od których jest równa 0).

Dla stawki Z stopień rozproszenia (odchylenia) jakiegoś wskaźnika od jego wartości średniej, wraz z wartościami maksymalnymi i minimalnymi, stosuje się pojęcia rozproszenia i odchylenia standardowego.

Wariancja próbki lub wariancja próbki (od wariancji angielskiej) jest miarą zmienności zmiennej. Termin ten został po raz pierwszy wprowadzony przez Fischera w 1918 roku.

Wariancja próbki Dv jest średnią arytmetyczną kwadratów odchylenia obserwowanych wartości cechy od ich wartości średniej.

Jeśli wszystkie wartości x1, x2,...,xn funkcja próbkowania objętości n inny, to:

Jeśli wszystkie wartości atrybutu x1, x2,...,xn mają odpowiednie częstotliwości n1, n2,...,nk, oraz n1 + n2 +...+ nk = n, następnie

Dyspersja waha się od zera do nieskończoności. Ekstremalna wartość 0 oznacza brak zmienności, gdy wartości zmiennej są stałe.

Odchylenie standardowe (odchylenie standardowe) (z angielskiego odchylenia standardowego) jest obliczane jako pierwiastek kwadratowy z wariancji.

Im wyższa wariancja lub odchylenie standardowe, tym bardziej rozproszone są wartości zmiennej w stosunku do średniej.

Charakterystyki nieparametryczne pozycji to mod i mediana.

Moda Mo nazywany wariantem o najwyższej częstotliwości lub częstotliwości względnej.

mediana Ja nazywa się wariantem, który dzieli serię wariacji na dwie części równe liczebności wariantu.

W przypadku liczby nieparzystej opcja (n=2k+1)

Ja = xk+1,

a dla liczby parzystej opcja (n=2k)

Ja = (xk + xk+1)/2.

2. Analiza korelacji i regresji

2.1 Analiza korelacji

matematyczno-statystyczna korelacja grupowania

Analiza korelacji polega na ustaleniu statystycznego związku między zmiennymi losowymi. Może być wykorzystany w badaniach pedagogicznych do oceny wpływu niektórych czynników na inne i ustalenia zależności między nimi w połączeniu z innymi parametrami – oczekiwaniami matematycznymi i odchyleniami standardowymi. Analiza korelacji nie może być bezpośrednio zastosowana do identyfikacji związków przyczynowych między procesami losowymi. Ustanawia jedynie związek między charakterystykami statystycznymi powiązanych procesów losowych.

Niech będą dwie zmienne losowe X i Y z oczekiwaniami matematycznymi odpowiednio mx i my. moment korelacji

Kxy =M((X-mx)(Y-moj))

scharakteryzuje zależność między wartościami X i Y. Dla ułatwienia użytkowania momenty korelacji są znormalizowane wzorem

gdzie yx i yy są odchyleniami standardowymi wartości X i Y. Wartość Kk nazywa się współczynnikiem korelacji wartości X i Y.

Dla dyskretnych zmiennych losowych, z którymi mamy do czynienia, oszacowanie współczynnika korelacji oblicza się ze wzoru

Wzór na obliczenie współczynnika korelacji jest ważny pod warunkiem, że zależność między zmiennymi losowymi jest liniowa i każda z tych zmiennych podlega prawu normalnemu.

Oceń statystyczną zależność między poziomem przygotowania szkolnego a postępami uczniów pierwszego roku w dyscyplinie „Informatyka”. Przygotowanie do szkoły oceniane jest poprzez test przy wchodzeniu na studia wyższe (wartość X). Ocena osiągnięć studenta odbywa się na podstawie wyników egzaminu po pierwszym semestrze (wartość Y). Numer studenta jest oznaczony jako N.

Wstępne dane do obliczeń podsumowano w tabeli

Podstawiając dane z tabeli do wyrażenia (1) otrzymujemy Kk=0,78.

Widzimy, że statystyczne charakterystyki X i Y są blisko siebie.

2.2 Analiza regresji

Analiza regresji ma na celu statystyczne zbadanie związku między zmienną zależną a zmienną niezależną (regresor lub predyktor). W najprostszym przypadku zakłada się, że ta zależność jest liniowa. Rozwiązuje się problem konstrukcji liniowej zależności postaci y=ax+b, gdzie хi oraz yi są odpowiednio zmiennymi niezależnymi i zależnymi (i=1,2,3,…). Rozwiązanie znajduje się metodą najmniejszych kwadratów. Wartość jest zminimalizowana

min to współczynniki a i b.

Wzory obliczeniowe są następujące:

Zasadniczo zbiór punktów uzyskanych eksperymentalnie zostaje w przybliżeniu zastąpiony przez zależność analityczną y=ax+b. Taka zamiana znacznie upraszcza przekształcenia matematyczne i może być wykorzystywana przy budowie modeli analitycznych. W ogólnym przypadku do zbudowania zależności regresji można wybrać nie tylko funkcję liniową, ale także dowolną inną funkcję. Oczywiście formuły obliczania wymaganych parametrów stają się bardziej skomplikowane.

3. Matematyczne metody optymalizacji eksperymentów

3.1 Metoda optymalizacji simpleks

Simpleks to regularny wielościan, który ma n+1 góra, gdzie P - szereg czynników wpływających na proces. Na przykład, jeśli istnieją dwa czynniki, to regularny trójkąt jest simpleksem.

Ryż. 1 Optymalizacja metodą simpleks

Początkowa seria eksperymentów odpowiada wierzchołkom oryginalnego simpleksu (punkty 1, 2 i 3). Warunki tych pierwszych eksperymentów zaczerpnięto z zakresu wartości czynników odpowiadających najbardziej korzystnemu ze znanych trybów optymalizowanego procesu. Porównanie wyników eksperymentów w punktach 1, 2 i 3, znajdź wśród nich najbardziej „złą” pod względem wybranego kryterium optymalności. Niech na przykład eksperyment w punkcie 1. To doświadczenie jest wykluczone z rozważań, a zamiast niego doświadczenie w punkcie jest wprowadzane do simpleksu 4, który jest symetryczny do punktu 1 w stosunku do przeciwnej strony trójkąta łączącego punkty 2 oraz 3.

Następnie wyniki eksperymentów na wierzchołkach nowego simpleksu są porównywane ze sobą, najbardziej „nieudany” z nich jest odrzucany, a odpowiedni wierzchołek simpleksu jest przenoszony do punktu 5. Następnie rozważana procedura jest powtarzana podczas całego procesu optymalizacji.

Jeżeli zostanie osiągnięte ekstremum kryterium optymalności, dalszy ruch simpleksu zostaje zatrzymany. Oznacza to, że nowy krok przywraca badacza do poprzedniego punktu w przestrzeni czynnikowej.

Jeśli istnieje kilka ekstremów kryterium optymalności, to metoda ta pozwala znaleźć to, które jest bliższe punktom pierwotnego simpleksu. Jeśli więc zachodzi podejrzenie istnienia kilku ekstremów kryterium optymalności, konieczne jest ich poszukiwanie, za każdym razem rozpoczynając optymalizację od nowego obszaru przestrzeni czynnikowej. Następnie należy porównać ze sobą znalezione optymalne warunki i wybrać najlepszą spośród wszystkich opcji.

Optymalizacja musi uwzględniać ograniczenia nałożone na czynniki wpływające i funkcje odpowiedzi.

Należy pamiętać, że podczas korzystania z metody simplex niekoniecznie zduplikowane eksperymenty. Faktem jest, że błąd w pojedynczym eksperymencie może tylko nieznacznie spowolnić optymalizację. Jeśli kolejne eksperymenty są przeprowadzane bezbłędnie, to ruch w kierunku optimum jest kontynuowany.

Macierz eksperymentów oryginalnego simpleksu w kodowanych zmiennych została podana w tabeli 11.

Wartości zawarte w tej tabeli są obliczane przy użyciu następujących wzorów:

Tutaj i jest numerem czynnika w macierzy planowania. Symbol 0 oznacza współrzędne środka planu, czyli poziomu głównego.

Tabela 11

Macierz oryginalnego simpleksu

Numer doświadczenia

X2

Funkcja odpowiedzi

K2

K2

Eksperymenty przedstawione w tabeli. 11 odpowiadają wierzchołkom simpleksu, którego bok jest równy jeden i którego środek pokrywa się z początkiem (w zmiennych kodowanych).

Wyniki obliczeń wykonanych na podstawie tabeli. 11 i wzory (*) podano w tabeli. 12.

Tabela 12

Warunki początkowej serii eksperymentów

Numer doświadczenia

Oczywiście największą liczbę eksperymentów trzeba wykonać na początku eksperymentu. Następnie na każdym kroku optymalizacji przeprowadzany jest tylko jeden eksperyment.

Rozpoczęcie optymalizacji, konieczne jest skorzystanie z tabeli. 11 lub 12 obliczamy macierz początkowej serii eksperymentów w zmiennych fizycznych, korzystając ze wzoru

W przyszłości wszystkie operacje będą wykonywane tylko z fizycznym1. zmienne.

Warunki każdego nowego doświadczenia oblicza się według wzoru:

gdzie P-- liczba czynników w macierzy planowania;

j – numer doświadczenia;

numer i-czynnika;

Wartość i-tego czynnika w najbardziej „nieudanym” doświadczeniu poprzedniego simpleksu.

Należy zauważyć, że na każdym etapie optymalizacji realizowanej metodą simplex można zawrzeć w programie badawczym nowy czynnik , które do tej pory nie było brane pod uwagę, ale utrzymywało się na stałym poziomie.

W takim przypadku wartości wszystkich wcześniej rozważanych czynników oblicza się według wzoru:

gdzie 1= 1, 2,..., P, to znaczy są średnią arytmetyczną odpowiednich współrzędnych poprzedniego simpleksu.

Wartość nowo wprowadzonego współczynnika określa wzór:

gdzie x0(n+1) jest głównym poziomem tego czynnika;

Dxn+1--wybrany krok zmienności dla tego czynnika;

Rn+1, kn+1 --wartości obliczane przez formuły (*).

Zauważ, że dodaniu nowego czynnika do pełnego „eksperymentu czynnikowego” towarzyszy podwojenie liczby eksperymentów. . W tym sensie metoda simpleks ma oczywistą zaletę. .

Przykład 3.2. Niech będzie to wymagane przy użyciu metody simplex, aby zoptymalizować wydajność docelowego produktu w(%), który uzyskuje się przez oddziaływanie dwóch odczynników o stężeniach x1 i x2 () w temperaturze x3 (°C).

Wybieramy główne poziomy i etapy zmienności czynników i podsumowujemy je w tabeli. 13.

Tabela 13

Wartości poziomów czynników i kroków zmienności

Poziom główny

Krok zmiany

Korzystając ze wzoru (3.5) i tab. 12, obliczyć warunki dla pierwszych czterech eksperymentów i podsumować wyniki w tabeli. 14. A więc na przykład dla trzeciego doświadczenia

x31=1+0,1*0==1; x32== 1,50 +0,2 (--0,578) == 1,38; x33=60+5*0.204==61.

Tabela 14

Optymalizacja metodą simpleks

Numer doświadczenia

Funkcja odpowiedzi

Porównując wyniki pierwszych czterech doświadczeń, widzimy, że najniższą wydajność docelowego produktu uzyskano w doświadczeniu trzecim. To doświadczenie powinno być wyłączone z dalszych rozważań.

Zastąpmy to doświadczeniem 5, warunki, dla których obliczymy według wzoru (**):

W nowym simpleksie utworzonym przez eksperymenty 1, 2, 4 i 5 najbardziej „nieudany” jest eksperyment 4. Zastąpmy go eksperymentem 6, którego warunki znajdziemy za pomocą tego samego wzoru (**).

Zastanówmy się teraz, w jaki sposób uwzględnić w programie badawczym inny czynnik, na przykład prędkość obrotową mieszadła. Do tej pory niech będzie stała i równa 500 obr/min Teraz rozważymy tę wartość jako współczynnik x4 i przyjmiemy dla niej krok zmienności Dx4 == 100 obr/min.

Poprzedni simpleks dla trzech czynników (patrz Tabela 14) składa się z eksperymentów 1, 2, 5 i 6. Aby uzyskać z niego nowy simpleks dla czterech czynników, wprowadzamy eksperyment 7 (Tabela 15).

Tabela 15

Dodanie nowego czynnika do programu optymalizacyjnego

Numer doświadczenia

Funkcja odpowiedzi

Warunki do przeprowadzenia siódmego eksperymentu znajdziemy za pomocą wzorów (3.7) i (3.8):

Hostowane na Allbest.ru

...

Podobne dokumenty

    Matematyczne metody systematyzacji i wykorzystania danych statystycznych do wniosków naukowych i praktycznych. Prawo rozkładu dyskretnej zmiennej losowej. Pojęcie populacji ogólnej. Zadania obserwacji statystycznych. Dystrybucja selektywna.

    streszczenie, dodane 12.10.2010

    Pojęcie statystyki matematycznej jako nauki o matematycznych metodach systematyzacji i wykorzystania danych statystycznych do wniosków naukowych i praktycznych. Estymatory punktowe parametrów rozkładów statystycznych. Analiza obliczeń średnich.

    praca semestralna, dodana 13.12.2014

    Statystyka matematyczna jako nauka o matematycznych metodach systematyzacji danych statystycznych, jej wskaźnikach. Kompilacja całkowych rozkładów statystycznych populacji próby, konstrukcja histogramów. Obliczanie oszacowań punktowych parametrów.

    praca semestralna, dodana 4.10.2011

    Analiza pierwotna i główne cechy danych statystycznych. Estymacja punktowa parametrów rozkładu. Przedziały ufności dla nieznanych oczekiwań matematycznych i dla odchylenia standardowego. Testowanie hipotez statystycznych.

    praca dyplomowa, dodana 18.01.2016

    Statystyka to nauka o zjawiskach masowych w przyrodzie i społeczeństwie; pozyskiwanie, przetwarzanie, analiza danych. Statystyki demograficzne, prognoza ludności dla Rosji. Metody przetwarzania danych statystycznych: elementy logiki, kombinatoryka, teoria prawdopodobieństwa.

    prezentacja, dodano 19.12.2012

    Zastosowanie określonych metod w statystyce w zależności od zadań. Metody obserwacji masowych, grupowania, wskaźniki podsumowujące, szeregi czasowe, metoda indeksowa. Analiza korelacji i dyspersji. Obliczanie średnich wartości statystycznych.

    test, dodany 21.09.2009

    Pozyskiwanie danych statystycznych do uogólnionego opisu stanu i rozwoju zjawiska. Rodzaje, metody i formy organizacyjne obserwacji statystycznych. Forma statystyczna, zestawienie i grupowanie danych. Tabele i wykresy statystyczne.

    streszczenie, dodane 11.12.2009

    Wyznaczanie oczekiwań matematycznych i odchylenia standardowego w celu doboru prawa rozkładu dla próbki danych statystycznych dotyczących uszkodzeń elementów pojazdu. Znalezienie liczby zdarzeń w zadanym przedziale; obliczenie wartości kryterium Pearsona.

    test, dodano 04.01.2014

    Tabelaryczny sposób przedstawiania prawnych danych statystycznych. Wskaźniki bezwzględne i ogólne. Wartości względne, ich główne rodzaje i zastosowanie. Średnia geometryczna, moda i mediana. Selektywna metoda obserwacji. Klasyfikacja szeregów dynamiki.

    test, dodano 29.03.2013

    Podstawowe przetwarzanie danych statystycznych dotyczących liczby zarejestrowanych mobilnych terminali abonenckich w 2008 r. na 1000 ludności w regionach Rosji. Estymacja interwałowa parametrów. Hipoteza o rodzaju dystrybucji. Analiza regresji.

4.1.1. model statystyczny. W modelowaniu statystycznym (stochastycznym) głównymi obiektami modelowania są zdarzenia losowe, zmienne losowe i funkcje losowe.

Przeprowadzając eksperymenty, badacz naprawia pojawienie się lub niewystępowanie interesujących wydarzeń, a także mierzy wartości parametrów, które mają charakter losowy i, w istocie, są wartościami realizacji jakiejś zmiennej losowej.

Modelowanie statystyczne umożliwia bez przeprowadzania rzeczywistych eksperymentów na badanym obiekcie (co w większości przypadków wiąże się z dużymi kosztami materialnymi i finansowymi), uzyskanie istotnych informacji o wystąpieniu lub niewystąpieniu określonych zdarzeń zachodzących w rzeczywistym obiekcie. o przykładowych wartościach zmiennych losowych na podstawie dostępnych charakterystyk probabilistycznych symulowanych zdarzeń i zmiennych losowych. Ten rodzaj modelowania obejmuje wstępne zbieranie informacji o symulowanych wskaźnikach i dalsze przetwarzanie statystyczne uzyskanych wyników w celu uzyskania rozsądnych szacunków statystycznych wymaganych do modelowania charakterystyk probabilistycznych.

Modele stochastyczne są stosowane głównie w dwóch przypadkach:

1) słabo rozumiany jest przedmiot modelowania – brak wypracowanych wzorców ilościowych opisujących rozpatrywane procesy i zjawiska, nie ma też możliwości znalezienia akceptowalnego analitycznego rozwiązania tego problemu;

2) symulowany obiekt został zbadany dość dobrze w sposób deterministyczny, ale bez uwzględnienia przypadkowych czynników wpływających na badane procesy i zjawiska.

W pierwszym przypadku na podstawie słownego opisu badanego obiektu dobiera się wskaźniki ilościowe z obliczeniem ich wymiaru fizycznego, składającego się z dwóch grup. Jedna z grup jest traktowana jako wartości wejściowe modelu, a druga - wartości wyjściowe. Ponadto, stosując naukowe wyniki teoretyczne uzyskane przez innych badaczy w tej dziedzinie i ewentualnie stosując szereg niezbędnych założeń, a także ewentualnie już dostępne dane eksperymentalne dotyczące wielkości wejściowych i wyjściowych (na przykład ich praw dystrybucji), określ deterministyczne lub stochastyczne zależności między wielkościami wejściowymi i wyjściowymi modelu. Zbiór otrzymanych zależności między wielkościami wejściowymi i wyjściowymi (zapisany zwykle w postaci równań) nazywa się model statystyczny.

Podczas realizacji modelu statystycznego, w oparciu o wybrane prawa rozkładu zmiennych losowych oraz wybrane prawdopodobieństwa symulowanych zdarzeń, metody statystyki matematycznej wyznaczają selektywne wartości eksperymentalne zmiennych losowych oraz quasi-empiryczne ciągi występowania lub nie. -występowanie symulowanych zdarzeń. Ponadto, zgodnie z równaniami modelu, określane są odpowiednie wartości przykładowe jego wartości wyjściowych. A wielokrotna implementacja zbudowanego modelu pozwala badaczowi zbudować próbkę modelową jego wartości wyjściowych, która ponownie poddawana jest analizie statystycznej (korelacja, regresja, dyspersja, widmo) w celu uzyskania oszacowań charakterystyk parametrów wyjściowych modelować lub testować postawione hipotezy. Na podstawie uzyskanych wyników formułowane są wnioski dotyczące przedmiotu badań oraz uzasadnienia praktycznego zastosowania zbudowanego modelu.

Metody modelowania statystycznego są szeroko stosowane w rozwiązywaniu problemów kolejkowania, teorii optymalizacji, teorii sterowania, fizyce teoretycznej itp.

Teoretyczną podstawą metody modelowania statystycznego na komputerze są twierdzenia graniczne teorii prawdopodobieństwa.

4.1.2. Nierówność Czebyszewa. Dla nieujemnej funkcji zmiennej losowej i nierówności

.

4.1.3. Twierdzenie Bernoulliego. Jeżeli prowadzone są niezależne badania, w których jakieś zdarzenie występuje z prawdopodobieństwem , to względna czystość wystąpienia zdarzenia (liczba korzystnych wyników badania) w prawdopodobieństwie zbiega się do , tj. w

4.1.4. twierdzenie Poissona. Jeżeli przeprowadzane są niezależne próby, a prawdopodobieństwo wystąpienia zdarzenia w tej próbie jest równe w

4.1.5. Twierdzenie Czebyszewa. Jeżeli wartości zmiennej losowej są obserwowane w niezależnych próbach, to w , średnia arytmetyczna wartości zmiennej losowej jest zbieżna w prawdopodobieństwie z jej oczekiwaniem matematycznym, tj. w

4.1.6. Uogólnione twierdzenie Czebyszewa. Jeżeli niezależne zmienne losowe z matematycznymi oczekiwaniami i wariancjami ograniczone od góry tą samą liczbą, to dla średniej arytmetycznej wartości zmiennej losowej zbiega się prawdopodobieństwo do średniej arytmetycznej ich matematycznych oczekiwań

4.1.7. Twierdzenie Markowa.. Twierdzenie Czebyszewa będzie również ważne dla zależnych zmiennych losowych, jeśli

4.1.8. Centralne twierdzenie graniczne. Jeżeli niezależne zmienne losowe o identycznym rozkładzie z matematycznym oczekiwaniem i wariancją , to dla prawa rozkładu sumy w nieskończoność zbliża się do prawa rozkładu normalnego

gdzie jest funkcja Laplace'a

4.1.9. twierdzenie Laplace'a. Jeżeli w każdej z niezależnych prób zdarzenie zachodzi z prawdopodobieństwem , to

Metody statystyczne i probabilistyczne stanowią podstawę metodologiczną typu modelowania o tej samej nazwie. Na tym poziomie sformalizowania modelu nie mówimy jeszcze o ujawnieniu prawa, które zapewnia eliminację niepewności przy podejmowaniu decyzji, ale istnieje pewien wachlarz obserwacji tego układu lub jego odpowiednika, które pozwalają na pewne wnioski dotyczące przeszłego/aktualnego/przyszłego stanu systemu, oparte na hipotezie o niezmienności jego zachowania.

Jak zawsze sformułujmy definicję… Model statystyczny lub probabilistyczny (model stochastyczny) to model uwzględniający wpływ czynników losowych na proces działania systemu, oparty na zastosowaniu metodologii statystycznej lub probabilistycznej w odniesieniu do zjawisk powtarzających się. Model ten operuje kryteriami ilościowymi przy ocenie powtarzalnych zjawisk i pozwala na uwzględnienie ich nieliniowości, dynamiki i przypadkowych zaburzeń poprzez stawianie hipotez o charakterze rozkładu niektórych zmiennych losowych, które wpływają na zachowanie systemu na podstawie analizy obserwacji obserwacyjnych. wyniki.

W istocie modele probabilistyczne i statystyczne różnią się poziomem niepewności wiedzy o modelowanym systemie, jaki istnieje w momencie syntezy modelu. W przypadku, gdy wyobrażenia o systemie mają charakter bardziej teoretyczny i opierają się wyłącznie na hipotezach o naturze systemu i zakłócających wpływach, które nie są poparte wynikami obserwacji, model probabilistyczny jest jedynym możliwym. Gdy na etapie syntezy modeli istnieją już dane uzyskane empirycznie, możliwe staje się utrwalenie hipotez dzięki ich statystycznej obróbce. Staje się to oczywiste, jeśli weźmiemy pod uwagę związek między metodami statystyki matematycznej a teorią prawdopodobieństwa. Statystyka matematyczna to nauka, która bada metody ujawniania wzorców nieodłącznie związanych z dużymi zestawami jednorodnych obiektów lub zdarzeń na podstawie ich badania próby (lub dużych zestawów danych uzyskanych w wyniku obserwacji tego samego obiektu przez wystarczająco długi okres). Z drugiej strony teoria prawdopodobieństwa bada wzorce ilościowe, po których następują losowe zjawiska, jeśli te zjawiska są zdeterminowane zdarzeniami o znanym prawdopodobieństwie. Statystyka matematyczna jest zatem ogniwem łączącym teorię prawdopodobieństwa ze zjawiskami świata rzeczywistego, ponieważ pozwala na formułowanie szacunków prawdopodobieństwa określonych zdarzeń na podstawie analizy danych statystycznych.

Można argumentować, że modele statystyczne są szczególnym rodzajem modeli matematycznych, które jako dane wejściowe wykorzystują nie tylko dane rzeczywiste o aktualnym stanie obiektu, ale także dane charakteryzujące stan innych obiektów tej klasy lub tego obiektu, ale przy w innym momencie. Modele statystyczne mają zastosowanie do badania zjawisk masowych o dowolnym charakterze, także tych, które nie należą do kategorii zdeterminowanych probabilistycznie (statystyka matematyczna nadaje się również do rozwiązywania problemów deterministycznych). Podczas modelowania tego ostatniego, proces statystyczny jest sztucznie wprowadzany do modelu w celu uzyskania statystycznych oszacowań rozwiązania numerycznego (na przykład dokładności pomiaru parametrów procesu deterministycznego).

Metody statystyki matematycznej i teorii prawdopodobieństwa można wprowadzić m.in. do modeli logicznych i logiczno-językowych, jak wskazano w poprzednim podrozdziale. Na przykład można rozważyć metody integrowania wyników statystycznych z modelami relacji semantycznych, aby nadać różne wagi łukom łączącym poszczególne wierzchołki. Oceny statystyczne można również wprowadzić do systemów prezentacji tezaurusów w celu rozwiązania sytuacji polisemii bez uciekania się do procedur analizy kontekstu. Innymi słowy, metody statystyczne mogą zarówno stanowić podstawę modelu, jak i służyć do modyfikacji innych typów modeli.

Do przetwarzania wyników obserwacji stosuje się metody korelacji, regresji, analizy czynnikowej, klastrowej i inne rodzaje analizy, operujące hipotezami statystycznymi. Tutaj przypisana jest szczególna rola statystyczna metoda testowa (Metoda Monte Carlo ). Jest to metoda numerycznego rozwiązywania problemów matematycznych oparta na wielokrotnym probabilistycznym i statystycznym modelowaniu zmiennych losowych lub procesów w celu zbudowania szacunków statystycznych dla pożądanych wielkości. Istota metody polega na wykonaniu wielokrotnej symulacji zjawiska losowego za pomocą określonej procedury dającej losowy wynik. W tym celu za pomocą komputera tworzony jest pewien zestaw implementacji procesów losowych, które symulują zakłócający wpływ na badany obiekt lub proces, po czym ten proces lub obiekt jest symulowany w warunkach określonych przez uzyskane efekty losowe. Wyniki takiego modelowania przetwarzane są metodami statystyki matematycznej. W takim przypadku rodzaj i parametry rozkładu zmiennej losowej mogą się różnić.

Realizacja procesu losowego metodą Monte Carlo to sekwencja losowań pojedynczych partii, przeplatanych konwencjonalnymi obliczeniami, podczas których określa się wynik zakłócającego wpływu obiektu lub procesu na wynik operacji.

Ponieważ trudno jest ustalić adekwatność modelu dla rozkładu efektów losowych w ogólnym przypadku, zadaniem modelowania metodą Monte Carlo jest zapewnienie odporność otrzymanych rozwiązań (odporność na zmiany parametrów prawa rozkładu zmiennych losowych i warunków początkowych modelowania). Jeżeli wynik symulacji nie jest odporny (w znacznym stopniu zależy od parametrów prawa rozkładu i parametrów modelu), to wskazuje to na występowanie dużego ryzyka przy podejmowaniu decyzji w tej implementacji symulowanego systemu.

Ważną rolę w modelach statystycznych odgrywają hipotezy dotyczące charakteru procesów zmiany stanu w modelowanym systemie. Na przykład bardzo ciekawym przypadkiem jest hipoteza „ Markowian » procesy (nazwane na cześć rosyjskiego naukowca A.A. Markowa - początek XX wieku). Procesy Markowa są przypadkiem procesu o prawdopodobieństwach deterministycznych, dla którego wczesna historia zmiany stanów układu w jakimś poprzednim przedziale czasu nie jest istotna dla ustalenia prawdopodobieństwa wystąpienia kolejnego zdarzenia – główne znaczenie ma jego obecny stan. Jeśli istnieje przekonanie o markowskości procesu, to istotnie zmienia to pojęcie systemu (można go uznać za „inercyjny”, zależny w dużej mierze od jego aktualnego stanu i charakteru zaburzającego efektu). Zasada Markowa została odkryta w analizie tekstów w językach naturalnych, gdzie prawdopodobieństwo wystąpienia kolejnego znaku można przewidzieć na podstawie analizy statystycznej tablic tekstowych w danym języku.

Modelowanie statystyczne jest ściśle związane z modelowaniem symulacyjnym , podczas której model obiektu jest często „zanurzony w środowisku probabilistycznym (statystycznym)”, w którym rozgrywane są różne sytuacje i tryby działania modelu/obiektu. Modele symulacyjne można jednak również zaimplementować w środowiskach deterministycznych.

Metody modelowania statystycznego są szeroko stosowane w obszarze planowania i zarządzania strategicznego. Wysoka pracochłonność procesu modelowania uniemożliwia szerokie zastosowanie metod modelowania statystycznego w obszarze zarządzania operacyjnego. Wynika to głównie z potrzeby dogłębnej analizy matematycznej modeli oraz wysokich wymagań w zakresie wiedzy matematycznej użytkowników.

Modelowanie statystyczne

numeryczna metoda rozwiązywania problemów matematycznych, w której pożądane wartości są probabilistyczną charakterystyką zjawiska losowego, zjawisko to jest modelowane, po czym pożądane cechy są w przybliżeniu określane przez statystyczne przetwarzanie „obserwacji” modelu. Na przykład wymagane jest obliczenie strumieni ciepła w rozgrzanej cienkiej metalowej płycie, na krawędziach której utrzymuje się zerowa temperatura. Rozkład ciepła jest opisany tym samym równaniem, co rozprowadzanie plamki farby w warstwie cieczy (patrz Przewodzenie ciepła, dyfuzja). W związku z tym modelowany jest płaski ruch Browna cząstek „farby” na płycie, śledząc ich położenie w momentach kτ, k= 0, 1, 2,... Przyjmuje się w przybliżeniu, że dla małego odstępu τ cząstka porusza się o krok h jednakowo prawdopodobne we wszystkich kierunkach. Za każdym razem kierunek wybierany jest losowo, niezależnie od wszystkiego, co poprzednio. Związek między τ i h określony przez współczynnik przewodności cieplnej. Ruch zaczyna się w źródle ciepła, a kończy w momencie pierwszego dotarcia do krawędzi (obserwowane jest przyklejanie się „farby” do krawędzi). Przepływ ciepła Q (C) przez odcinek C granicy jest mierzony ilością przylegającej farby. Z całkowitą liczbą N cząstki zgodnie z prawem dużych liczb y takie oszacowanie daje losowy błąd względny rzędu h ze względu na dyskretność wybranego modelu).

Pożądana wartość jest reprezentowana przez oczekiwanie matematyczne (patrz oczekiwanie matematyczne) funkcji numerycznej f z losowego wyniku ω zjawiska: , tj. całka po mierze prawdopodobieństwa P (patrz Miara zbioru). Dla ewolucji , gdzie ω 1 ,..., ω N -symulowane wyniki, można traktować jako wzór kwadraturowy dla wskazanej całki z przypadkowymi węzłami ω k i losowy błąd! R N jest zwykle akceptowane , uznanie dużego błędu za mało prawdopodobne; Dyspersja Df można oszacować w trakcie obserwacji (patrz Teoria błędów).

W powyższym przykładzie f(ω)= 1 , kiedy trajektoria kończy się w C; Inaczej f(ω) = 0. Dyspersja

Przeprowadzenie każdego „eksperymentu” podzielone jest na dwie części: „wyciągnięcie” losowego wyniku ω i późniejsze obliczenie funkcji f(ω). Gdy przestrzeń wszystkich wyników i miara prawdopodobieństwa P są zbyt złożone, losowanie odbywa się sekwencyjnie w kilku etapach (patrz przykład). Wybór losowy na każdym etapie odbywa się za pomocą liczb losowych, na przykład generowanych przez jakiś fizyczny czujnik; ich imitacja arytmetyczna jest również powszechna - liczby pseudolosowe (patrz Liczby losowe i pseudolosowe). Podobne procedury losowego wyboru są stosowane w statystyce matematycznej i teorii gier.

Mierniki S. są szeroko stosowane do rozwiązywania równań całkowych na komputerze, na przykład w badaniu dużych układów. Są wygodne ze względu na swoją wszechstronność, z reguły nie wymagają dużej ilości pamięci. Wadą są duże błędy losowe, które maleją zbyt wolno wraz ze wzrostem liczby eksperymentów. Dlatego opracowano techniki przekształcania modeli, które pozwalają zmniejszyć rozrzut obserwowanych wartości oraz objętość eksperymentu modelowego.

Oświetlony.: Metoda testów statystycznych (metoda Monte Carlo), M., 1962; Ermakov S.M., Metoda Monte Carlo i zagadnienia pokrewne, M., 1971.

N. N. Czentsow.


Wielka radziecka encyklopedia. - M.: Encyklopedia radziecka. 1969-1978 .

Zobacz, co „Modelowanie statystyczne” znajduje się w innych słownikach:

    Modelowanie statystyczne i ekonometryczne obiektów wiedzy na ich modelach statystycznych; budowanie i badanie modeli rzeczywistych obiektów, procesów lub zjawisk (na przykład: procesy gospodarcze w ... ... Wikipedii

    Modelowanie statystyczne- sposób badania procesów zachowania się układów probabilistycznych w warunkach, w których nie są znane interakcje wewnętrzne w tych układach. Polega na maszynowej imitacji badanego procesu, która jest niejako kopiowana na ... ... Słownik ekonomiczny i matematyczny

    Metoda matematyki stosowanej i obliczeniowej, polegająca na implementacji na komputerze specjalnie opracowanej metody stochastycznej. modele badanych zjawisk lub obiektów. Rozszerzenie zakresu S. m. wiąże się z szybkim rozwojem technologii, a zwłaszcza…… Encyklopedia matematyczna

    Modelowanie sytuacji z wykorzystaniem wzorców statystycznych właściwych dla rozważanego zjawiska. Słownik terminów biznesowych. Akademik.ru. 2001 ... Słowniczek pojęć biznesowych

    Modelowanie badania obiektów wiedzy na ich modelach; budowanie i badanie modeli rzeczywistych obiektów, procesów lub zjawisk w celu uzyskania wyjaśnień tych zjawisk, a także przewidywania interesujących zjawisk ... ... Wikipedia

    MODELOWANIE SYMULACYJNE w socjologii- rodzaj modelowania matematycznego, polegającego na odtworzeniu na komputerze procesu społecznego lub funkcjonowania systemu społecznego. Niemal zawsze wiąże się z odtworzeniem losowych czynników wpływających na badane zjawisko, a w rezultacie ... ... Socjologia: Encyklopedia

    SYMULACJA, STATYSTYCZNE- opracowanie różnych modeli odzwierciedlających wzorce statystyczne opisywanego obiektu, zjawiska. Wspólną cechą charakterystyczną tych modeli jest uwzględnienie przypadkowych perturbacji lub odchyleń. Obiekty S.m. są różne... Wielki Słownik Ekonomiczny

    STATYSTYKA SYMULACJI- przedstawienie lub opis określonego zjawiska lub układu powiązań między zjawiskami poprzez zbiór zmiennych (wskaźników, cech) oraz zależności statystycznych między nimi. Cel M.S. (jak każda inna symulacja) wyobraź sobie… … Socjologia: Encyklopedia

    Czy chcesz ulepszyć ten artykuł?: Popraw artykuł zgodnie z zasadami stylistycznymi Wikipedii. Modelowanie symulacyjne (sytuacyjne ... Wikipedia

    MODELOWANIE SYMULACYJNE- (...z francuskiej próbki modelowej) metoda badania dowolnych zjawisk i procesów metodą testów statystycznych (metoda Monte Carlo) z wykorzystaniem komputera. Metoda opiera się na losowaniu (imitowaniu) wpływu czynników losowych na badane zjawisko lub…… Encyklopedyczny słownik psychologii i pedagogiki

Książki

  • Modelowanie statystyczne. Metody Monte Carlo. Podręcznik do studiów licencjackich i magisterskich, Michajłow G.A. Podręcznik poświęcony jest cechom modelowania zmiennych losowych, procesów i pól. Szczególną uwagę przywiązuje się do całkowania numerycznego, w szczególności metody Monte Carlo. Wydano decyzję...

Statystyka matematyczna to dział matematyki, który rozwija metody rejestrowania, opisywania i analizowania danych obserwacyjnych i eksperymentalnych w celu budowania probabilistycznych modeli zjawisk i procesów losowych. W zależności od matematycznego charakteru konkretnych wyników obserwacji statystykę matematyczną dzieli się na statystykę liczb, wielowymiarową analizę statystyczną, analizę funkcji (procesów) i szeregów czasowych oraz statystykę obiektów nieliczbowych. Statystyka matematyczna łączy różne metody analizy statystycznej oparte na wykorzystaniu wzorców statystycznych lub ich charakterystyk.

Rozważa się zwykle historię statystyki począwszy od problemu odzyskiwania zależności, od momentu jej opracowania przez K. Gaussa w 1794 roku (według innych źródeł - w 1795 roku) metoda najmniejszych kwadratów. Rozwój metod aproksymacji danych i redukcji wymiaru opisu rozpoczął się ponad 100 lat temu, kiedy K. Pearson stworzył metoda głównych składników. Później opracowany Analiza czynników, różne metody budowy (analiza skupień), analiza i wykorzystanie (analiza dyskryminacyjna) klasyfikacje (typologie) i inne Na początku XX wieku. teoria statystyki matematycznej została opracowana przez A. A. Chuprova. A. A. Markov, E. E. Slutsky, A. N. Kolmogorov, A. Ya. Khinchin i inni wnieśli znaczący wkład do teorii procesów losowych. nazywa się teorią analizy danych statystyki parametryczne, ponieważ jego głównym przedmiotem badań są próbki z rozkładów opisanych jednym lub niewielką liczbą parametrów. Najbardziej ogólna jest rodzina krzywych Pearsona definiowana przez cztery parametry. Najpopularniejszy był rozkład normalny. Do przetestowania hipotez zastosowano kryteria Pearsona, Studenta i Fishera. Zaproponowano metodę największej wiarygodności, analizę wariancji oraz sformułowano główne idee planowania eksperymentu.

W 1954 r. Akademik Akademii Nauk Ukraińskiej SRR B. V. Gnedenko podał następującą definicję: „Statystyka składa się z trzech działów:

  • 1) zbieranie informacji statystycznych, tj. informacje charakteryzujące poszczególne jednostki dowolnych agregatów masowych;
  • 2) statystyczne opracowanie uzyskanych danych, polegające na wyjaśnieniu prawidłowości, które można ustalić na podstawie danych z obserwacji masowych;
  • 3) rozwój technik obserwacji statystycznych i analizy danych statystycznych.

W rzeczywistości ostatnia sekcja to zawartość statystyk matematycznych.

Ze względu na stopień szczegółowości metod związanych z zanurzeniem w określonych problemach, wyróżnia się trzy rodzaje działań naukowych i stosowanych w zakresie statystycznych metod analizy danych:

  • a) opracowywanie i badania metod ogólnego przeznaczenia, bez uwzględnienia specyfiki dziedziny zastosowania;
  • b) opracowywanie i badanie modeli statystycznych rzeczywistych zjawisk i procesów zgodnie z potrzebami określonej dziedziny działalności;
  • c) zastosowanie metod i modeli statystycznych do analizy statystycznej określonych danych.

Najczęstsze metody analizy statystycznej to:

  • analiza regresji (oparta na porównaniu oczekiwań matematycznych);
  • analiza wariancji (na podstawie porównania wariancji);
  • analiza korelacji (uwzględnia oczekiwania matematyczne, wariancje i charakterystykę powiązań między zdarzeniami lub procesami);
  • analiza czynnikowa (przetwarzanie statystyczne eksperymentu wieloczynnikowego);
  • korelacja rang (połączenie korelacji i analizy czynnikowej).

Stosując różne metody statystyki matematycznej, prawidłowości statystyczne lub ich charakterystyki uzyskuje się na różne sposoby: obserwując i badając próby, stosując metody przybliżone oparte na różnych metodach przeliczania lub dzielenia próby na postać szeregu wariacyjnego, dzielenia prób na przepływy , cięcia, losowe przedziały czasowe itp.

Statystyka matematyczna wykorzystywana jest w różnych obszarach zarządzania.

Termin „statystyka” był pierwotnie używany do opisania sytuacji gospodarczej i politycznej państwa lub jego części. Na przykład definicja odnosi się do roku 1792: „statystyki opisują stan stanu w chwili obecnej lub w pewnym znanym momencie w przeszłości”. A obecnie działalność państwowych służb statystycznych dobrze wpisuje się w tę definicję. Statystyka została zdefiniowana jako gałąź wiedzy, która przedstawia ogólne zagadnienia gromadzenia, mierzenia i analizowania ogromnych danych statystycznych (ilościowych lub jakościowych); badanie ilościowej strony masowych zjawisk społecznych w postaci liczbowej.

Słowo „statystyka” pochodzi z łaciny status- stan rzeczy. Termin „statystyka” został wprowadzony do nauki przez niemieckiego naukowca Gottfrieda Achenwalla w 1746 r., który zaproponował zastąpienie nazwy przedmiotu „State Studies” prowadzonego na niemieckich uniwersytetach nazwą „Statystyka”, kładąc w ten sposób podwaliny pod rozwój statystyki jako nauka i dyscyplina akademicka.

W statystyce stosowana jest specjalna metodologia badania i przetwarzania materiałów: masowe obserwacje statystyczne, metoda grupowania, średnie, indeksy, metoda bilansowa, metoda obrazów graficznych i inne metody analizy danych statystycznych.

Rozwój technologii obliczeniowej wywarł istotny wpływ na statystyki. Wcześniej modele statystyczne reprezentowane były głównie przez modele liniowe. Rosnąca prędkość komputera i rozwój odpowiednich algorytmów numerycznych spowodowały wzrost zainteresowania modelami nieliniowymi, takimi jak sztuczne sieci neuronowe, i doprowadziło do opracowania złożonych modeli statystycznych, takich jak uogólniony model liniowy i model hierarchiczny. Powszechne są metody obliczeniowe oparte na resamplingu. Obecnie rozwija się statystyka obliczeniowa, istnieje różnorodne oprogramowanie statystyczne do celów ogólnych i specjalistycznych. Metody statystyczne są wykorzystywane w kierunku zwanym „Data Mining” (patrz rozdz. 8).

Zwrócić

×
Dołącz do społeczności koon.ru!
W kontakcie z:
Jestem już zapisany do społeczności koon.ru