Arten von Zustimmungskriterien. Siehe Seiten, auf denen der Begriff Anpassungsgüte erwähnt wird. Was machen wir mit dem erhaltenen Material?

In diesem Abschnitt werden wir eines der Probleme im Zusammenhang mit dem Testen der Wahrscheinlichkeit von Hypothesen betrachten, nämlich das Problem der Konsistenz zwischen theoretischen und statistischen Verteilungen.

Nehmen wir an, dass die gegebene statistische Verteilung mit einer theoretischen Kurve nivelliert wird f(x)(Abb. 7.6.1). Unabhängig davon, wie gut die theoretische Kurve gewählt wird, sind einige Diskrepanzen zwischen ihr und der statistischen Verteilung unvermeidlich. Es stellt sich natürlich die Frage: Sind diese Diskrepanzen nur auf zufällige Umstände zurückzuführen, die mit einer begrenzten Anzahl von Beobachtungen verbunden sind, oder sind sie signifikant und hängen damit zusammen, dass die von uns gewählte Kurve die gegebene statistische Verteilung nicht gut abgleicht. Zur Beantwortung dieser Frage werden sogenannte „Einwilligungskriterien“ herangezogen.

Gesetze der Verteilung von Zufallsvariablen



Die Idee hinter der Anwendung der Kriterien für die Güte der Anpassung ist die folgende.

Anhand dieses statistischen Materials müssen wir die Hypothese testen H, darin besteht, dass die Zufallsvariable X gehorcht einem bestimmten Verteilungsgesetz. Dieses Gesetz kann in der einen oder anderen Form angegeben werden: zum Beispiel in Form einer Verteilungsfunktion F(x) oder in Form der Verteilungsdichte f(x), oder in Form einer Reihe von Wahrscheinlichkeiten p t , wo Punkt- die Wahrscheinlichkeit, dass der Wert X wird hineinfallen lch etwas Entladung.

Denn aus diesen bildet sich die Verteilungsfunktion F(x) die allgemeinste ist und alle anderen bestimmt, werden wir die Hypothese formulieren H, als darin bestehend, dass der Wert X hat eine Verteilungsfunktion ^(d:).

Annahme oder Ablehnung einer Hypothese H, Betrachten Sie eine gewisse Menge du, Charakterisierung des Grads der Diskrepanz zwischen der theoretischen und der statistischen Verteilung. Wert U kann auf verschiedene Arten ausgewählt werden; zum Beispiel als U man kann die Summe der quadrierten Abweichungen der theoretischen Wahrscheinlichkeiten nehmen Punkt aus den entsprechenden Frequenzen R* oder die Summe der gleichen Quadrate mit einigen Koeffizienten („Gewichte“), oder die maximale Abweichung der statistischen Verteilungsfunktion F*(x) von theoretisch F(x) usw. Nehmen wir an, dass die Menge U auf die eine oder andere Weise gewählt. Offensichtlich gibt es einige Zufallswert. Das Verteilungsgesetz dieser Zufallsvariablen hängt vom Verteilungsgesetz der Zufallsvariablen ab x, an denen Experimente durchgeführt wurden, und aus der Anzahl der Experimente P. Wenn die Hypothese H gilt, dann gilt das Verteilungsgesetz der Menge U durch das Verteilungsgesetz der Menge bestimmt X(Funktion F(x)) und Nummer P.

Nehmen wir an, dieses Verteilungsgesetz sei uns bekannt. Als Ergebnis dieser Versuchsreihe wurde festgestellt, dass die von uns gewählte Maßnahme



ZUSTIMMUNGSKRITERIEN


Abweichungen U einen gewissen Wert angenommen a. Die Frage ist, ob dies durch zufällige Ursachen erklärt werden kann oder ob diese Diskrepanz zu groß ist und auf einen signifikanten Unterschied zwischen theoretischer und statistischer Verteilung und damit auf die Untauglichkeit der Hypothese hinweist H? Um diese Frage zu beantworten, nehmen Sie an, dass die Hypothese H richtig ist, und unter dieser Annahme berechnen wir die Wahrscheinlichkeit, dass aufgrund zufälliger Ursachen, die mit einer unzureichenden Menge an experimentellem Material verbunden sind, das Maß der Diskrepanz entsteht U wird nicht kleiner sein als der von uns im Experiment beobachtete Wert und, d.h. wir berechnen die Wahrscheinlichkeit eines Ereignisses:

Wenn diese Wahrscheinlichkeit sehr klein ist, dann die Hypothese H ist als wenig plausibel abzulehnen; Wenn diese Wahrscheinlichkeit signifikant ist, sollte anerkannt werden, dass die experimentellen Daten der Hypothese nicht widersprechen N.

Es stellt sich die Frage, wie das Diskrepanzmaß £/ gewählt werden soll? Es stellt sich heraus, dass für einige Möglichkeiten der Wahl das Gesetz der Verteilung der Menge gilt U hat sehr einfache Eigenschaften und ist dafür ausreichend groß P praktisch unabhängig von der Funktion F(x). Gerade solche Diskrepanzmaße werden in der mathematischen Statistik als Übereinstimmungskriterien verwendet.

Betrachten wir eines der am häufigsten verwendeten Zustimmungskriterien – das sogenannte „Kriterium“. beim?" Pearson.

Nehmen Sie an, dass es ha unabhängige Experimente gibt, in denen jeweils die Zufallsvariable X einen bestimmten Wert angenommen. Die Ergebnisse der Versuche sind in zusammengefasst k Ziffern und werden in Form einer statistischen Reihe dargestellt.

Durch die Verarbeitung unabhängiger Messungen der Zufallsvariablen ξ können wir eine statistische Verteilungsfunktion F*(x) konstruieren. Durch die Form dieser Funktion kann man die Hypothese akzeptieren, dass die wahre theoretische Verteilungsfunktion F(x) ist. Die die Stichprobe bildenden unabhängigen Messungen selbst (x 1 , x 2 ,…,x n ) können als identisch verteilte Zufallsvariablen mit einer hypothetischen Verteilungsfunktion F(x) betrachtet werden.

Offensichtlich wird es einige Diskrepanzen zwischen den Funktionen F * (x) und F (x) geben. Es stellt sich die Frage, ob diese Diskrepanzen eine Folge der begrenzten Stichprobengröße sind oder damit zusammenhängen, dass unsere Hypothese nicht richtig ist, d.h. die eigentliche Verteilungsfunktion ist nicht F(x), sondern eine andere. Um dieses Problem zu lösen, werden die Zustimmungskriterien verwendet, deren Kern wie folgt ist. Es wird ein bestimmter Wert Δ(F, F *) gewählt, der den Grad der Diskrepanz zwischen den Funktionen F * (x) und F(x) charakterisiert. Zum Beispiel Δ(F, F *) = Sup|F(x)-F * (x)|, d.h. die obere Grenze in x des Moduls der Differenz.

Angenommen, die Hypothese ist richtig, d.h. Wenn man die Verteilungsfunktion F(x) kennt, kann man das Verteilungsgesetz der Zufallsvariablen Δ(F, F *) finden (wir gehen nicht auf die Frage ein, wie das geht). Wir setzen die Zahl p 0 so klein, dass das Ereignis (Δ(F, F *) > Δ 0 ) mit dieser Wahrscheinlichkeit als praktisch unmöglich angesehen wird. Vom Zustand

Finden Sie den Wert Δ 0 . Dabei ist f(x) die Verteilungsdichte Δ(F,F *).

Berechnen wir nun aus den Ergebnissen den Wert Δ(F, F *)= Δ 1

Proben, d. h. Finden Sie einen der möglichen Werte der Zufallsvariablen Δ(F, F *). Wenn Δ 1 ≥ Δ 0 , bedeutet dies, dass ein fast unmögliches Ereignis eingetreten ist. Dies lässt sich dadurch erklären, dass unsere Hypothese nicht richtig ist. Wenn also Δ 1 ≥ Δ 0, dann wird die Hypothese verworfen, und wenn Δ 1<Δ 0 , гипотеза может оказаться неверной, но вероятность этого мала.

Als Maß für die Abweichung Δ(F, F *) kann man verschiedene Werte nehmen. Abhängig davon ergeben sich unterschiedliche Übereinstimmungskriterien. Beispielsweise der Anpassungstest nach Kolmogorov, Mises, Pearson oder der Chi-Quadrat-Test.

Die Ergebnisse von n Messungen seien als gruppierte statistische Reihe mit k Ziffern dargestellt.

ENTLADUNG (x 0 ,x 1) (tatsächlich nehmen wir an, dass die Messfehler gleichmäßig über ein bestimmtes Segment verteilt sind). Dann ist die Wahrscheinlichkeit, jede der sieben Ziffern zu treffen, gleich . Unter Verwendung der gruppierten Reihe aus §11 berechnen wir Δ(F, F *)= Δ 1 =durch Formel (1). In diesem Fall .

Da das hypothetische Verteilungsgesetz zwei unbekannte Parameter, α und β - den Anfang und das Ende des Segments - enthält, beträgt die Anzahl der Freiheitsgrade 7-1-2=4. Gemäß der Chi-Quadrat-Verteilungstabelle mit der gewählten Wahrscheinlichkeit p 0 =10 -3 ergibt sich Δ 0 =18. weil Δ 1 > Δ 0 , so muss die Hypothese einer Gleichverteilung des Messfehlers verworfen werden.

Ein Anpassungstest ist ein Signifikanztest, der verwendet wird, um eine Hypothese über das Verteilungsgesetz der allgemeinen Bevölkerung zu testen, aus der die Stichprobe gezogen wird.

Am häufigsten interessiert den Forscher, ob die Verteilung experimenteller Daten dem normalen Gesetz entspricht. Daher beziehen sich die Beispiele auf das Testen der experimentellen Verteilung auf Normalverteilung.

  • Shapiro-Wilk-Test
  • Chi-Quadrat-Test
  • Kolmogorov-Smirnov-Lambda-Kriterium

SHAPIRO-WILKI-KRITERIUM

Anwendungsbedingungen: kleine Stichprobengröße

H 0 - die Verteilung der Allgemeinbevölkerung, aus der die Stichprobe der Bevölkerung gewonnen wurde, entspricht dem Normalgesetz.

H 1 - Die Verteilung der Allgemeinbevölkerung, aus der die Stichprobe der Bevölkerung gewonnen wurde, entspricht nicht dem Normalgesetz.

Tabelle 1 – Algorithmus zur Berechnung des Shapiro-Wilk-Tests.

xx∆kkDankeankΔk
1 2 3 4 5 6 7
1 11,8 13,8 2 1 0,5739 1,1478
2 12 13,2 1,2 2 0,3291 0,39492
3 12,1 13 0,9 3 0,2141 0,19269
4 12,3 12,8 0,5 4 0,1224 0,0612
5 12,6 12,6 0 5 0,0399 0
6 12,6 12,6
7 12,8 12,3 Betrag=b=17966
8 13 12,1
9 13,2 12
10 13,8 11,8

Das Verfahren zur Berechnung des Shapiro-Wilky-Kriteriums

  1. Wir formulieren die Hypothese H 0 über die Übereinstimmung der Verteilung der Allgemeinbevölkerung, aus der die Daten gewonnen wurden, mit dem Normalgesetz. Wir ordnen ein Signifikanzniveau α=0,05 zu.
  2. Wir erhalten eine Probe experimenteller Daten (Spalte 1 von Tabelle 1). In unserem Fall n=10.
  3. Wir berechnen den Wert der Stichprobenvarianz. Zum Beispiel S 2 \u003d 0,37.
  4. Wir ordnen die Stichprobe in aufsteigender und absteigender Reihenfolge (Spalten 2 und 3)
  5. Berechnen Sie die Differenzen Δk (Spalte 5)
  6. Aus Tabelle 6 des Anhangs (siehe V.S. Ivanov, 1990) finden wir die Werte der Koeffizienten ank (Spalte 6)
  7. Finden Sie das Produkt ankΔk
  8. Berechnen Sie b=Summe ankΔk= 1,7966
  9. Wir berechnen den Wert des Wf-Kriteriums mit der Formel:
  1. Aus Tabelle. 7 Anwendungen (siehe V.S. Ivanov, 1990) finden wir den kritischen Wert des Shapiro-Wilk-Tests für α=0,05 Wcrit= 0,842.
  2. Fazit. Da Wf > Wcrit können wir sagen, dass die experimentellen Daten dem Normalgesetz auf einem Signifikanzniveau von 0,05 entsprechen.

CHI-QUADRAT-TEST

Entworfen Karl Pearson. Basierend auf der Konstruktion einer Intervallvariationsreihe und einem Vergleich empirischer (n em) und theoretischer (n t) Häufigkeiten (Abb. 1).

Abb.1. Ein Histogramm, das die empirische Verteilung und die Wder Normalverteilung charakterisiert.

Statistische Hypothese: Verteilungsdichte der Allgemeinbevölkerung, aus der die Stichprobe gezogen wird, entspricht dem theoretischen Modell der Normalverteilung.

Der Wert des eigentlichen Chi-Quadrat-Tests wird nach folgender Formel berechnet:

Ist der tatsächliche Wert des Chi-Quadrat-Tests größer oder gleich dem kritischen Wert des Chi-Quadrat-Tests, kann daraus geschlossen werden, dass die empirische Verteilung auf dem Signifikanzniveau α nicht dem Normalgesetz folgt.

KOLMOGOROV-SMIRNOV LAMBDA-KRITERIUM

Entwickelt von Andrey Nikolaevich Kolmogorow und Nikolai Wassiljewitsch Smirnov.

Statistische Hypothese: Die Verteilungsfunktion der Allgemeinbevölkerung (Abb. 2), aus der die Stichprobe gezogen wird, entspricht der Verteilungsfunktion des Normalgesetzes.

Abb.2. Die roten Punkte sind die auf Basis experimenteller Daten erstellte Kumulierung, die blaue Kurve ist die theoretische Verteilungsfunktion (Normalverteilung).

Der Wert des Kriteriums λ f wird nach folgender Formel berechnet:

Fazit: wenn λ f > λ crit - empirische Verteilung entspricht nicht dem normalen auf dem Signifikanzniveau α.

LITERATUR

  1. Höhere Mathematik und Mathematische Statistik: ein Lehrbuch für Universitäten / Ed. ed. G. I. Popova. - M. Körperkultur, 2007. - 368 p.
  2. Grundlagen der Mathematischen Statistik: Lehrbuch für in-t nat. Kult / Ed. VS. Ivanova.– M.: Fizkultura i sport, 1990. 176 p.

Bei der Analyse von Variationsverteilungsreihen ist es von großer Bedeutung, wie Empirische Verteilung Vorzeichen entspricht normal. Dazu müssen die Häufigkeiten der tatsächlichen Verteilung mit den theoretischen verglichen werden, die für die Normalverteilung charakteristisch sind. Das bedeutet, dass es notwendig ist, gemäß den tatsächlichen Daten die theoretischen Häufigkeiten der Normalverteilungskurve zu berechnen, die eine Funktion von normalisierten Abweichungen sind.

Mit anderen Worten, die empirische Verteilungskurve muss an der Normalverteilungskurve ausgerichtet werden.

Objektives Merkmal der Compliance theoretisch und empirisch Frequenzen kann mit speziellen statistischen Indikatoren erhalten werden, die aufgerufen werden Einwilligungskriterien.

Übereinstimmungskriterium ein Kriterium genannt, mit dem Sie feststellen können, ob die Diskrepanz besteht empirisch und theoretisch Verteilungen zufällig oder signifikant, d.h. ob die Beobachtungsdaten mit der aufgestellten statistischen Hypothese konsistent sind oder nicht. Die Verteilung der Allgemeinbevölkerung, die sie aufgrund der aufgestellten Hypothese hat, heißt theoretisch.

Es besteht ein Gründungsbedarf Kriterium(Regel), die es einem erlauben würde zu beurteilen, ob die Diskrepanz zwischen der empirischen und der theoretischen Verteilung zufällig oder signifikant ist. Wenn die Diskrepanz ist zufällig, dann sind sie der Ansicht, dass die Beobachtungsdaten (Stichprobe) mit der aufgestellten Hypothese über das Verteilungsgesetz der Allgemeinbevölkerung übereinstimmen, und daher wird die Hypothese akzeptiert; wenn die Diskrepanz ist von Bedeutung, dann stimmen die Beobachtungsdaten nicht mit der Hypothese überein und lehnen sie ab.

Üblicherweise unterscheiden sich empirische und theoretische Häufigkeiten aufgrund der Tatsache, dass:

  • die Diskrepanz ist zufällig und mit einer begrenzten Anzahl von Beobachtungen verbunden;
  • Die Diskrepanz ist kein Zufall und erklärt sich dadurch, dass die statistische Hypothese, dass die Allgemeinbevölkerung normalverteilt ist, falsch ist.

Auf diese Weise, Einwilligungskriterien ermöglichen es, die Richtigkeit der aufgestellten Hypothese abzulehnen oder zu bestätigen, wenn die Reihe über die Art der Verteilung in der empirischen Reihe nivelliert wird.

Empirische Frequenzen aus Beobachtung gewonnen. Theoretische Frequenzen nach Formeln berechnet.

Für Normalverteilungsrecht Sie können wie folgt gefunden werden:

  • Σƒi - die Summe der akkumulierten (kumulativen) empirischen Häufigkeiten
  • h - Unterschied zwischen zwei benachbarten Optionen
  • σ - Probenstandardabweichung
  • t-normalisierte (standardisierte) Abweichung
  • φ(t) ist die Wder Normalverteilung (finde aus für den entsprechenden Wert von t)

Es gibt mehrere Anpassungstests, von denen die häufigsten sind: Chi-Quadrat-Test (Pearson-Test), Kolmogorov-Test, Romanovsky-Test.

Pearson-Anpassungstest χ 2- eine der wichtigsten, die als Summe der Verhältnisse der quadratischen Abweichungen zwischen theoretischen (f T ) und empirischen (f) Frequenzen zu theoretischen Frequenzen dargestellt werden kann:

  • k ist die Anzahl der Gruppen, in die die empirische Verteilung unterteilt ist,
  • fi ist die beobachtete Häufigkeit des Merkmals in der i-ten Gruppe,
  • fT ist die theoretische Frequenz.

Für die Verteilung χ 2 werden Tabellen erstellt, die den kritischen Wert des Anpassungskriteriums χ 2 für das gewählte Signifikanzniveau α und die Freiheitsgrade df (bzw. ν) angeben.
Das Signifikanzniveau α ist die Wahrscheinlichkeit einer fehlerhaften Ablehnung der aufgestellten Hypothese, d.h. die Wahrscheinlichkeit, dass die richtige Hypothese verworfen wird. R - statistische Gültigkeit Annahme der richtigen Hypothese. In der Statistik werden am häufigsten drei Signifikanzniveaus verwendet:

α=0,10, dann P=0,90 (in 10 von 100 Fällen)

α=0,05, dann Р=0,95 (in 5 Fällen von 100)

α=0,01, dann P=0,99 (in 1 Fall von 100) kann die richtige Hypothese verworfen werden

Die Zahl der Freiheitsgrade df ist definiert als die Zahl der Gruppen in der Verteilungsreihe abzüglich der Zahl der Bindungen: df = k –z. Unter der Anzahl der Verbindungen wird die Anzahl der Indikatoren der empirischen Reihe verstanden, die bei der Berechnung der theoretischen Häufigkeiten verwendet werden, d.h. Indikatoren, die empirische und theoretische Häufigkeiten verknüpfen.Beispielsweise gibt es in einer Glockenkurvenausrichtung drei Beziehungen.Daher beim AusrichtenGlockenkurvedie Anzahl der Freiheitsgrade ist definiert als df =k–3.Zur Beurteilung der Wesentlichkeit wird der errechnete Wert mit der Tabelle χ verglichen 2 Tabletten

Bei vollständiger Übereinstimmung der theoretischen und empirischen Verteilungen χ 2 =0, sonst χ 2>0. Wenn χ 2 calc > χ 2 tab , dann lehnen wir für ein gegebenes Signifikanzniveau und die Anzahl der Freiheitsgrade die Hypothese der Bedeutungslosigkeit (Zufälligkeit) der Diskrepanzen ab. Wenn χ 2 berechn< χ 2 табл то Wir akzeptieren die Hypothese und mit der Wahrscheinlichkeit Р=(1-α) kann argumentiert werden, dass die Diskrepanz zwischen den theoretischen und empirischen Häufigkeiten zufällig ist. Daher gibt es Gründe für die Behauptung, dass die empirische Verteilung gehorcht Normalverteilung. Der Anpassungstest nach Pearson wird verwendet, wenn die Populationsgröße groß genug ist (N>50), während die Häufigkeit jeder Gruppe mindestens 5 betragen sollte.

Basierend auf der Bestimmung der maximalen Diskrepanz zwischen den kumulierten empirischen und theoretischen Häufigkeiten:

wobei D und d jeweils die maximale Differenz zwischen den kumulativen Häufigkeiten und den kumulativen Häufigkeiten der empirischen und theoretischen Verteilungen sind.
Gemäß der Verteilungstabelle der Kolmogorov-Statistik wird die Wahrscheinlichkeit bestimmt, die von 0 bis 1 variieren kann. Bei P(λ)=1- gibt es eine vollständige Übereinstimmung der Häufigkeiten, P(λ)=0 - eine vollständige Divergenz. Ist der Wahrscheinlichkeitswert P gegenüber dem gefundenen Wert λ signifikant, so kann davon ausgegangen werden, dass die Abweichungen zwischen theoretischer und empirischer Verteilung unbedeutend, also zufälliger Natur sind.
Die Hauptbedingung für die Anwendung des Kolmogorov-Kriteriums ist eine ausreichend große Anzahl von Beobachtungen.

Kolmogorovs Gütekriterium

Überlegen Sie, wie das Kolmogorov-Kriterium (λ) wann angewendet wird Testen der Hypothese einer Normalverteilung die allgemeine Bevölkerung.Die Ausrichtung der Ist-Verteilung entlang der Normalverteilungskurve besteht aus mehreren Schritten:

  1. Vergleichen Sie tatsächliche und theoretische Frequenzen.
  2. Entsprechend den tatsächlichen Daten werden die theoretischen Häufigkeiten der Normalverteilungskurve bestimmt, die eine Funktion der normalisierten Abweichung ist.
  3. Prüfen Sie, inwieweit die Verteilung des Merkmals der normalen entspricht.

FürIVTabellenspalten:

In MS Excel wird die normalisierte Abweichung (t) mit der NORMALIZE-Funktion berechnet. Es ist notwendig, einen Bereich freier Zellen nach der Anzahl der Optionen (Zeilen einer Tabelle) auszuwählen. Rufen Sie die NORMALISIERUNG-Funktion auf, ohne die Auswahl aufzuheben. Geben Sie im angezeigten Dialogfeld die folgenden Zellen an, die jeweils die beobachteten Werte (X i), den Durchschnitt (X) und die Standardabweichung Ϭ enthalten. Der Vorgang muss abgeschlossen werden gleichzeitig indem Sie Strg+Shift+Enter drücken

FürvTabellenspalten:

Die Wder Normalverteilung φ(t) findet sich aus der Wertetabelle der lokalen Laplace-Funktion für den entsprechenden Wert der normierten Abweichung (t)

FürVITabellenspalten:

Zur Beurteilung der Kommunikationsdichte werden Variationsindikatoren verwendet:

1. Totale Varianz effektives Zeichen - spiegelt den kumulativen Einfluss von Faktoren wider:

2. Faktorvarianz effektives Merkmal - spiegelt die Variation nur durch den Einfluss des untersuchten Faktors wider X:

Charakterisiert die Schwankung von ausgeglichenen Werten yx aus dem Gesamtdurchschnitt.

3. Restdispersion zeigt die Variation des resultierenden Features an beim von allen anderen, außer X Faktoren:

Das Verhältnis zwischen der Fakultät und der Summe spiegelt das Maß für die Nähe der Beziehung zwischen wider X und j.

Bestimmungsindex ist der Anteil der Faktorvarianz an der Gesamtvarianz. Wenn dieser Ausdruck als dargestellt wird, dann R Dieser Wille Korrelationsindex .

Basierend auf der Regel zum Addieren von Varianzen (= +) kann der Korrelationsindex dargestellt werden als: oder. Der Korrelationsindex wird verwendet, um die Festigkeit der Verbindung in allen Kommunikationsformen zu bewerten.

Um die Nähe einer linearen Verbindung zu messen, wird es verwendet Linearer Korrelationskoeffizient:

Eine qualitative Einschätzung der Nähe der Beziehung zwischen Indikatoren erfolgt anhand der Chaddock-Skala:

Betrachten Sie an einem bedingten Beispiel die Verwendung der Regressions-Korrelations-Analyse der Verbindung der Paarkorrelation. Es gibt selektive Informationen über die Arbeit von 8 Hotels, die eine unterschiedliche durchschnittliche jährliche Belegung der Hotelzimmer und eine unterschiedliche Rentabilität ihrer Aktivitäten haben. Als Ergebnis der Regressions-Korrelations-Analyse ist es äußerst wichtig festzustellen, ob ein direkter Zusammenhang zwischen der Belegung von Hotelzimmern besteht und wenn ja, wie eng dieser ist:

N S Füllmenge (in %%) x Rentabilität (in %) x 2 um 2 hu Entzerrt (theoretisch) y x
8,2 7,0 9,3 8,1 9,5 10,5 7,5 6,3 67,24 49,00 86,49 65,61 90,25 110,25 56,25 39,69 492,0 364,0 669,6 526,5 712,5 840,0 420,0 315,0 7,61 6,65 9,05 8,21 9,41 10,01 7,13 6,41
66,4 564,78 4339,6 64,48

Lassen Sie uns die Parameter der Regressionsgleichung für lineare Paare definieren:

Unsere paarweise Regressionsgleichung sieht folgendermaßen aus: Wir setzen die Erfahrungswerte von x in diese Gleichung ein und berechnen die theoretischen Werte von 7,61 usw.

Lassen Sie uns nun die Enge der Beziehung zwischen der Belegung von Hotels und der Rentabilität ihrer Aktivitäten bestimmen:

Als Ergebnis der Analyse wurde festgestellt, dass ein sehr starker direkter Zusammenhang zwischen der Belegung von Hotels und der Rentabilität ihrer Aktivitäten besteht.

In der Praxis ist es oft äußerst wichtig, die Nähe empirischer Häufigkeiten zu theoretischen abzuschätzen. Eine solche Bewertung kann anhand von Nähekriterien erfolgen, genannt Einwilligungskriterien. Die am häufigsten für diese Zwecke verwendeten - Pearsons Anpassungstest (ʼʼchiʼʼ-Quadrat), das nach folgender Formel berechnet wird:

wo f- empirische Frequenzen,

Theoretische Frequenzen.

Die Schätzung der Nähe empirischer Häufigkeiten zu theoretischen wird durch die Wahrscheinlichkeit des Erreichens bestimmt gegebenen Wert R( ) mit zufälligen Frequenzabweichungen. Wenn die Wahrscheinlichkeit R( ) deutlich von Null abweicht (größer als 0,05), dann können die Abweichungen der empirischen Häufigkeiten von den theoretischen als zufällig angesehen werden. Ob R( )< 0,05, dann können die Abweichungen nicht als zufällig angesehen werden, und die empirischen und theoretischen Verteilungen grundlegend voneinander unterscheiden.

Wert hängt nicht nur von den Abweichungen der tatsächlichen Frequenzen von den theoretischen ab, sondern auch von der Anzahl der Gruppen, in die die Menge eingeteilt wird, in Verbindung damit die Tabellen der kritischen Werte berechnet für verschiedene Variationsfreiheitsgrade empirischer Frequenzen (Anhang). Es ist erwähnenswert, dass für eine Normalverteilung die Anzahl der Freiheitsgrade K=n-3, wo n– Anzahl der Gruppen.P( , das ist viel höher als 0,05. Das bedeutet, dass die Abweichungen der tatsächlichen Häufigkeiten von den empirischen als zufällig angesehen werden können und die Verteilung des Gutscheinverkaufs selbst nahe an der Normalverteilung liegt.

Anhang 1

Übereinstimmungskriterien - Konzept und Typen. Einordnung und Merkmale der Kategorie "Zustimmungskriterien" 2017, 2018.

Habe Fragen?

Tippfehler melden

Text, der an unsere Redaktion gesendet werden soll: