Statistische Tests und Datendarstellung

Eines der Hauptziele der Forschung und klinischer Studien besteht darin, herauszufinden, welche Assoziationen oder Ergebnisse nicht lediglich durch den Zufall zustande kommen. Je nach Design der Studie und den von ihr gelieferten Daten kann eine Hypothese angenommen oder verworfen werden, was wiederum eine Aussage zur Korrelation von Merkmalen zulässt. In der Forschung werden statistische Tests durchgeführt, um Informationen und Bedeutungen aus variablen Datensätzen abzuleiten. Es gibt verschiedene Arten von Tests, z. B. den Chi-Quadrat-Test oder den Exakten Test nach Fisher. Sie werden je nach Fragestellung der Studie und den Charakteristika der zu analysierenden Variablen bzw. Merkmale ausgewählt. Studienergebnisse können auf der Grundlage von berechneten p-Werten und vorgegebenen Signifikanzniveaus (α) als statistisch signifikant interpretiert werden. Konfidenzintervalle sind eine Möglichkeit, die Signifikanz eines statistischen Ergebnisses ohne Berechnung eines p-Werts auszudrücken. Unter Nutzung verschiedener Arten von Diagrammen können Daten visualisiert und veranschaulicht werden.

Aktualisiert: 29.08.2023

Redaktionelle Verantwortung: Stanley Oiseth, Lindsay Jones, Evelin Maza

Mit Video-Repetitorien von Lecturio kommst du sicher
durch Physikum, M2 und M3.

Einführung

Ein Hypothesentest bzw. eine Hypothesenprüfung dient dazu, die Plausibilität einer Fragestellung durch die Analyse von Studiendaten zu bewerten.

Beispiel: Ein Unternehmen entwickelt ein neues Medikament X, welches zur Behandlung der arteriellen Hypertonie Hypertonie Arterielle Hypertonie eingesetzt werden soll. Das Unternehmen möchte wissen, ob das Medikament X tatsächlich den Blutdruck senkt, und muss daher eine Hypothesenprüfung durchführen.

Schritte zur Prüfung einer Hypothese:

  1. Formulieren Sie die Hypothese.
  2. Entscheiden Sie, welchen statistischen Test Sie verwenden möchten.
  3. Legen Sie das Signifikanzniveau fest.
  4. Berechnen Sie die Teststatistiken aus Ihren Daten unter Verwendung Ihres ausgewählten Tests.
  5. Schlussfolgerungen:
    • Es wird entschieden, ob die Nullhypothese aus Schritt 1 verworfen wird oder nicht.
    • Diese Entscheidung basiert auf dem in Schritt 3 festgelegten Signifikanzniveau.

Formulierung einer Hypothese

Eine Hypothese ist eine vorläufige Antwort auf eine Forschungsfrage (d. h. eine “Vermutung” darüber, wie die Ergebnisse aussehen werden). Es gibt zwei Arten von Hypothesen: die Nullhypothese und die Alternativhypothese.

Nullhypothese

  • Die Nullhypothese (H0) besagt, dass es keinen Unterschied zwischen den untersuchten Populationen gibt (oder anders ausgedrückt, dass es keine Beziehung zwischen den untersuchten Merkmalen gibt).
  • Als Formel hierfür könnte man aufstellen: H0: µ1 = µ2, wobei µ der Mittelwert (oder ein anderer Durchschnittswert) der Gruppe 1 bzw. 2 ist.
  • Beispiel: Das Medikament X wurde entwickelt, um den Blutdruck zu senken. In einem Experiment soll geprüft werden, ob das Medikament X tatsächlich den Blutdruck senkt. Eine Gruppe erhält das Medikament X, während eine zweite Gruppe ein Placebo erhält. Die Nullhypothese würde besagen, dass das Medikament X keine Auswirkung auf den Blutdruck hat und dass beide Gruppen am Ende des Studienzeitraums den gleichen durchschnittlichen Blutdruck haben werden.

Alternativhypothese

  • Die Alternativhypothese (H1) besagt, dass es einen Unterschied zwischen den untersuchten Populationen gibt.
  • Als Formel ausgedrückt: H1: µ1µ2.
  • Beispiel: Im oben beschriebenen Experiment lautet die Alternativhypothese, dass das Medikament X den Blutdruck senkt und dass die Patienten in der Studiengruppe, die das Medikament X erhält, am Ende des Studienzeitraums einen niedrigeren Blutdruck haben als die Patienten in der Placebogruppe.
  • H1 ist eine Aussage, die Forschende (zunächst) für wahr halten.

Was wird in der Studie wirklich geprüft?

  • Eine Hypothese kann nie endgültig bestätigt werden, aber sie kann endgültig verworfen werden.
  • Daher kann die Alternativhypothese nicht direkt bestätigt oder verworfen werden.
  • Stattdessen wird in einer Forschungsstudie die Nullhypothese zurückgewiesen oder nicht zurückgewiesen.

Beispiele

Beispiel 1: Ablehnung der Nullhypothese

Wenn im obigen Beispiel die Ergebnisse der Studie zeigen, dass das Medikament X den Blutdruck tatsächlich signifikant senkt, wird die Nullhypothese (die besagt, dass es keinen Unterschied zwischen den Gruppen gibt) verworfen. Beachten Sie, dass diese Ergebnisse die Alternativhypothese nicht bestätigen (s. o.), sondern lediglich die Nullhypothese widerlegen.

Beispiel 2: Die Nullhypothese wird nicht verworfen

Wenn im obigen Beispiel die Ergebnisse der Studie zeigen, dass das Medikament X den Blutdruck nicht signifikant senkt, dann kann die Nullhypothese durch diese Studie nicht verworfen werden. Auch hier ist zu beachten, dass die Ergebnisse die Nullhypothese nicht (endgültig) bestätigen.

Fehlentscheidungen und statistische Power Statistische Power Statistische Power: Stärke eines Tests

  • Fehler erster Art:
    • Die Nullhypothese ist wahr, wird aber verworfen.
    • Die Wahrscheinlichkeit für einen Fehler erster Art wird auch als Alpha (α) bezeichnet.
  • Fehler zweiter Art:
    • Die Nullhypothese ist falsch, wird aber angenommen bzw. nicht abgelehnt.
    • Die Wahrscheinlichkeit für einen Fehler zweiter Art wird mit Beta (β) angegeben.
  • Statistische Power Statistische Power Statistische Power: Stärke eines Tests (Teststärke):
    • beschreibt die Wahrscheinlichkeit, dass ein Test eine falsche Nullhypothese korrekt zurückweist
    • Power = 1 – β
    • Power hängt ab von:
      • Stichprobenumfang n (z. B. höhere Fallzahl → ↑ Aussagekraft)
      • Größe des erwarteten Effekts (z. B. größerer erwarteter Effekt → ↑ Power)
Wahrscheinlichkeitsmodelle und Zufallsvariablen - Arten von Fehlern

Fehlentscheidungen

Bild von Lecturio. Lizenz: CC BY-NC-SA 4.0

Bestimmung der statistischen Signifikanz

Statistische Signifikanz bedeutet, dass es sehr unwahrscheinlich ist, dass alle Testergebnisse rein zufällig zustande kommen. Um die statistische Signifikanz zu bestimmen, müssen Sie einen α-Wert festlegen und einen p-Wert berechnen.

p-Werte

Es kann ein Diagramm (s. u.) erstellt werden, in dem die möglichen Studienergebnisse auf der x-Achse und die Wahrscheinlichkeit des Auftretens jedes Ergebnisses auf der y-Achse aufgetragen werden. Die Fläche unter der Kurve stellt den p-Wert dar.

  • Der p-Wert ist die Wahrscheinlichkeit, dass ein bestimmtes Ergebnis erhalten wird unter der Annahme, dass die Nullhypothese wahr ist.
    • Mit anderen Worten: Der p-Wert bezeichnet die Wahrscheinlichkeit, dass Sie dieses Ergebnis erhalten, wenn es keine Beziehung zwischen den Variablen gibt und die Ergebnisse rein zufällig auftreten.
    • Wie alle Wahrscheinlichkeiten liegt auch der p-Wert zwischen 0 und 1.
  • Höhere p-Werte (größere Fläche unter der Kurve):
    • Bedeuten eine höhere Wahrscheinlichkeit, dass die Nullhypothese wahr ist
    • Weisen darauf hin, dass es keine Beziehung zwischen Ihren Merkmalen gibt
    • Beispiel: Im obigen Beispiel würde ein p-Wert von 0,6 bedeuten, dass es unwahrscheinlich ist, dass das Medikament X mit einem niedrigeren Blutdruck assoziiert ist.
  • Niedrigere p-Werte (kleinere Fläche unter der Kurve):
    • Bedeuten eine niedrige Wahrscheinlichkeit, dass die Nullhypothese wahr ist
    • Weisen darauf hin, dass eine beobachtete Korrelation zwischen Ihren Merkmalen wahrscheinlich nicht nur auf Zufall zurückzuführen ist, sondern dass wahrscheinlich eine echte Beziehung besteht
    • Beispiel: Im obigen Beispiel deutet ein p-Wert von 0,02 darauf hin, dass das Medikament X mit einem niedrigeren Blutdruck assoziiert ist.
  • Wenn der p-Wert geringer als das von Ihnen festgelegte Signifikanzniveau (α-Niveau) ist, können Sie die Nullhypothese verwerfen, da wahrscheinlich eine echte Beziehung zwischen Ihren Variablen besteht.
  • Je niedriger der p-Wert ist, desto sicherer können Sie sein, dass die Beziehung zwischen Ihren Variablen wahr ist (und nicht auf Zufall beruht).

Eselsbrücke:

“Ist p klein, darf die Nullhypothese nicht sein”.

P-Wert

Grafische Darstellung des p-Wertes und der α-Werte:
Beachten Sie in diesem Beispiel, dass der beobachtete p-Wert unter dem vorgegebenen statistischen Signifikanzniveau liegt (in diesem Fall 95 %). Dies bedeutet, dass die Nullhypothese verworfen werden sollte; denn das beobachtete Ergebnis wäre sehr unwahrscheinlich, wenn die Nullhypothese (d. h. zwischen den Variablen besteht keine Beziehung) wahr wäre.

Bild von Lecturio. Lizenz: CC BY-NC-SA 4.0

Signifikanzniveau α

  • Das α-Niveau ist ein p-Wert, der ein willkürlich festgelegtes “Signifikanzniveau” darstellt.
  • Der α-Wert sollte vor der Durchführung einer Studie ausgewählt werden.
  • Üblicherweise wird der α-Wert auf 0,05 oder 0,01 festgelegt.
  • Das α-Niveau ist das Risiko, eine falsche Entscheidung zu treffen, bei der Sie die Nullhypothese fälschlicherweise ablehnen (obwohl sie in Wirklichkeit wahr ist). Dieses Risiko geht man bewusst ein. Es kann nicht 0 sein.
  • Beispiel:
    • Ein α-Wert von 0,05 bedeutet, dass, wenn der p-Wert < 0,05 ist, Sie zu dem Schluss kommen, dass eine Beziehung zwischen Ihren Variablen besteht.
    • Das bedeutet, dass Sie bereit sind, eine Wahrscheinlichkeit von bis zu 5 % für einen Fehler erster Art zu akzeptieren.
  • Im Beispiel des Einflusses von Medikament X auf den Blutdruck würden Sie bei einem p-Wert von 0,03 zu dem Schluss kommen, dass:
    • Das Medikament X mit einem niedrigeren Blutdruck assoziiert ist → Dies ist eine Ablehnung der Nullhypothese.
    • Eine 3%ige Chance besteht, dass Sie einen Fehler erster Art begangen haben: nämlich dass die Nullhypothese in Wahrheit doch zutrifft, also das Medikament X nicht mit einem niedrigeren Blutdruck assoziiert ist.

Konfidenzintervalle

  • Ein Konfidenzintervall (KI, Vertrauensbereich) beschreibt die Wahrscheinlichkeit, dass Ihr Ergebnis in einen bestimmten Bereich von Werten fällt.
    • Konfidenzintervalle messen den Grad der Unsicherheit bei Stichprobenerhebungen.
    • Das Konfidenzintervall ist die Spannweite der Mittelwerte, die man erhält, wenn man immer wieder Stichproben aus der gleichen Grundgesamtheit entnimmt.
    • Konfidenzintervalle werden anhand des Stichprobenumfangs, des Mittelwerts der Stichprobe und der Standardabweichung berechnet (in der Regel werden Online-Rechner und Standardtabellen verwendet).
  • Die statistische Sicherheit bzw. das Konfidenzniveau (“Maß an Sicherheit”) eines Konfidenzintervalls ist die Wahrscheinlichkeit, dass das Konfidenzintervall das wahre Ergebnis enthält.
    • Meist wird ein Konfidenzniveau zwischen 90 und 99 % verwendet. Oft wird es auf 95 % festgelegt.
    • Ein 95%iges Konfidenzintervall ist der Bereich von Mittelwerten, der mit 95%iger Sicherheit den wahren Mittelwert der Grundgesamtheit enthält.
    • Wie das Signifikanzniveau α wird auch das Konfidenzniveau vor der Hypothesenprüfung gewählt.
    • Je mehr Sicherheit erforderlich ist (also je höher das Konfidenzniveau gewählt wird), desto größer wird das Intervall.
  • Beispiel: Forschende wollen die durchschnittliche Körpergröße in einer Grundgesamtheit von 1000 Männern ermitteln. Die Körpergröße wird bei einer Stichprobe von 50 dieser Männer gemessen.
    • Der Mittelwert der Körpergröße beträgt 178 Zentimeter.
    • Das 95%ige Konfidenzintervall liegt zwischen 173 und 183 Zentimetern.
    • Das heißt: Wenn die Forscher 100 Zufallsstichproben aus derselben Grundgesamtheit nehmen, wird der Mittelwert in 95 % der Fälle zwischen 173 und 183 Zentimetern liegen. (Es bedeutet nicht, dass 95 % der Werte in dieser einen Stichprobe zwischen 173 und 183 Zentimetern liegen).
    • Wenn ein höheres Maß an Sicherheit gewünscht wird, erweitert sich der Bereich; ein Konfidenzniveau von 99 % kann beispielsweise zu einem Konfidenzintervall von 168 bis 188 Zentimetern führen.
Darstellung des Konfidenzintervalls mit einem Konfidenzniveau von 90 % bei einer Kurve mit Normalverteilung

Darstellung des Konfidenzintervalls mit einem Konfidenzniveau von 90 % bei einer Kurve mit Normalverteilung

Bild von Lecturio

Tipps zur Vermeidung von Fallstricken bei Hypothesentests

  • Formulieren Sie Ihre Hypothese nicht auf Grundlage dessen, was Sie in den Daten sehen, sondern unter dem Gesichtspunkt einer sinnvollen und plausiblen wissenschaftlichen Fragestellung.
  • Die Nullhypothese sollte nicht die Hypothese sein, die Sie als wahr vermuten.
  • Überprüfen Sie die Bedingungen und Annahmen.
  • Achten Sie auf die richtige Formulierung: Eine Nullhypothese wird nicht “angenommen”, sondern lediglich “nicht abgelehnt” bzw. “nicht verworfen”.
  • Verwechseln Sie nicht praktische Signifikanz und statistische Signifikanz (Z. B. können Sie bei einem ausreichend großen Stichprobenumfang feststellen, dass Medikament X den systolischen Blutdruck um 2 mmHg senkt. Selbst wenn dies statistisch signifikant ist: Heißt das, dass es für Ihren Patienten klinisch bedeutsam ist?).
  • Wenn Sie die Nullhypothese nicht verwerfen können: Gehen Sie nicht davon aus, dass ein größerer Stichprobenumfang zur Verwerfung führen wird.
  • Überlegen Sie, ob es sinnvoll ist, davon auszugehen, dass die Ereignisse unabhängig voneinander sind.
  • Interpretieren Sie p-Werte nicht als die Wahrscheinlichkeit, dass die Nullhypothese wahr ist.
  • Selbst ein perfekt durchgeführter Test kann falsch sein, z. B. wenn er ein falsch ausgewählter Test für diese Fragestellung ist.

Statistische Tests

Die Wahl des richtigen Tests

Die Wahl des Tests hängt von folgenden Aspekten ab:

  • Der Art von Variablen bzw. Merkmalen, die Sie testen (sowohl die “Exposition” als auch das “Ergebnis” des Tests)
    • Quantitativ (“metrisch”, “numerisch”):
      • stetig (z. B. Alter, Gewicht, Größe)
      • diskret (z. B. Anzahl von Metastasen)
    • Qualitativ (“kategorial”):
      • ordinal (Rangfolgen, z. B. Schulnoten, Kleidergröße)
      • nominal (Gruppen mit Namen, z. B. Tumorlokalisation)
      • binär (Daten mit nur einer “Ja/Nein”-Antwort, z. B. Vorhandensein einer Patientenverfügung)
  • Ob Ihre Werte bestimmte Kriterien oder Annahmen erfüllen. Zu üblichen Annahmen gehören:
    • Die Merkmale sind alle unabhängig voneinander.
    • Die Varianz der Daten innerhalb einer einzelnen Gruppe ist ähnlich wie bei allen anderen Gruppen.
    • Die Daten folgen einer Normalverteilung (Glockenkurve).

Die Vernünftigkeit des Modells sollte immer infrage gestellt werden. Wenn das Modell falsch ist, ist auch alles andere falsch.

Seien Sie vorsichtig mit Merkmalen, die nicht wirklich unabhängig sind.

Kontinuierliche und kategoriale Variablen

Darstellungen von quantitativen und qualitativen Merkmalen

Bild von Lecturio. Lizenz: CC BY-NC-SA 4.0

Arten von Tests

Statistische Tests bzw. Analysen können drei Hauptkategorien zugeordnet werden:

  1. Regressionsanalysen: Bewertung von Ursache-Wirkungs-Beziehungen
  2. Vergleichsanalysen: Vergleich der Mittelwerte verschiedener Gruppen (erfordern quantitative Ergebnisdaten)
  3. Korrelationsanalysen: Suche nach Zusammenhängen zwischen verschiedenen Merkmalen
Tabelle: Arten von statistischen Tests
Name des Tests Was der Test prüft Art der Variablen bzw. Merkmale Beispiel
Regressionsanalysen
Einfache lineare Regression Wie sich eine Veränderung der unabhängigen Variable (= Eingangsvariable bzw. Prädiktor) auf die abhängige Variable (= Reaktionsvariable) auswirkt
  • unabhängige Variable: stetig
  • abhängige Variable: stetig
Wie beeinflusst das Gewicht (unabhängige Variable) die Lebenserwartung (abhängige Variable)?
Multiple lineare Regression Wie sich Veränderungen in den Kombinationen von ≥ 2 unabhängigen Variablen auf die abhängige Variable auswirken
  • unabhängige Variablen: stetig
  • abhängige Variable: stetig
Wie wirken sich Gewicht und sozioökonomischer Status (unabhängige Variablen) auf die Lebenserwartung (abhängige Variable) aus?
Logistische Regression Wie ≥ 1 unabhängige Variablen ein binäres Ergebnis beeinflussen können
  • unabhängige Variablen(n): stetig
  • abhängige Variable: binär
Welchen Einfluss hat das Gewicht (unabhängige Variable) auf das Überleben (binäre abhängige Variable: tot oder lebendig)?
Vergleichsanalysen
Zweistichproben-t-Test für abhängige Stichproben Vergleicht die Mittelwerte von 2 Gruppen aus derselben Grundgesamtheit
  • unabhängige Variable: qualitativ
  • abhängige Variable: quantitativ
Vergleichen Sie die Gewichte der Säuglinge (abhängige Variable) vor und nach der Fütterung (unabhängige Variable).
Zweistichproben-t-Test für unabhängige Stichproben Vergleicht die Mittelwerte von 2 Gruppen aus verschiedenen Grundgesamtheiten
  • unabhängige Variable: qualitativ
  • abhängige Variable: quantitativ
Wie groß ist der Unterschied in der Durchschnittskörpergröße (abhängige Variable) zwischen 2 verschiedenen Basketballmannschaften (unabhängige Variable)?
Varianzanalyse (analysis of variance, ANOVA) Vergleicht die Mittelwerte von > 2 Gruppen
  • unabhängige Variablen: qualitativ
  • abhängige Variable: quantitativ
Wie groß ist der Unterschied im Blutzuckerspiegel (abhängige Variable) 1, 2 und 3 Stunden nach einer Mahlzeit (unabhängige Variablen)?
Korrelationsanalysen
Chi-Quadrat-Test Testet die Stärke des Zusammenhangs zwischen 2 qualitativen Variablen in einer größeren Stichprobe
  • Variable 1: qualitativ
  • Variable 2: qualitativ
Vergleichen Sie, ob die Aufnahme in ein Medizinstudium (Variable 1) wahrscheinlicher ist, wenn der Bewerber in Deutschland geboren wurde (Variable 2).
Exakter Test nach Fisher Testet die Stärke des Zusammenhangs zwischen 2 qualitativen Variablen in einer kleineren Stichprobe
  • Variable 1: qualitativ
  • Variable 2: qualitativ
Wie Chi-Quadrat, aber mit kleinerem Stichprobenumfang
Korrelationskoeffizient nach Pearson/Bravais Testet die Stärke eines linearen Zusammenhangs zwischen 2 stetigen Variablen
  • Variable 1: stetig
  • Variable 2: stetig
Vergleichen Sie, wie der HbA1c-Plasmaspiegel bei Diabetikern (Variable 1) mit dem Triglyceridspiegel im Plasma Plasma Transfusionsprodukte zusammenhängt (Variable 2).

Chi-Quadrat-Test (χ²)

Chi-Quadrat-Tests werden häufig verwendet, um zwei qualitative Merkmale zu analysieren und festzustellen, ob sie miteinander in Beziehung stehen.

  • Mithilfe von Chi-Quadrat-Tests kann man beurteilen
    • Ob ein statistisch signifikanter Zusammenhang zwischen zwei qualitativen Merkmalen besteht oder nicht.
    • Die zu prüfenden Merkmale können typischerweise “gezählt” werden.
    • Bei großen Stichproben ist der Chi-Quadrat-Test genauer als der Exakte Test nach Fisher.
  • Worüber man mittels Chi-Quadrat-Tests keine Aussage treffen kann:
    • Stärke dieser Assoziation
    • Ob die Beziehung kausal ist

Für die Durchführung eines Chi-Quadrat-Tests werden zwei Informationen benötigt: Die Freiheitsgrade (Anzahl der Kategorien minus 1) und das Signifikanzniveau α (das vom Forscher gewählt und in der Regel auf 0,05 festgelegt wird). Darüber hinaus sollten die Daten in einer Tabelle organisiert werden.

Beispiel: Wenn man herausfinden wollte, ob Jongleure eher in einer bestimmten Jahreszeit geboren werden, könnte man die Daten in die folgende Tabelle eintragen:

Kategorie (i): Jahreszeit der Geburt Beobachtete Häufigkeit von Jongleuren
Frühling 66
Sommer 82
Herbst 74
Winter 78
Gesamtzahl der Jongleure in der Stichprobe: 300

Zunächst müssen die erwarteten Häufigkeiten für jede Zelle in der obigen Tabelle anhand folgender Gleichung bestimmt werden:

$$ Erwartete\ Häufigkeit = np_{0i} $$

wobei n der Stichprobenumfang und p0i der hypothetische Anteil in jeder Kategorie i ist.

Im obigen Beispiel ist n = 300 und p0i = ¼, also ist die erwartete Zellenhäufigkeit 300 x 0,25 = 75 in jeder Zelle.

Die Teststatistik wird dann nach der Standard-Chi-Quadrat-Formel berechnet:

$$ \chi ^{2} = \sum _{all\ cells} \frac{(beobachtete\ Häufigkeit-erwartete\ Häufigkeit)^{2}}{erwartete\ Häufigkeit} $$

wobei 𝝌2 die zu berechnende Teststatistik ist. Für jede “Zelle” oder Kategorie wird die erwartete Häufigkeit von der beobachteten Häufigkeit abgezogen; dieser Wert wird quadriert und dann durch die erwartete Häufigkeit geteilt. Nachdem diese Zahl für jede Kategorie berechnet wurde, werden die Zahlen addiert.

Beispiel einer 𝝌2-Berechnung: Im obigen Beispiel ist die erwartete Häufigkeit in jeder Zelle 75, sodass die 𝝌2 Teststatistik wie folgt berechnet werden kann:

Kategorie (i): Jahreszeit der Geburt Beobachtete Häufigkeit von Jongleuren (Beobachtet – erwartet)2 / erwartet
Frühling 66 (66 ‒ 75)2 / 75 = 1,080
Sommer 82 (82 ‒ 75)2 / 75 = 0,653
Herbst 74 (74 ‒ 75)2 / 75 = 0,013
Winter 78 (78 ‒ 75)2 / 75 = 0,120

𝝌2= 1,080 + 0,653 + 0,013 + 0,102 = 1,866

Feststellung, ob die Teststatistik statistisch signifikant ist oder nicht:

Um festzustellen, ob diese Teststatistik statistisch signifikant ist, wird die Chi-Quadrat-Tabelle verwendet, um den kritischen Chi-Quadrat-Wert zu erhalten.

  • Die Tabelle zeigt die Freiheitsgrade (Anzahl der Kategorien minus 1) auf der y-Achse und den α-Wert auf der x-Achse.
  • Anhand der Freiheitsgrade und des α-Wertes aus der Studie finden Sie den kritischen Wert in der Tabelle (siehe Beispieltabelle unten).
  • Der kritische Wert wird zur Bestimmung der statistischen Signifikanz verwendet, indem er mit der Teststatistik verglichen wird.
    • Teststatistik > kritischer Wert:
      • Die beobachteten Häufigkeiten sind weit von den erwarteten Häufigkeiten entfernt.
      • Auf Grundlage des Signifikanzniveaus α (0,05) wird die Nullhypothese zugunsten der Alternativhypothese verworfen.
    • Teststatistik < kritischer Wert:
      • Die beobachteten Häufigkeiten liegen nahe an den erwarteten Häufigkeiten.
      • Auf Grundlage des Signifikanzniveaus α (0,05) wird die Nullhypothese nicht verworfen.
Beispiel für eine Chi-Quadrat-Tabelle

Beispiel für die Tabelle der kritischen Werte für den 𝝌2-Test:
Auf der y-Achse stellt v die Freiheitsgrade dar (d. h. die Anzahl der untersuchten Kategorien minus 1); die Signifikanzniveaus (α) sind auf der x-Achse angegeben. Die entsprechenden kritischen Werte sind in der Tabelle zu finden und werden dann mit der berechneten Teststatistik verglichen.

Bild von Lecturio. Lizenz: CC BY-NC-SA 4.0

Beispiel 𝝌2-Test: Ist es wahrscheinlicher, dass Jongleure in einer bestimmten Jahreszeit geboren werden (bei einem Signifikanzniveau von 0,05)?

  • Es gibt vier verschiedene Jahreszeiten, also 3 Freiheitsgrade.
  • α = 0,05
  • Aus der obigen Tabelle ergibt sich die kritische Zahl 7,81
  • Daher lehnen wir unsere Nullhypothese ab, wenn die Teststatistik > 7,81 ist.
Kategorie (i): Jahreszeit der Geburt Beobachtete Häufigkeit von Jongleuren (Beobachtet – erwartet)2 / erwartet
Frühling 66 (66 ‒ 75)2 / 75 = 1,080
Sommer 82 (82 ‒ 75)2 / 75 = 0,653
Herbst 74 (74 ‒ 75)2 / 75 = 0,013
Winter 78 (78 ‒ 75)2 / 75 = 0,120
Berechnungen unter der Annahme, dass die erwartete Häufigkeit in jeder Zelle 75 % beträgt

𝝌2 = 1,080 + 0,653 + 0,013 + 0,120 = 1.866

Da 1,866 < 7,81 (unser kritischer Wert) ist, lehnen wir die Nullhypothese nicht ab und kommen zu dem Schluss, dass die Geburtsjahreszeit nicht mit dem Jonglieren zusammenhängt.

Häufige Fallstricke:

  • Verwenden Sie Chi-Quadrat nur bei Merkmalen, die gezählt werden können.
  • Vorsicht bei großen Stichprobenumfängen, da die Freiheitsgrade nicht zunehmen.

Exakter Test nach Fisher

Ähnlich wie der 𝝌2-Test ist der Exakte Test nach Fisher ein statistischer Test, der verwendet wird, um festzustellen, ob es nicht-zufällige Zusammenhänge zwischen zwei qualitativen Variablen gibt.

  • Wird verwendet, um Werte in Kontingenztafeln zu analysieren und die Abweichung der Daten von der Nullhypothese (d. h. den p-Wert) zu bestimmen.
    • Beispiel: Vergleich von zwei möglichen “Expositionen” (Rauchen/Nichtrauchen) mit zwei möglichen Ergebnissen (Entwicklung von Lungenkrebs/Gesundheit)
    • Kontingenztafeln können > zwei “Expositionen” oder > zwei Ergebnisse haben
  • Größere Genauigkeit bei kleinen Datensätzen
  • Der Fisher-Test liefert exakte p-Werte auf der Grundlage der Tabelle.
  • Komplizierte Formel zur Berechnung der Teststatistik, daher in der Regel mit Software berechnet.

Eine 2×2-Kontingenztafel wird wie folgt aufgebaut:

Y Z Zeile gesamt
W a b a + b
X c d c + d
Summe der Spalten a + c b + d a + b + c + d (= n)

Die Teststatistik p wird anhand dieser Tabelle nach folgender Formel berechnet:

$$ p = \frac{(\frac{a+b}{a})(\frac{c+d}{c})}{(\frac{n}{a+c})} = \frac{(\frac{a+b}{b})(\frac{c+d}{d})}{(\frac{n}{b+d})} = \frac{(a+b) (c+d) (a+c) (b+d)}{a\ b\ c\ d\ n} $$

wobei p = p-Wert; a, b, c und d sind Zahlen aus den Zellen einer einfachen 2×2-Kontingenztafel und n = a + b + c + d.

Grafische Darstellung von Daten

Zweck

Bevor Berechnungen durchgeführt werden, sollten die Daten in einem einfachen grafischen Format dargestellt werden (z. B. Balkendiagramm, Streudiagramm, Histogramm).

  • Die Merkmale der Datenverteilung geben Aufschluss über die statistischen Instrumente, die für die Analyse benötigt werden.
  • Diagramme sind der erste Schritt in der Datenanalyse und ermöglichen die unmittelbare Visualisierung von Verteilungen und Mustern, welche wiederum die nächsten Schritte der statistischen Analyse bestimmen.
  • Ausreißer können ein Hinweis auf mathematische oder experimentelle Fehler sein.
  • Es gibt viele Möglichkeiten, Daten grafisch darzustellen.
  • Nachdem die Berechnungen abgeschlossen sind, kann eine visuelle Darstellung dem Leser helfen, sich die Ergebnisse vorzustellen.

Darstellung einer Beziehung zwischen Variablen

Kontingenztafeln:

  • Sind Tabellen mit den relativen Häufigkeiten der verschiedenen Kombinationen von Variablen
  • Beispiel: Vergleich der Ergebnisse eines Screening-Tests (positiv oder negativ) mit der Tatsache, ob eine Person tatsächlich eine Erkrankung hat oder nicht. (Hinweis: Diese spezielle Art der Kontingenztafel kann zur Berechnung der Sensitivität und Spezifität eines Screening-Tests verwendet werden).
Kontingenztabelle für falsch-positive und falsch-negative Ergebnisse

Kontingenztafel zur Identifizierung falsch-positiver (b) und falsch-negativer (c) Ergebnisse

Bild von Lecturio. Lizenz: CC BY-NC-SA 4.0

Streudiagramme bzw. Scatterplots:

  • Mithilfe dieser Methode wird häufig die Beziehung zwischen zwei numerischen Merkmalen oder einem numerischen Merkmal und einem qualitativen Merkmal dargestellt.
  • Die Punkte stellen die Werte der einzelnen Datenpunkte dar.
  • Ermöglicht die Berechnung einer Trendlinie, die die Daten als Ganzes repräsentiert (z. B. Regressionsgerade bei linearen Zusammenhängen)
  • Ermöglicht eine einfache Visualisierung des gesamten Datensatzes
  • Beispiel: Streudiagramm zur Darstellung der Beziehung zwischen zwei numerischen Merkmalen
Streudiagramm

Beispiel eines Streudiagramms

Bild: ” Scatterplot” von Qwertyus. Lizenz: CC0 1.0

Box-Plots:

  • Zeigen die Verteilung und die Zentren des Datensatzes
  • Bringen eine Zusammenfassung der Daten mittels fünf Verteilungsmaßen visuell zum Ausdruck:
    1. Der minimale Wert wird ganz links am Ende des horizontalen Strichs angezeigt.
    2. Das erste Quartil (Q1) befindet sich im linken Abschnitt der Box.
    3. Der Median ist der Strich in der Mitte der Box.
    4. Das dritte Quartil (Q3) befindet sich im rechten Abschnitt der Box.
    5. Der maximale Wert wird ganz rechts am Ende des Strichs eingezeichnet.
  • Minimum und Maximum (Punkt 1 bzw. 5) heißen in dieser Darstellung auch “Whiskers” (engl. für Schnurrhaare).
  • Ausreißer und Extremwerte liegen außerhalb der “Whiskers” und können als Kreise (o) bzw. Sternchen (*) repräsentiert werden.
  • Werden in der Regel beim Vergleich der Mittelwerte und Verteilungen zweier Grundgesamtheiten verwendet
  • Beispiel: Der folgende Box-Plot vergleicht die durchschnittlichen Inkubationszeiten verschiedener infektiöser Erkrankungen, die durch Coronaviren verursacht werden: COVID-19, SARS (severe acute respiratory syndrome) und MERS (Middle East respiratory syndrome).
SARS-Cov-2 Inkubationszeit Boxplot

Beispiel für einen Box-Plot

Bild: “Box-and-Whisker-Plots” von Jantien A. Backer, Don Klinkenberg, Jacco Wallinga. Lizenz: CC BY 4.0

Kaplan-Meier-Schätzer

  • Eine Art der statistischen Analyse, die zur Schätzung der Zeit bis zum Eintritt eines Ereignisses verwendet wird. Meist ist dieses Ereignis der Tod und die betrachtete Zeitspanne daher die Überlebenszeit.
  • Werden häufig in klinischen Studien verwendet, um zu zeigen, wie eine bestimmte Behandlung das Überleben beeinflussen bzw. verlängern kann.
  • Die Linie stellt den Anteil der Patienten dar, der zu einem bestimmten Zeitpunkt noch lebt (bzw. der einen bestimmten Endpunkt noch nicht erreicht habt). Dies wird auch als Überlebenswahrscheinlichkeit bezeichnet.
  • Beispiel: Die nachstehende Überlebenskurve zeigt, wie zwei verschiedene Gensignaturen das Überleben beeinflussen. Die Studie beginnt zum Zeitpunkt 0, wobei 100 % der beiden Gruppen noch leben. Jeder Abfall der Linie bedeutet, dass in der jeweiligen Gruppe Menschen versterben, wodurch der Prozentsatz der noch lebenden Menschen sinkt. Nach drei Jahren sind etwa 50 % der Menschen mit der Gen-A-Signatur noch am Leben, verglichen mit nur 5 %, die die Gen-B-Signatur aufweisen.
Beispiel für ein Kaplan-Meier-Diagramm

Beispiel eines Kaplan-Meier-Diagramms

Bild: “Ein Beispiel für ein Kaplan-Meier-Diagramm” von Rw251. Lizenz: CC0 1.0

Darstellung numerischer Variablen

Tabellen (z. B. Häufigkeitstabellen):

  • Einfachste Form der Datenvisualisierung
  • Die Daten werden in Spalten und Zeilen angezeigt.

Histogramme:

  • Gut geeignet, um die Häufigkeit der Ausprägung stetiger Merkmale darzustellen, z. B.:
    • Körpergewichte
    • Körpergrößen
    • Zeitspannen
  • Sind Balkendiagrammen ähnlich, aber nicht identisch (Balkendiagramme visualisieren qualitative Merkmale)
  • Ein Histogramm unterteilt die stetigen Daten in Intervalle bzw. Bereiche.
  • Die Höhe der einzelnen Balken gibt die Anzahl der Werte an, die in diesen Bereich fallen.
  • Da Histogramme die Häufigkeiten eines stetigen Merkmals darstellen, werden zwischen den Balken keine Lücken gelassen.
  • Beispiel: Das nachstehende Histogramm zeigt, wie viele Personen in einem zweiwöchigen Studienzeitraum Gewicht verloren oder zugenommen haben. In diesem Beispiel hat eine Person zwischen 2,5 und 3 kg abgenommen, 27 Personen haben zwischen 0 und 0,5 kg zugenommen, und sechs Personen haben zwischen 1 und 1,5 kg zugenommen.
Beispiel für ein Histogramm

Beispiel für ein Histogramm. Auf der x-Achse ist die Veränderung des Körpergewichts in kg und auf der y-Achse die absolute Häufigkeit der Personen mit der jeweiligen Körpergewichtsänderung aufgetragen.

Bild: “Example of a histogram” von Jkv. Lizenz: Public Domain

Häufigkeitspolygon:

  • In einem Häufigkeitspolygon (Polygon = “Vieleck”) werden die Häufigkeiten der einzelnen Datenpunkte (oder Bereiche in einem Histogramm) dargestellt und über eine Linie verbunden.
  • Gut geeignet, um die Form einer Verteilung zu verstehen
Beispiel für ein Häufigkeits-Polygondiagramm

Häufigkeitspolygon für die Gehälter von 31 Teams der National Football League (NFL)

Bild: “Example of a frequency polygon chart” von JLW87. Lizenz: Public Domain

Darstellung qualitativer Merkmale

Häufigkeitstabellen, Balkendiagramme/Histogramme und Kreisdiagramme sind drei der gängigsten Methoden zur Darstellung qualitativer Merkmale.

Häufigkeitstabellen:

  • Zeigen die Anzahl und/oder den Prozentsatz für jede Ausprägung eines Merkmals
  • Beispiel: Sie fahren an 100 verschiedenen Ampeln vor und beobachten, ob die Ampel bei Ihrer Ankunft rot, gelb oder grün war (vereinfachend gehen wir davon aus, dass alle Ampeln nur eine der drei Lichter zu jedem Zeitpunkt anzeigen kann).
Tabelle: Beispiel einer Häufigkeitstabelle
Farbe des Ampelsignals Häufigkeit
Rot 65
Gelb 5
Grün 30

Balkendiagramm:

  • Die Länge jedes Balkens repräsentiert die Anzahl oder Häufigkeit der jeweiligen Merkmalsausprägung im Datensatz; die Balken können vertikal oder horizontal dargestellt werden.
  • Beispiel: Dieses Balkendiagramm zeigt die Aufschlüsselung der Ethnizität in Texas im Jahr 2015.
Beispiel für ein Balkendiagramm

Beispiel für ein Balkendiagramm

Bild: “Balkendiagramm zu Rasse und ethnischer Zugehörigkeit in Texas” von Datawheel. Lizenz: CC0 1.0

Kreisdiagramme:

  • Zeigen die relativen Anteile verschiedener qualitativer Merkmale
  • Beispiel: Das folgende Kreisdiagramm zeigt die Ergebnisse der EU-Parlamentswahlen von 2004, wobei jede Farbe für eine politische Partei und den prozentualen Anteil der von ihr erhaltenen Stimmen steht.
Beispiel für ein Kreisdiagramm

Beispiel eines Kreisdiagramms

Bild: “A pie chart for the example data” von Liftarn. Lizenz: Public Domain

Quellen

  1. Brosteanu, O., Engel C., Forberg J., Gelbrich G., Hasenclever D., Hentschel B., Löffler M., Röder I., Schuster E., Wicklein B., Ziepert M. (2008). Methodensammlung zur Auswertung klinischer und epidemiologischer Daten. Skriptenheft für Medizinstudenten
  2. Weiß, C. (2013). Basiswissen Medizinische Statistik.
  3. Greenhalgh, T. (2014). How to Read a Paper: The Basics of Evidence-Based Medicine. Chichester, UK: Wiley.
  4. Cochran, W. G. (1952). The chi-square test of goodness of fit. Annals of Mathematical Statistics 23(3):315–345.
  5. Yates, F. (1934). Contingency table involving small numbers and the χ2 test. Supplement to the Journal of the Royal Statistical Society 1(2):217–235.
  6. Kale, A. (2009). Chapter 2 of Basics of Research Methodology. Essentials of Research Methodology and Dissertation Writing, 7–14.
  7. Till, Y., Matei, A. (n.d.). Basics of Sampling for Survey Research. SAGE Handbook of Survey Methodology, pp. 311–328.
  8. Shober, P. et al. (2018). Statistical significance versus clinical importance of observed effect sizes: what do p values and confidence intervals really represent? Anesthesia & Analgesia 126:1068–1072.
  9. Katz, D. L., et al. (Eds.), Jekel’s Epidemiology, Biostatistics, Preventive Medicine, and Public Health, pp. 105–118. https://search.library.uq.edu.au/primo-explore/fulldisplay?vid=61UQ&search_scope=61UQ_All&tab=61uq_all&docid=61UQ_ALMA2193525390003131&lang=en_US&context=L (Aufruf 8. Juli 2021)

Kostenloses eBook

Lerne erfolgreich im Medizinstudium 

Medizinisches Fachwissen leicht erklärt

Erfolgreiche Prüfungsvorbereitung mit Medizinkursen von lecturio.de

Du bist bereits registriert?  Login

Medizinisches Fachwissen leicht erklärt

Erfolgreiche Prüfungsvorbereitung mit Medizinkursen von lecturio.de

Du bist bereits registriert?  Login

eLearning Award 2023

Lecturio und die Exporo-Gruppe wurden für ihre digitale Compliance-Akademie mit dem eLearning Award 2023 ausgezeichnet.

eLearning Award 2019

Lecturio und die TÜV SÜD Akademie erhielten für den gemeinsam entwickelten Online-Kurs zur Vorbereitung auf den
Drohnenführerschein den eLearning Award 2019 in der Kategorie “Videotraining”.

Comenius-Award 2019

Comenius-Award 2019

Die Lecturio Business Flat erhielt 2019 das Comenius-EduMedia-Siegel, mit dem die Gesellschaft für Pädagogik, Information und Medien jährlich pädagogisch,  inhaltlich und gestalterisch
herausragende didaktische Multimediaprodukte auszeichnet.

IELA-Award 2022

Die International E-Learning Association, eine Gesellschaft für E-Learning Professionals und Begeisterte, verlieh der Lecturio Learning Cloud die Gold-Auszeichnung in der Kategorie “Learning Delivery Platform”.

Comenius-Award 2022

In der Kategorie “Lehr- und Lernmanagementsysteme” erhielt die Lecturio Learning Cloud die Comenius-EduMedia-Medaille. Verliehen wird der Preis von der Gesellschaft für Pädagogik, Information und Medien für pädagogisch, inhaltlich und gestalterisch herausragende Bildungsmedien.

B2B Award 2020/2021

Die Deutsche Gesellschaft für Verbraucherstudien (DtGV) hat Lecturio zum Branchen-Champion unter den deutschen Online-Kurs-Plattformen gekürt. Beim Kundenservice belegt Lecturio den 1. Platz, bei der Kundenzufriedenheit den 2. Platz.

B2B Award 2022

Für herausragende Kundenzufriedenheit wurde Lecturio von der Deutschen Gesellschaft für Verbraucherstudien (DtGV) mit dem deutschen B2B-Award 2022 ausgezeichnet.
In der Rubrik Kundenservice deutscher Online-Kurs-Plattformen belegt Lecturio zum zweiten Mal in Folge den 1. Platz.

Simon Veiser

Simon Veiser beschäftigt sich seit 2010 nicht nur theoretisch mit IT Service Management und ITIL, sondern auch als leidenschaftlicher Berater und Trainer. In unterschiedlichsten Projekten definierte, implementierte und optimierte er erfolgreiche IT Service Management Systeme. Dabei unterstützte er das organisatorische Change Management als zentralen Erfolgsfaktor in IT-Projekten. Simon Veiser ist ausgebildeter Trainer (CompTIA CTT+) und absolvierte die Zertifizierungen zum ITIL v3 Expert und ITIL 4 Managing Professional.

Dr. Frank Stummer

Dr. Frank Stummer ist Gründer und CEO der Digital Forensics GmbH und seit vielen Jahren insbesondere im Bereich der forensischen Netzwerkverkehrsanalyse tätig. Er ist Mitgründer mehrerer Unternehmen im Hochtechnologiebereich, u.a. der ipoque GmbH und der Adyton Systems AG, die beide von einem Konzern akquiriert wurden, sowie der Rhebo GmbH, einem Unternehmen für IT-Sicherheit und Netzwerküberwachung im Bereich Industrie 4.0 und IoT. Zuvor arbeitete er als Unternehmensberater für internationale Großkonzerne. Frank Stummer studierte Betriebswirtschaft an der TU Bergakademie Freiberg und promovierte am Fraunhofer Institut für System- und Innovationsforschung in Karlsruhe.

Sobair Barak

Sobair Barak hat einen Masterabschluss in Wirtschaftsingenieurwesen absolviert und hat sich anschließend an der Harvard Business School weitergebildet. Heute ist er in einer Management-Position tätig und hat bereits diverse berufliche Auszeichnungen erhalten. Es ist seine persönliche Mission, in seinen Kursen besonders praxisrelevantes Wissen zu vermitteln, welches im täglichen Arbeits- und Geschäftsalltag von Nutzen ist.

Wolfgang A. Erharter

Wolfgang A. Erharter ist Managementtrainer, Organisationsberater, Musiker und Buchautor. Er begleitet seit über 15 Jahren Unternehmen, Führungskräfte und Start-ups. Daneben hält er Vorträge auf Kongressen und Vorlesungen in MBA-Programmen. 2012 ist sein Buch „Kreativität gibt es nicht“ erschienen, in dem er mit gängigen Mythen aufräumt und seine „Logik des Schaffens“ darlegt. Seine Vorträge gestaltet er musikalisch mit seiner Geige.

Holger Wöltje

Holger Wöltje ist Diplom-Ingenieur (BA) für Informationstechnik und mehrfacher Bestseller-Autor. Seit 1996 hat er über 15.800 Anwendern in Seminaren und Work-shops geholfen, die moderne Technik produktiver einzusetzen. Seit 2001 ist Holger Wöltje selbstständiger Berater und Vortragsredner. Er unterstützt die Mitarbeiter von mittelständischen Firmen und Fortune-Global-500- sowie DAX-30-Unternehmen dabei, ihren Arbeitsstil zu optimieren und zeigt Outlook-, OneNote- und SharePoint-Nutzern, wie sie ihre Termine, Aufgaben und E-Mails in den Griff bekommen, alle wichtigen Infos immer elektronisch parat haben, im Team effektiv zusammenarbeiten, mit moderner Technik produktiver arbeiten und mehr Zeit für das Wesentliche gewinnen.

Frank Eilers

Frank Eilers ist Keynote Speaker zu den Zukunftsthemen Digitale Transformation, Künstliche Intelligenz und die Zukunft der Arbeit. Er betreibt seit mehreren Jahren den Podcast „Arbeitsphilosophen“ und übersetzt komplexe Zukunftsthemen für ein breites Publikum. Als ehemaliger Stand-up Comedian bringt Eilers eine ordentliche Portion Humor und Lockerheit mit. 2017 wurde er für seine Arbeit mit dem Coaching Award ausgezeichnet.

Yasmin Kardi

Yasmin Kardi ist zertifizierter Scrum Master, Product Owner und Agile Coach und berät neben ihrer Rolle als Product Owner Teams und das höhere Management zu den Themen agile Methoden, Design Thinking, OKR, Scrum, hybrides Projektmanagement und Change Management.. Zu ihrer Kernkompetenz gehört es u.a. internationale Projekte auszusteuern, die sich vor allem auf Produkt-, Business Model Innovation und dem Aufbau von Sales-Strategien fokussieren.

Leon Chaudhari

Leon Chaudhari ist ein gefragter Marketingexperte, Inhaber mehrerer Unternehmen im Kreativ- und E-Learning-Bereich und Trainer für Marketingagenturen, KMUs und Personal Brands. Er unterstützt seine Kunden vor allem in den Bereichen digitales Marketing, Unternehmensgründung, Kundenakquise, Automatisierung und Chat Bot Programmierung. Seit nun bereits sechs Jahren unterrichtet er online und gründete im Jahr 2017 die „MyTeachingHero“ Akademie.

Andreas Ellenberger

Als akkreditierter Trainer für PRINCE2® und weitere international anerkannte Methoden im Projekt- und Portfoliomanagement gibt Andreas Ellenberger seit Jahren sein Methodenwissen mit viel Bezug zur praktischen Umsetzung weiter. In seinen Präsenztrainings geht er konkret auf die Situation der Teilnehmer ein und erarbeitet gemeinsam Lösungsansätze für die eigene Praxis auf Basis der Theorie, um Nachhaltigkeit zu erreichen. Da ihm dies am Herzen liegt, steht er für Telefoncoachings und Prüfungen einzelner Unterlagen bzgl. der Anwendung gern zur Verfügung.

Zach Davis

Zach Davis ist studierter Betriebswirt und Experte für Zeitintelligenz und Zukunftsfähigkeit. Als Unternehmens-Coach hat er einen tiefen Einblick in über 80 verschiedene Branchen erhalten. Er wurde 2011 als Vortragsredner des Jahres ausgezeichnet und ist bis heute als Speaker gefragt. Außerdem ist Zach Davis Autor von acht Büchern und Gründer des Trainingsinstituts Peoplebuilding.

Wladislav Jachtchenko

Wladislaw Jachtchenko ist mehrfach ausgezeichneter Experte, TOP-Speaker in Europa und gefragter Business Coach. Er hält Vorträge, trainiert und coacht seit 2007 Politiker, Führungskräfte und Mitarbeiter namhafter Unternehmen wie Allianz, BMW, Pro7, Westwing, 3M und viele andere – sowohl offline in Präsenztrainings als auch online in seiner Argumentorik Online-Akademie mit bereits über 52.000 Teilnehmern. Er vermittelt seinen Kunden nicht nur Tools professioneller Rhetorik, sondern auch effektive Überzeugungstechniken, Methoden für erfolgreiches Verhandeln, professionelles Konfliktmanagement und Techniken für effektives Leadership.

Alexander Plath

Alexander Plath ist seit über 30 Jahren im Verkauf und Vertrieb aktiv und hat in dieser Zeit alle Stationen vom Verkäufer bis zum Direktor Vertrieb Ausland und Mediensprecher eines multinationalen Unternehmens durchlaufen. Seit mehr als 20 Jahren coacht er Führungskräfte und Verkäufer*innen und ist ein gefragter Trainer und Referent im In- und Ausland, der vor allem mit hoher Praxisnähe, Humor und Begeisterung überzeugt.

Details