Grundlagen und Methoden der Forschung

Die meisten medizinischen Erkenntnisse beruhen auf Forschung. Sie stellt eine wichtige Basis für fachlichen Entscheidungen des medizinischen Alltags dar. Am Anfang jedes Forschungsprojekts steht eine Hypothese. Anschließend muss überlegt werden, wie genau der Gegenstand der Hypothese messbar gemacht werden kann (Operationalisierung). Es schließen sich Planungen bezüglich der Untersuchungskriterien und der Durchführung an. Ein geeignetes Studiendesign muss gewählt werden und um die eine gewissen Qualität zu versichern, müssen Gütekriterien berücksichtigt werden. Anschließend erfolgt die konkrete Datenerhebung, für die abhängig von der Fragestellung unterschiedlich geeignete Methoden ausgewählt werden können. Nach Erhebung der Daten schließt sich ihre Auswertung an. Da in der medizinischen Forschung häufig mit Stichproben gearbeitet wird, wird versucht, final generalisierte Aussagen aus den Ergebnissen ableiten zu können.

Aktualisiert: 28.03.2023

Redaktionelle Verantwortung: Stanley Oiseth, Lindsay Jones, Evelin Maza

Mit Video-Repetitorien von Lecturio kommst du sicher
durch Physikum, M2 und M3.

Philosophie-Exkurs: Wissenschaftstheorie nach Karl Popper

Der österreichische Philosoph Karl Popper (1902–1994) entwickelte die Wissenschaftstheorie des Kritischen Rationalismus. Seine Antwort auf die Frage nach den Grenzen der empirischen Forschung heißt Falsifikation. Falsifizierbarkeit soll empirische von nicht empirischen Aussagen abgrenzen.

Eine empirische Theorie muss demnach mindestens einen Beobachtungssatz enthalten, der logisch zu einem Widerspruch führen kann. (Eines der wichtigsten Merkmale einer wissenschaftlichen Hypothese ist die Falsifizierbarkeit).

Beispiel:

  • „Morgen gibt es Schnee.“ → falsifizierbar
  • „Morgen gibt es Schnee oder es schneit nicht.“ → nicht falsifizierbar, sondern tautologisch (aus logischen Gründen immer wahr)

Wissenschaft beginnt nie mit Beobachtung (induktiv), sondern immer mit Vermutungen (deduktiv).

Popper: Beobachtungen können zwar nie die Wahrheit wissenschaftlicher Hypothesen begründen (Verifikation), wohl aber ihre Falschheit (Falsifikation).

Beispiel: Die Beobachtung eines schwarzen Schwans falsifiziert die Hypothese ein für alle Mal, dass alle Schwäne weiß sind.

Ablauf einer wissenschaftlichen Untersuchung

  • Hypothesenbildung: Fragestellung und Hypothese
  • Operationalisierung: beschreibt die „Messbarmachung“, um ein theoretisches Konstrukt messbar zu machen
  • Untersuchungskriterien: Gütekriterien eines psychologischen Tests (Objektivität, Reliabilität, Validität)
  • Untersuchungsplanung: genaue Planung von Art der Untersuchung und deren Ablauf
  • Methoden der Datengewinnung: psychologische Tests, Interviews, systematische Beobachtungen, registrieren psychophysiologischer Prozesse
  • Datenauswertung: Auswertung mithilfe von statistischen Tests
  • Ergebnisbewertung: Wiederholungen → Generalisierbarkeit muss gegeben sein.

Hypothesen- und Theoriebildung

Werden im Alltag die Begriffe Hypothese und Theorie oft synonym gebraucht, macht die Wissenschaft signifikante Unterschiede.

Hypothesen sind vorläufige Antworten auf Forschungsfragen, also wissenschaftliche Annahmen über den Zusammenhang von Variablen, die empirisch geprüft werden können. Beim induktiven Vorgehen werden aus einzelnen Beobachtungen allgemeine Aussagen abgeleitet. Werden Hypothesen hinreichend gesichert und bilden ein System, ist dies eine Theorie.

Eine Theorie gründet sich auf Hypothesen (induktives Vorgehen) und ist Grundlage für die Ableitung von Hypothesen (deduktives Vorgehen).

Klinik-Ausflug: Ärzt*innen stellen in der praktischen Arbeit jeden Tag Hypothesen (Verdachtsdiagnosen) auf. Sie versuchen mittels diagnostischer Methoden und/oder Beobachtung der Wirkung von Therapien diese Hypothese zu sichern oder durch neue Informationen neue Hypothesen aufzustellen oder zu modifizieren.

Wichtige Merkmale wissenschaftlicher Hypothesen (nach Bortz & Döring, 2005):

  1. Empirische Untersuchbarkeit: Wissenschaftliche Hypothesen müssen reale Sachverhalte beinhalten, die empirisch untersuchbar sind.
  2. Konditionalsatzformulierung: Wissenschaftlichen Hypothesen müssen zumindest implizit die Form eines sinnvollen Wenn-Dann-Satzes oder eines Je-Desto-Satzes zugrunde liegen.
  3. Generalisierbarkeit und Allgemeinheitsgrad: Wissenschaftliche Hypothesen müssen Aussagen über den Einzelfall oder ein singuläres Ereignis hinaus machen.
  4. Falsifizierbarkeit: Wissenschaftliche Hypothesen müssen widerlegbar (falsifizierbar) sein und nicht so formuliert, dass sie immer gelten können (Tautologien).

Hypothesenformen:

  • Probabilistische Hypothesen: Sie stellen die häufigsten Hypothesen in der psychologischen Forschung dar. Es handelt sich um Annahmen über Wahrscheinlichkeiten, mit denen ein Sachverhalt unter bestimmten Bedingungen eintritt. Sie enthalten Aussagen über Korrelationen und Durchschnitte, mit denen die Gesamtheit von Ereignissen gekennzeichnet ist. Beispiel: Rauchen ist ein Risikofaktor für Herz-Kreislauf-Erkrankungen.
  • Deterministische Hypothesen: Diese Hypothesen gelten zeitlich und räumlich unbegrenzt. Sie stellen absolute Tatsachenbehauptungen dar. Beispiel: Wenn ich auf der Erde einen Gegenstand fallen lasse, fällt er nach unten.
  • Unterschiedshypothesen: Sie werden durch einen Häufigkeits- bzw. Mittelwertvergleich geprüft und behaupten einen Unterschied zwischen mindestens zwei Populationen in Bezug auf eine Variable. Beispiel: Raucher*innen haben ein höheres Lungenkrebsrisiko als Nichtraucher*innen.
  • Zusammenhanghypothesen: Hier wird der Zusammenhang zwischen mindestens zwei Variablen behauptet. Beispiel: Die Ernährung steht mit der Schuldbildung in Zusammenhang.
  • Nullhypothese (H0) und Alternativhypothese (H1): Die Alternativhypothese möchte von Forscher*innen belegt werden. Die entgegengesetzte Hypothese, die Nullhypothese, wird aufgestellt. Die Formulierung dieser Nullhypothese stellt das Prinzip der Falsifikation dar.

Alpha-Fehler und Beta-Fehler

Diese zwei Arten von Fehlern gibt es:

  • Alpha-Fehler (Fehler 1. Art): H0 wird verworfen, obwohl diese Hypothese richtig war.
  • Beta-Fehler (Fehler 2. Art): H1 wird verworfen, obwohl diese Hypothese richtig war.

Konstrukt und Operationalisierung: messbares theoretische Konstrukt

Die Herzfrequenz Herzfrequenz Herzphysiologie zu messen ist sehr viel einfacher als das Denken oder unsere Gefühle zu ermitteln. Durch eine Operationalisierung sollen nicht direkt beobachtbare Phänomene für die Messung zugänglich gemacht werden. Um Konstrukte zu untersuchen, braucht man Variablen.

Variablen sind Eigenschaftsbenennungen der zu untersuchenden Merkmale (z. B.: männlich-weiblich). Das Gegenteil der Variable ist die Konstante.

Skalierung und Indexbildung

Skalen sind Bezugssysteme für die Messung der Ausprägung von Merkmalen (qualitativ „entweder- oder“ oder quantitativ „Abstufungen“). 

Tabelle: Wichtige Begriffe zu Skalen
Begriff Beschreibung Beispiel
Rangordnung Personen werden in Bezug auf das Merkmal in eine hierarchische Reihenfolge gebracht. Rangfolge bei einem Wettkampf
Paarvergleich Eine Aufforderung, Paarkombinationen zu vergleichen Brillengläservergleich
Rating-Skala Abstufung zwischen den Extrempolen Zufriedenheitsskala (sehr zufrieden bis total unzufrieden mit)
Likert-Skala Ratingskala mit meist 5 Stufen, der Gesmattestwert wird am Schluss addiert. Angstskalen
Polaritätsprofil Messung der Assoziationen von Gegenstandspaaren Erfassung von Stereotypen und Einstellungen (z. B. zu Homosexualität Homosexualität Sexualphysiologie)
Visuelle Analogskalen Liker-Skalen mit einem Kontinuum statt Polen und Abstufungen dazwischen Schmerzskalen
Guttman-Skala Aussagen sind in einer bestimmten Reihenfolge angeordnet (von „normal“ zu „extrem“). Wird eine Aussage bejaht, werden normalerweise alle vorher stehenden Aussagen auch bejaht. Trifft dies ein, ist die Guttman-Skala „perfekt“. Angaben des Gewichts: > 60 kg, > 70 kg, > 80 kg usw.

Skalenniveau

In der Psychologie werden vier verschiedene Skalenniveaus unterschieden. Die Skalen sind ineinander überführbar, jedoch nur von oben nach unten. So abstrakt das alles am Anfang klingen mag, begegnen die verschiedenen Skalen oft im medizinischen Alltag.

  • Nominalskala: niedrigstes Skalenniveau (nur Aussagen zur Gleichheit oder Ungleichheit)
  • Ordinalskala: Objekte werden in eine Rangreihenfolge ohne feste Abstände gebracht, können auch den gleichen Rangplatz einnehmen.
  • Intervallskala: Es bestehen zusätzlich gleiche Abstände zwischen den Rangplätzen und der Nullpunkt kann festgelegt werden.
  • Verhältnisskala (Rationalskala): 
    • Höchstes Skalenniveau (Aussagen über die Gleichheit/Ungleichheit von Summen, Quotienten, etc. können getroffen werden.
    • Die Berechnung des geometrischen Mittels ist möglich.
Tabelle: Vier-Felder-Tafel
Krank (positiv) Gesund (negativ) Statistiche Maße
Positives Testergebnis Ergebnis richtig positiv (A) Ergebnis falsch positiv (B) Positiv prädiktiver Wert = A/(A+B)
Negatives Testergebnis Ergebnis falsch negativ (C) Ergebnis richtig negativ (D) Negativ prädiktiver Wert = D/(C+D)
Statistische Maße Sensitivität = A/(A+C) Spezifität = D/(B+D)

Untersuchungskriterien

Testnormierung

Für die Beurteilung, ob ein Test über-, unter- oder durchschnittlich ausgefallen ist, benötigt man den Mittelwert und die Standardabweichung einer Vergleichspopulation (Normstichprobe). Diese Eichung sollte an einer möglichst großen Stichprobe unter standardisierten Bedingungen durchgeführt werden.

Die mittlere Testleistung der Referenzgruppe ergibt die Norm. Der durchschnittlich erzielte Wert ist der Mittelwert. Das Maß für die Streuung der Testwerte die Standardabweichung.

Testtheoretische Gütekriterien: Objektivität, Reliabilität und Validität

Die drei wichtigsten Testgütekriterien Objektivität, Reliabilität und Validität bauen aufeinander auf, das heißt, ohne Objektivität gibt es keine Reliabilität und ohne Reliabilität keine Validität.

Objektivität

Die subjektiven Einflüsse durch den Testleiter sollen durch eine Standardisierung und geringen Spielraum bei der Auswertung minimiert werden. Der Korrelationskoeffizient gibt an, wie abhängig das Versuchsergebnis vom Versuchsleiter ist.

Beispiel: Bei schriftlichen Fragen und Computer-Auswertung wie im schriftlichen Physikum haben die Testleiter*innen keinen Einfluss auf das Testergebnis. Bedeutend subjektiver ist dagegen die mündliche Prüfung.

Reliabilität

Ein Test ist dann als präzise einzustufen, wenn unter denselben Bedingungen bei derselben Person das identische oder sehr ähnliche Ergebnis herauskommt. Folgende Möglichkeiten gibt es, um die Reliabilität eines Tests zu prüfen:

  • Retest-Reliabilität: Der gleiche Test wird beim gleichen Probanden wiederholt angewendet.
  • Parallel-Reliabilität: Es wird nicht der gleiche Test wiederholt, sondern parallele Formen um Erinnerungseffekte zu vermeiden.
  • Konsistenzanalyse: Der Test wird nur einmalig durchgeführt. Wird der Test in zwei Hälften geteilt und das Ergebnis miteinander verglichen, heißt das Split-Half-Reliabilität. Wird jede einzelne Testaufgabe in Beziehung zu allen Übrigen gesetzt, wird dies innerer Konsistenz genannt.

Eine absolute Messgenauigkeit bei psychologischen Tests ist nicht zu erreichen (Standardmessfehler durch die mangelnde Reliabilität). Es werden zwei Größen berücksichtigt.

  1. Relationskoeffizient: Maß für die Messgenauigkeit
  2. Standardabweichung: Maß für die Streuung der Testwerte

Konfidenzintervall: Testwert von Proband*in +/- Standardmessfehler = wahrer Wert Proband*in (meist 95 %)

Merke: Die Reliabilität eines Tests ist umso besser, je geringer der Standardmessfehler und je enger das Konfidenzintervall ist.

Validität

  1. Interne Validierung: Der Test wird für sich genommen betrachtet (intern). Die Veränderung der abhängigen Variable ist eindeutig auf die Variation der unabhängigen Variable zurückzuführen. Die Ergebnisse sprechen entweder eindeutig für oder gegen die Hypothese.
  2. Externe Validierung: Hier werden äußere Objekte herangezogen. Die Untersuchungsergebnisse können verallgemeinert und auf andere Situationen/Populationen bezogen werden. Es wird von diskriminierender Validität gesprochen, wenn signifikante Unterschiede zwischen den Personengruppen gemacht werden können. Eine prognostische Validität besitzt eine Untersuchung, wenn anhand eines Tests Voraussagen gemacht werden können.

Merke: Die gängigste Form der externen Validierung ist die Korrelation mit anderen Tests. Die Ergebnisse eines neuen Tests werden mit denen eines etablierten Tests (gleiches zu messendes Merkmal) in derselben Personengruppe verglichen.

Gütekriterien: Sensitivität, Spezifität und Prädiktionswerte

Mithilfe eines psychologischen Tests könenn Individeen einer Merkmalsklasse zugeordnen werden (z. B. Patient*innen mit Depression, ADHS ADHS Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom (ADHS) o. ä.). Um eine medizinische Diagnose zu stellen, werden bestimmte Tests gemacht und anhand der Ergebnisse und dem eigenen Expert*innenurteil eine diagnostische Entscheidung gestellt.

Das Fehler-Risiko einer solchen Entscheidung ist hoch. Um eine solche Entscheidungstheorie zu beurteilen, kommen die Sensitivität, Spezifität und Prädiktionswert in Spiel. So werden diagnostische Vorgehensweisen hinsichtlich ihres Nutzens beurteilt.

Nachweisverfahren

Die Güte und der Nutzen eines Tests werden folgendermaßen geprüft: Eine große Stichprobe mit einer positiven und einer negativen Klasse wird einem Nachweisverfahren unterzogen und damit die Richtigkeit der Klassifikation überprüft, z. B. wird der Anti-Körper-HIV-Test mittels des aufwendigeren teureren Western-Blots überprüft.

Achtung: Eine negative Diagnose bezeichnet meist einen gesunden Zustand, eine positive Diagnose das Vorhandensein eines kritischen Merkmals, also einen Krankheitszustand.

  • Sensitivität: Die Sensitivität gibt an, wie viele Personen tatsächlich krank sind, die ein Test (z. B. Brustkrebsscreening) als positiv identifiziert.
  • Spezifität: Die Spezifität gibt an, wie viele Personen gesund sind, die ein Test als negativ identifiziert hat.
  • Positiver Prädiktionswert: Die Wahrscheinlichkeit, mit welcher Personen mit positivem Testergebnis auch tatsächlich krank sind.
  • Negativer Prädiktionswert: Wahrscheinlichkeit, mit welcher Personen mit einem negativen Testergebnis auch tatsächlich gesund sind.

Mit dem Vier-Felder-Schema der Entscheidungsmöglichkeiten lassen sich die Kennwerte leicht berechnen:

Tabelle: Vier-Felder-Schema
Tatsächlicher Zustand
Diagnose Positiv (krank) Negativ (gesund) insgesamt
Positiv (krank) Entscheidung richtig positiv A Entscheidung falsch positiv B Positiver Prädikationswert A/(A+B)
Negativ (gesund) Entscheidung falsch negativ C Entscheidung richtig negativ D Negativer Prädikationswert D/(C+D)
insgesamt Sensitivität A/(A+C) Spezifität D/(B+D)

Untersuchungsplanung

Um eine wissenschaftliche Untersuchung durchführen zu können, wird ein Studiendesign erstellt oder gefolgt, welches alle Angaben zur Forschungsplanung enthält.

In einem Experiment wird erfasst, wie sich eine Situation aufgrund von geplanter Beeinflussung verändert. Die Ursache-Wirkungs-Beziehungen werden aufgedeckt. Meist werden Variablen verwendet. Es werden unabhängige und abhängige Variablen unterschieden:

  • Unabhängige Variablen (UV): Einflussbedingungen, die manipulierbar sind
  • Abhängige Variablen (AV): Gegenstand der Untersuchung, des Forschungsinteresses

Studienformen

  • Querschnittstudie: Untersuchung einer Bevölkerungsstichprobe zu einem gewissen (einmaligen) Zeitpunkt
  • Längsschnittstudie:
    • Kohortenstudie: Eine Kohorte (Bevölkerungsgruppe abgrenzender Kriterien wie Geburtszeitpunkt oder Krankheitseintritt) wird prospektiv oder retrospektiv über einen längeren Zeitraum beobachtet.
    • Panel-Studie: Die gleichen Personen werden in bestimmten Abständen über einen längeren Zeitraum untersucht.
  • Fall-Kontroll-Studie: Vergleich der zu untersuchenden Patient*innengruppe mit der gesunden Patient*innengruppe
  • Evaluationsstudie: Eine Maßnahme wird bewertet (z. B. die medizinische Lehre an Ihrer Fakultät).
  • Randomisierte Studie: Es findet eine zufällige Zuordnung der Probandinnen zu den Bedingungen der Untersuchung statt (englisch random: zufällig, wahllos, regellos).
  • Ex-post-facto-Studie: Die Daten liegen bereits vor und nachträglich soll eine Erklärung gefunden werden (meist durch Befragungen).
  • Einzelfallstudie: Einzelfälle werden analysiert (sehr geringer wissenschaftlicher Wert, keine Generalisierung möglich).

Stichproben

Unter Stichprobe wird eine ausgewählte Teilmenge einer Grundgesamtheit, die nach bestimmten Kriterien stattfindet, verstanden.

Der Stichprobenfehler bezeichnet die Abweichung des gezeigten Werts einer Stichprobe von der Grundgesamtheit, da eine Stichprobe fast nie exakt die Population repräsentiert, aus der sie stammt. Möglichst minimiert werden kann der Stichprobenfehler durch eine möglichst große Stichprobe und geringe Varianz der Verteilung.

Unterarten von Stichproben:

  • Zufallsstichprobe: Ein Element wird zufällig aus der Grundgesamtheit ausgewählt. Wird die Grundgesamtheit vorher in Untergruppen aufgeteilt, heißt das stratifizierte Zufallsauswahl.
  • Quotastichprobe: „Miniaturauswahl“ der Grundgesamtheit nach bestimmten Merkmalen (z. B. prozentuale Altersstaffelung, Geschlecht).
  • Klumpenauswahl (englisch cluster sample): Gruppen werden in Klumpen zusammengefasst (z. B. Straße, Stadtteile, Regionen).
  • Extremgruppe: Proband*innen mit Persönlichkeitsmerkmalen größer als zwei Standardabweichungen
  • Exponierte Gruppe: Proband*innen unter bestimmten Bedingungen (z. B. Arbeitslosigkeit)

Methoden der Datenerhebung

Vier verschiedene Arten, um Daten zu gewinnen:

  • Verhaltensbeobachtungen
  • Interviews
  • Psychologische Tests
  • Erfassung psychophysiologischer Prozesse

Datenarten

  • Individualdaten: spezifisch, einzeln erhoben
  • Aggregatdaten: Zusammenfassung von Individualdaten
  • Primärdaten: Rohdaten, Urdaten, unmittelbar erhobene Daten
  • Sekundärdaten: Modellierte verarbeitete Primärdaten (ursprünglich für anderen Zweck erhoben)
  • Selbstbeurteilung: Person unter Beurteilung macht selbst persönliche Angaben
  • Fremdbeurteilung: Person unter Beurteilung wird durch andere beurteilt

Verhaltensbeobachtung

Die systematische Beobachtung hat den großen Vorteil, dass die Beobachtung weitestgehend frei von Beobachter*inen und deren Interpretation ist. Die Systematisierung wird durch genau festgelegte Kriterien (Ort, Zeit, Protokollbogen, etc.) erstellt.

Bei der teilnehmenden Beobachtung werden Beobachter*innen in das zu beobachtende Geschehen integriert. Ein häufiges Problem hierbei ist das zeitgleiche Teilnehmen und Protokollieren. Die nicht teilnehmende Beobachtung erfordert „nur“ Beobachten und Protokollieren, was auch durch entsprechende Medien erfasst werden kann (z. B. Videokamera).

Verschiedene Formen der Verhaltensbeobachtung:

  • Selbstbeobachtung: gleichzeitig oder rückblickend
  • Frembeobachtung:
    • Systematisch oder unsystematisch
    • Teilnehmend oder nicht teilnehmend

Interview

Das Interview soll v. a. zielgerichtet Informationen zu z. B. Symptomen eines Krankheitsbildes erfragen. Die Befragung erfolgt persönlich, schriftlich oder telefonisch.

Quantitative Interviews sind sehr stark standardisiert. Sie sind in verschiedene Standardisierungsgrade unterteilt.

  • Vollstandardisiert: Frageinhalte, Reihenfolge und exakter Wortlaut der Fragen sind genau festgelegt. Es handelt sich um ein direktives Interview, da Interviewer*innen die Befragung maximal lenken.
  • Unstandardisiert: Im Gegensatz zum vollstandardisierten Interview ist bis auf das Gesprächsthema nichts vorgegeben. Das Vorgehen wird als nondirektiv bezeichnet.
  • Teilstandardisiert: Diese Art von Interviews ist eine Mischung aus beiden. Themengebiete, die abzufragen sind, werden vorgegeben. Die Interviewer*innen haben jedoch Spielraum, welche Themen sie situativ vertiefen.

Qualitative Interviews gehören den hermeneutischen Verfahren an. Die individuelle Sichtweise der Befragten steht hierbei im Vordergrund.

  • Biografisch
  • Ethnografisch: Erfassung kulturspezifischer Besonderheiten
  • Narrativ: Befragte sollen zum Gegenstand des Interesses erzählen.
  • Tiefeninterview: Psychoanalyseverfahren

Fragearten

  • Offene Fragen: Bei offenen Fragen stehen den Befragten ein breites Spektrum der Beantwortung zu. Das Anamnesegespräch beginnt meist mit offenen Fragen und führt dann hin zu geschlossenen, gezielteren Fragen. Beispiel:
    • Was führt Sie zu mir?
    • Wie fühlen Sie sich heute?
  • Geschlossene Fragen: Hier werden die Antwortmöglichkeiten durch die Fragestellenden eingegrenzt. Zu den geschlossenen Fragen gehören auch dichotome Fragen (zwei Antwortmöglichkeiten) und Katalogfragen (mehr als zwei Antwortmöglichkeiten). Beispiel:
    • Wo genau verspüren Sie den Schmerz?
    • Welchen Beruf haben Sie vor der Berentung ausgeübt?
    • Dichotom:
      • Haben Sie die Schmerzen mehr im Knie- oder im Wadenbereich?
      • Haben Sie diese Nacht besser geschlafen als in der Nacht zuvor?
    • Katalogfragen
      • Ist Ihr Kopfschmerz ziehend, pulsierend oder reißend?
      • Müssen Sie gehäuft morgens, mittags oder abends auf die Toilette zum Wasserlassen?
  • Suggestivfragen: Suggestivfragen lenken Befragte in eine bestimmte Richtung und können so die Aussage verfälschen. Die Befragten können sich gedrängt fühlen, „passend“ zu antworten. Beispiel:
    • Sie haben sicherlich Ihren Alkoholkonsum nun eingeschränkt, nachdem Ihre Leberwerte letztes Mal so erhöht waren?
    • Wollen Sie sich wirklich gegen ärztlichen Rat gegen diese OP entscheiden?
  • Praxis-Tipp: Besonders im Anamnesegespräch ist es wichtig, offene UND geschlossene Fragen zu verwenden. Ärzt*innen neigen leider dazu, zu viele Suggestivfragen zu stellen, die besser vermieden werden sollten.

Psychologische Testverfahren

Leistungstests

Leistungstests werden in Speedtests (gleichbleibende Aufgabenschwierigkeit bei begrenzter Zeit) und Powertests (sich steigernde Aufgabenschwierigkeit bei gleichbleibender Bearbeitungszeit) unterteilt. Beispiele:

  • Intelligenztest (z. B. Hamburg-Wechsler-Intelligenztest (HAWIE), Intelligenzstrukturtest 2000 (IST 2000))
  • Schultests
  • Eignungstests
  • Konzentrationstests (z. B. Aufmerksamkeits-Belastungstest d2)

Objektive Persönlichkeitstests

  • Freiburger Persönlichkeits-Inventar (FPI-R): 138 Fragestellungen werden mit „stimmt“ oder „stimmt nicht“ beantwortet. 10–30 min Bearbeitungszeit. Beispiele:
    • Ich grüble viel über mein Leben nach (Neurotizismus): Ja/Nein
    • Ich bin ungern mit noch unbekannten Menschen zusammen (Gehemmtheit): Ja/Nein
  • 16-Persönlichkeitsfaktoren-Test (16 PF): 16 Persönlichkeitsfaktoren mit je 12 Items werden gemessen. Gegeben sind jeweils 3 Alternativen. 30–45 min Bearbeitungszeit. Beispiele:
    • Ich werde verlegen, wenn ich plötzlich zum Mittelpunkt in einer Gesellschaft werde. Ja/Dazwischen/Nein
    • Ein ruhiger Abend sagt mir mehr zu als eine lebhafte Feier. Stimmt/Unsicher/Stimmt nicht
  • Minnesota-Multiphasic-Personality-Inventory (MMPI): Psychopathologische Symptome werden durch 556 Items erfasst. Die Skalen umfassen z. B. Depression, Hypochondrie und Schizophrenie Schizophrenie Schizophrenie. 30–40 min Bearbeitungszeit. Beispiele:
    • Mit meinem Kopf stimmt etwas nicht. ( Schizophrenie Schizophrenie Schizophrenie): Ja/Nein
    • Ich wünschte, ich könnte so glücklich sein wie andere Leute. (Depression): Ja/Nein
  • Neo-Fünf-Faktoren-Inventar (Neo-FFI): Fünf Persönlichkeitsmerkmale (Big Five: Neurotizismus, Extraversion, Offenheit für Erfahrungen, Verträglichkeit und Gewissenhaftigkeit) werden durch je 12 Items erfasst. 10 min Bearbeitungszeit. Beispiele:
    • Ich versuche, zu jedem freundlich zu sein. 1 (Starke Ablehnung) – 2 – 3 – 4 – 5 (Starke Zustimmung)
    • Ich halte meine Sachen immer ordentlich und sauber. 1 (Starke Ablehnung) – 2 – 3 – 4 – 5 (Starke Zustimmung)

Projektive Tests

Hier wird psychoanalytisch der Abwehrmechanismus Projektion genutzt. Projektive Tests messen nicht anhand der Aussage von Proband*innen, sondern die „wahren“, wahrscheinlich verdeckten Wünsche werden in das Testmaterial hineininterpretiert. Der Kritikpunkt bei dieser Art von Test ist die fehlende Auswertungsobjektivität.

  • Rorschach-Verfahren: Die Assoziationen der Proband*innen zu verschiedenen Tintenklecksbildern werden gedeutet.
  • Thematischer Apperzeptionstest: Die Proband*innen schreiben Geschichten zu Bildern, auf die eine Inhaltsanalyse folgt.
  • Baum-Test: Proband*innen sollen einen Baum zeichnen. Die Interpretation erfolgt nach bestimmten Kriterien (Beschaffenheit von Wurzeln, Ästen, Stamm, etc.)

Klinische Tests

  • Short-Form-36-Health Survey (SF-36): krankheitsübergreifende Erfassung von gesundheitsbezogener Lebensqualität.
  • Giessener Beschwerdebogen: Erfassung von körperlichen Beschwerden
  • Becks Depressionsfragebogen (BDI): Erfassung von Symptomen einer Depression

Datenauswertung und Dateninterpretation

Bei qualitativen Daten handelt es sich um nicht numerische Daten, z. B. aus Interviews. Quantitative Daten werden aus Skalen oder Kategoriesystemen übernommen.

Qualitative Auswertungsverfahren

Qualitative Auswertungsverfahren sind wenig generalisierbar. Die Analyseformen konzentrieren sich auf die inhaltliche Erfassung von individuellen Fragestellungen.

  • Inhaltsanalyse: Auswertung von Kommunikationsmaterial (Videos, Tonbänder)
  • Dokumentenanalyse: Form der Inhaltsanalyse
  • Soziometrie: Aussagen von Einstellungen von Personen zueinander
  • Tiefeninterviews
  • Gruppendiskussionen

Quantitative Auswertungsverfahren

Die Einteilung quantitativer Auswertungsverfahren erfolgt in univariate, bivariate und multivariate Analysen.

Die Univariate Analyse (Analyse eines Merkmals)

  • Häufigkeiten:
    • Absolute Häufigkeiten: z. B. Wie viele Menschen leiden an Parodontose?
    • Relative Häufigkeiten: z. B. Anteil der Frauen* und Männer mit Depression*
    • Kumulative Häufigkeiten: Sukzessiv summierte Kategoriehäufigkeiten, z.B. welcher Prozentsatz hat das Abitur mit sehr gut, gut, befriedigend, usw. abgeschlossen?
  • Mittelwertsmaß:
    • Mittelwert: Summe aller Messwerte geteilt durch deren Anzahl
    • Median: Lineare Aufteilung in zwei gleich große Hälften (50 % darüber, 50 % darunter)
    • Modus (Modalwert): Häufigster Wert einer Verteilung (Gipfel)
  • Streuungsmaße:
    • Varianz (s2): Quotient aus der Summe der quadrierten Abweichungen aller Messwerte und der Anzahl der Messwerte
    • Standardabweichung (s): Wurzel aus der Varianz (Die Standardabweichung lässt Aussagen über die Heterogenität und Homogenität zu.)
  • Die Normalverteilung wird durch 5 Kriterien gekennzeichnet:
    • Der Verlauf der Verteilung hat die Form einer Glocke (Standardnormalverteilung in Form der „Gaußschen Glocke“).
    • Die Verteilung ist symmetrisch.
    • Modalwert, Median und arithmetisches Mittel fallen zusammen.
    • Die Verteilung nähert sich asymptotisch der x-Achse.
    • Zwischen den zu den Wendepunkten gehörenden x-Werten befinden sich zwei Drittel der Gesamtfläche.

Die Bivariaten Analysen (Analyse von zwei korrelierten Merkmalen)

  • Die Korrelation bezeichnet ein statistisches Verfahren, um die Zusammenhänge zu prüfen.
  • Die Stärke dieses statistischen Zusammenhangs wird Korrelationskoeffizient r genannt. Der Korrelationskoeffizient trifft keine Aussagen über kausale Beziehungen.
  • r = 0: kein Zusammenhang
  • r = 1: linearer Zusammenhang zwischen den Merkmalen
  • r = -1: umgekehrt linearer Zusammenhang

Die Multivariaten Analysen (Analyse von mehreren korrelierten Merkmalen)

  • Multiple Regression und Pfadanalyse
  • Diskriminierungsanalyse
  • Faktorenanalyse
  • Multidimensionale Skalierung
  • Clusteranalyse

Ergebnisbewertung: Replizierbarkeit und Generalisierbarkeit

Replizierbarkeit und Generalisierbarkeit sind die Kriterien, die erfüllt sein müssen. Als replizierbar gelten Ergebnisse dann, wenn wiederholt die gleichen Effekte nachgewiesen werden und daraus Gesetzmäßigkeiten abgeleitet werden können.

Wenn diese Gesetzmäßigkeiten auftreten und nicht nur mehr auf bestimmte Proband*innengruppen in spezifischen Situationen zutreffen, dann tritt auch eine Generalisierbarkeit ein. Ob Forschungsvorhaben überhaupt ethisch unbedenklich sind, wird vorab von Ethikkommissionen geprüft.

Kreuzvalidierung

Die Kreuzvalidierung ist ein statistisches Verfahren, dass die Gültigkeit von Studienergebnissen überprüft. Hierzu wird das Verfahren an einer zweiten Stichprobe angewendet.

Evidenzbasierte Medizin (EBM): Intensive Ergebnisbewertung

EBM hat zum Ziel, die praktische Erfahrung der Kliniker*innen um die klinisch relevante Forschung zu ergänzen. Die medizinische Versorgung soll dadurch immer weiter optimiert und nur tatsächlich effiziente Maßnahmen und Therapien erkannt und eingesetzt oder abgesetzt werden. Vor allem Leitlinien sollten EBM-basiert erstellt sein.

Quellen

  1. M. Schön (2007): GK1 Medizinische Psychologie und Soziologie. Springer Verlag.
  2. S. Rothgangel (2010): Kurzlehrbuch Medizinische Psychologie und Soziologie. Thieme Verlag.
  3. Faller H., Lang, H. (2019). Medizinische Psychologie und Soziologie. 5. Auflage. Springer Verlag.
  4. Schule S. (2014). Kurzlehrbuch Medizinische Psychologie und Medizinische Soziologie. 1. Auflage. Urban & Fischer Verlag/Elsevier GmbH.

Kostenloses eBook

Lerne erfolgreich im Medizinstudium 

Medizinisches Fachwissen leicht erklärt

Erfolgreiche Prüfungsvorbereitung mit Medizinkursen von lecturio.de

Du bist bereits registriert?  Login

Medizinisches Fachwissen leicht erklärt

Erfolgreiche Prüfungsvorbereitung mit Medizinkursen von lecturio.de

Du bist bereits registriert?  Login

eLearning Award 2023

Lecturio und die Exporo-Gruppe wurden für ihre digitale Compliance-Akademie mit dem eLearning Award 2023 ausgezeichnet.

eLearning Award 2019

Lecturio und die TÜV SÜD Akademie erhielten für den gemeinsam entwickelten Online-Kurs zur Vorbereitung auf den
Drohnenführerschein den eLearning Award 2019 in der Kategorie “Videotraining”.

Comenius-Award 2019

Comenius-Award 2019

Die Lecturio Business Flat erhielt 2019 das Comenius-EduMedia-Siegel, mit dem die Gesellschaft für Pädagogik, Information und Medien jährlich pädagogisch,  inhaltlich und gestalterisch
herausragende didaktische Multimediaprodukte auszeichnet.

IELA-Award 2022

Die International E-Learning Association, eine Gesellschaft für E-Learning Professionals und Begeisterte, verlieh der Lecturio Learning Cloud die Gold-Auszeichnung in der Kategorie “Learning Delivery Platform”.

Comenius-Award 2022

In der Kategorie “Lehr- und Lernmanagementsysteme” erhielt die Lecturio Learning Cloud die Comenius-EduMedia-Medaille. Verliehen wird der Preis von der Gesellschaft für Pädagogik, Information und Medien für pädagogisch, inhaltlich und gestalterisch herausragende Bildungsmedien.

B2B Award 2020/2021

Die Deutsche Gesellschaft für Verbraucherstudien (DtGV) hat Lecturio zum Branchen-Champion unter den deutschen Online-Kurs-Plattformen gekürt. Beim Kundenservice belegt Lecturio den 1. Platz, bei der Kundenzufriedenheit den 2. Platz.

B2B Award 2022

Für herausragende Kundenzufriedenheit wurde Lecturio von der Deutschen Gesellschaft für Verbraucherstudien (DtGV) mit dem deutschen B2B-Award 2022 ausgezeichnet.
In der Rubrik Kundenservice deutscher Online-Kurs-Plattformen belegt Lecturio zum zweiten Mal in Folge den 1. Platz.

Simon Veiser

Simon Veiser beschäftigt sich seit 2010 nicht nur theoretisch mit IT Service Management und ITIL, sondern auch als leidenschaftlicher Berater und Trainer. In unterschiedlichsten Projekten definierte, implementierte und optimierte er erfolgreiche IT Service Management Systeme. Dabei unterstützte er das organisatorische Change Management als zentralen Erfolgsfaktor in IT-Projekten. Simon Veiser ist ausgebildeter Trainer (CompTIA CTT+) und absolvierte die Zertifizierungen zum ITIL v3 Expert und ITIL 4 Managing Professional.

Dr. Frank Stummer

Dr. Frank Stummer ist Gründer und CEO der Digital Forensics GmbH und seit vielen Jahren insbesondere im Bereich der forensischen Netzwerkverkehrsanalyse tätig. Er ist Mitgründer mehrerer Unternehmen im Hochtechnologiebereich, u.a. der ipoque GmbH und der Adyton Systems AG, die beide von einem Konzern akquiriert wurden, sowie der Rhebo GmbH, einem Unternehmen für IT-Sicherheit und Netzwerküberwachung im Bereich Industrie 4.0 und IoT. Zuvor arbeitete er als Unternehmensberater für internationale Großkonzerne. Frank Stummer studierte Betriebswirtschaft an der TU Bergakademie Freiberg und promovierte am Fraunhofer Institut für System- und Innovationsforschung in Karlsruhe.

Sobair Barak

Sobair Barak hat einen Masterabschluss in Wirtschaftsingenieurwesen absolviert und hat sich anschließend an der Harvard Business School weitergebildet. Heute ist er in einer Management-Position tätig und hat bereits diverse berufliche Auszeichnungen erhalten. Es ist seine persönliche Mission, in seinen Kursen besonders praxisrelevantes Wissen zu vermitteln, welches im täglichen Arbeits- und Geschäftsalltag von Nutzen ist.

Wolfgang A. Erharter

Wolfgang A. Erharter ist Managementtrainer, Organisationsberater, Musiker und Buchautor. Er begleitet seit über 15 Jahren Unternehmen, Führungskräfte und Start-ups. Daneben hält er Vorträge auf Kongressen und Vorlesungen in MBA-Programmen. 2012 ist sein Buch „Kreativität gibt es nicht“ erschienen, in dem er mit gängigen Mythen aufräumt und seine „Logik des Schaffens“ darlegt. Seine Vorträge gestaltet er musikalisch mit seiner Geige.

Holger Wöltje

Holger Wöltje ist Diplom-Ingenieur (BA) für Informationstechnik und mehrfacher Bestseller-Autor. Seit 1996 hat er über 15.800 Anwendern in Seminaren und Work-shops geholfen, die moderne Technik produktiver einzusetzen. Seit 2001 ist Holger Wöltje selbstständiger Berater und Vortragsredner. Er unterstützt die Mitarbeiter von mittelständischen Firmen und Fortune-Global-500- sowie DAX-30-Unternehmen dabei, ihren Arbeitsstil zu optimieren und zeigt Outlook-, OneNote- und SharePoint-Nutzern, wie sie ihre Termine, Aufgaben und E-Mails in den Griff bekommen, alle wichtigen Infos immer elektronisch parat haben, im Team effektiv zusammenarbeiten, mit moderner Technik produktiver arbeiten und mehr Zeit für das Wesentliche gewinnen.

Frank Eilers

Frank Eilers ist Keynote Speaker zu den Zukunftsthemen Digitale Transformation, Künstliche Intelligenz und die Zukunft der Arbeit. Er betreibt seit mehreren Jahren den Podcast „Arbeitsphilosophen“ und übersetzt komplexe Zukunftsthemen für ein breites Publikum. Als ehemaliger Stand-up Comedian bringt Eilers eine ordentliche Portion Humor und Lockerheit mit. 2017 wurde er für seine Arbeit mit dem Coaching Award ausgezeichnet.

Yasmin Kardi

Yasmin Kardi ist zertifizierter Scrum Master, Product Owner und Agile Coach und berät neben ihrer Rolle als Product Owner Teams und das höhere Management zu den Themen agile Methoden, Design Thinking, OKR, Scrum, hybrides Projektmanagement und Change Management.. Zu ihrer Kernkompetenz gehört es u.a. internationale Projekte auszusteuern, die sich vor allem auf Produkt-, Business Model Innovation und dem Aufbau von Sales-Strategien fokussieren.

Leon Chaudhari

Leon Chaudhari ist ein gefragter Marketingexperte, Inhaber mehrerer Unternehmen im Kreativ- und E-Learning-Bereich und Trainer für Marketingagenturen, KMUs und Personal Brands. Er unterstützt seine Kunden vor allem in den Bereichen digitales Marketing, Unternehmensgründung, Kundenakquise, Automatisierung und Chat Bot Programmierung. Seit nun bereits sechs Jahren unterrichtet er online und gründete im Jahr 2017 die „MyTeachingHero“ Akademie.

Andreas Ellenberger

Als akkreditierter Trainer für PRINCE2® und weitere international anerkannte Methoden im Projekt- und Portfoliomanagement gibt Andreas Ellenberger seit Jahren sein Methodenwissen mit viel Bezug zur praktischen Umsetzung weiter. In seinen Präsenztrainings geht er konkret auf die Situation der Teilnehmer ein und erarbeitet gemeinsam Lösungsansätze für die eigene Praxis auf Basis der Theorie, um Nachhaltigkeit zu erreichen. Da ihm dies am Herzen liegt, steht er für Telefoncoachings und Prüfungen einzelner Unterlagen bzgl. der Anwendung gern zur Verfügung.

Zach Davis

Zach Davis ist studierter Betriebswirt und Experte für Zeitintelligenz und Zukunftsfähigkeit. Als Unternehmens-Coach hat er einen tiefen Einblick in über 80 verschiedene Branchen erhalten. Er wurde 2011 als Vortragsredner des Jahres ausgezeichnet und ist bis heute als Speaker gefragt. Außerdem ist Zach Davis Autor von acht Büchern und Gründer des Trainingsinstituts Peoplebuilding.

Wladislav Jachtchenko

Wladislaw Jachtchenko ist mehrfach ausgezeichneter Experte, TOP-Speaker in Europa und gefragter Business Coach. Er hält Vorträge, trainiert und coacht seit 2007 Politiker, Führungskräfte und Mitarbeiter namhafter Unternehmen wie Allianz, BMW, Pro7, Westwing, 3M und viele andere – sowohl offline in Präsenztrainings als auch online in seiner Argumentorik Online-Akademie mit bereits über 52.000 Teilnehmern. Er vermittelt seinen Kunden nicht nur Tools professioneller Rhetorik, sondern auch effektive Überzeugungstechniken, Methoden für erfolgreiches Verhandeln, professionelles Konfliktmanagement und Techniken für effektives Leadership.

Alexander Plath

Alexander Plath ist seit über 30 Jahren im Verkauf und Vertrieb aktiv und hat in dieser Zeit alle Stationen vom Verkäufer bis zum Direktor Vertrieb Ausland und Mediensprecher eines multinationalen Unternehmens durchlaufen. Seit mehr als 20 Jahren coacht er Führungskräfte und Verkäufer*innen und ist ein gefragter Trainer und Referent im In- und Ausland, der vor allem mit hoher Praxisnähe, Humor und Begeisterung überzeugt.

Details