Auf dieser Seite finden Sie die Kontrollfragen inkl. Musterlösungen und pdfs zum Download zu den einzelnen Kapiteln bzw. Unterkapiteln. Damit Sie auf dieser Website vom Testingeffect profitieren, sind die Antworten erst sichtbar, wenn Sie den Bereich unter der Frage markieren. Viel Erfolg beim Lernen!

 

Inhaltsübersicht

 

1 Psychologie und Sozialwissenschaften als empirische Wissenschaften

1.1 Was sind Gegenstand und Selbstverständnis der Psychologie

1.2 Was kennzeichnet das wissenschaftliche Vorgehen?

1.3 Fünf Zielrichtungen wissenschaftlicher Tätigkeit in der Psychologie und den Sozialwissenschaften

1.4 Methoden im empirischen Forschungsprozess

1.5 Hypothesen

1.6 Variablen

1.7 Forschungsethik und gute wissenschaftliche Praxis

 

I Quantitative Methoden

 

2 Quantitative Erhebungsmethoden

2.1 Besonderheiten psychologischer Erhebungen

2.2 Beobachten, Zählen und Messen

2.3 Selbstberichtsverfahren: Befragung und Rating

2.4 Testen

2.5 Biopsychologische und neurowissenschaftliche Messungen

2.6 Online-Datenerhebung

 

3 Quantitative Forschungsansätze

3.1 Grundlagen

3.2 Experiment

3.3 Nicht experimentelle Forschungsansätze

 

4 Quantitative Auswertungsmethoden

4.1 Datenaufbereitung

4.2 Deskriptivstatistische Methoden

4.3 Inferenzstatistische Methoden

 

II Qualitative Methoden

 

5 Qualitative Forschungsansätze

5.1 Prinzipien qualitativen Forschens

5.2 Bewusste Stichprobenziehung

5.3 Fallstudie

5.4 Methodologie der Gegenstandsbezogenen Theoriebildung („grounded theory“)

5.5 Ethnografie/Feldforschung

5.6 Partizipative und emanzipatorische Forschungsansätze

5.7 Performative Sozialforschung

5.8 Narrativer Ansatz und Biografieforschung

5.9 Phänomenologie

5.10 Forschungsprogramm Subjektive Theorien (FST)

 

6 Qualitative Erhebungsmethoden

6.1 Datenarten in der qualitativen Sozialforschung

6.2 Interviewverfahren

6.3 Gruppendiskussion/Fokusgruppe

6.4 Weitere offene Verfahren zur Erhebung verbaler Daten

6.5 Beobachtung

6.6 Weitere Verfahren zur Erhebung qualitativer Daten

 

7 Qualitative Analyseverfahren

7.1 Datenaufbereitung: Transkriptionsverfahren

7.2 Auswertungsmethoden

7.3 Verfahren der Systematisierung

 

8 Bewertung qualitativer Forschung

8.1 Klassische Gütekriterien der qualitativen Forschung

8.2 Alternative Gütekriterien qualitativer Forschung

8.3 Ethische Fragen qualitativen Forschens

 

III Mixed Methods

 

9 Mixed-Methods-Forschung

9.1 Historie und Begriffsklärungen

9.2 Mixed Method-Designs

9.3 Weitere Gesichtspunkte bei der Planung von Mixed Methods-Studien

 

 

 

 

Kapitel 1 - Psychologie und Sozialwissenschaften als empirische Wissenschaften

 

Kapitel 1.1: Was sind Gegenstand und Selbstverständnis der Psychologie und der Sozialwissenschaften?

 

1. Womit beschäftigt sich die wissenschaftliche Psychologie?

Die Psychologie ist die Wissenschaft vom Erleben, Verhalten und Handeln des Menschen sowie von dessen Veränderungen. Sie ist unterteilt in verschiedene Subdisziplinen mit je eigenen, aber nicht vollständig voneinander abgrenzbaren inhaltlichen Schwerpunktsetzungen. Dazu zählen beispielsweise die Allgemeine Psychologie, die Entwicklungspsychologie, die Sozialpsychologie, die Biologische Psychologie, die Differentielle Psychologie, die Klinische Psychologie, die Arbeits- Organisations- und Wirtschaftspsychologie oder die Gesundheitspsychologie. Einige dieser Subdisziplinen sind stärker grundlagenorientiert, das heißt, sie zielen darauf ab, grundlegende Erkenntnisse zu einem bestimmten Phänomen zu gewinnen, um das Wissen zu diesem Phänomen zu erweitern. Andere haben einen eher anwendungsorientierten Fokus und beschäftigen sich mit Fragestellungen aus der Praxis bzw. der Lösung von Problemen aus ihren jeweiligen Anwendungsbereichen.

 

2. Womit beschäftigen sich die Sozialwissenschaften?

Unter den Begriff der Sozialwissenschaften werden verschiedene wissenschaftliche Disziplinen gefasst, die sich mit sozialem Verhalten sowie Phänomenen und Herausforderungen des gesellschaftlichen Zusammenlebens der Menschen beschäftigen. Sie werden auch als Gesellschaftswissenschaften bezeichnet. Zu den relevanten Fachbereichen werden unter anderem die Soziologie, die Politikwissenschaft, die Erziehungswissenschaft, die Wirtschaftswissenschaften oder die Ethnologie gezählt. Nicht selten wird auch die Psychologie bzw. insbesondere ihre Subdisziplin die Sozialpsychologie als Teil der Sozialwissenschaften angesehen. Wie die Psychologie sind auch die anderen sozialwissenschaftlichen Disziplinen in Subdisziplinen mit unterschiedlich starkem Anwendungs- bzw. Grundlagenbezug unterteilt.

 

3. Nennen Sie einige inhaltliche Beispiele für Forschungsfragen aus Psychologie und Sozialwissenschaften!

  • Welche Bedeutung haben Wahrnehmung und Aufmerksamkeit?
  • Welchen Einfluss haben Peers auf die Entwicklung von Kindern?
  • Wie wirken Stereotype und Vorurteile?
  • Was sind die biologischen Grundlagen von Emotionen?
  • Wie kann man Intelligenz messen?
  • Welchen Einfluss hat unser Erleben einer klinischen Intervention auf die Wirkung dieser Intervention?
  • Welcher Zusammenhang besteht zwischen Führungsverhalten und Arbeitszufriedenheit?
  • Wie lässt sich ein klimaschonender Lebensstil fördern?
  • Was sind die Ursachen sozialer Ungleichheit?
  • Wie kommt es zum Erstarken rechter Parteien in Europa?
  • Welchen Einfluss haben die Folgen der COVID-19 Pandemie auf verschiedene Branchen in Deutschland?
  • Was bedeutet Migration für diejenigen, die ihre Heimat verlassen, und für diejenigen, die zurückbleiben?

 

4. Geben Sie einige Gründe für die Methodenvielfalt an!

  • Der Gegenstandsbereich der Psychologie und der Sozialwissenschaften ist thematisch sehr breit gefächert, die Fragestellungen sind variabel und komplex.
  • Erleben, Verhalten und Handeln“ sind oft nicht direkt beobachtbar und müssen erst mit „methodischer“ Hilfe erschlossen werden. Die Erfassung direkt beobachtbaren und nicht direkt beobachtbaren Verhaltens erfordert je eigene Methoden.
  • Den fachspezifischen Herausforderungen der Subjektivität und Reaktivität wird mit unterschiedlichen Methoden unterschiedlich begegnet.
  • Menschen und Gesellschaften befinden sich im kontinuierlichen Wandel. Die Methoden der Psychologie und der Sozialwissenschaften müssen sich diesem Wandel anpassen.
  • Unterschiedliche Zielrichtungen (Beschreiben, Verstehen, Erklären, Vorhersagen und Verändern) erfordern je unterschiedliche Methoden.

 

5. Was bedeutet es, wenn sich eine Wissenschaft als empirisch bezeichnet?

Das Wort „Empirie“ stammt vom griechischen Wort „empeiria“ (Erfahrung) ab. „Dementsprechend wird im wissenschaftlichen Sinne von empirischen Aussagen gesprochen, wenn sie sich auf (wissenschaftlich kontrollierte) Erfahrungen, also Befunde, die nach den Regeln der empirischen Forschung gewonnen wurden, beziehen“ (Diaz-Bone & Weischer 2015, S. 102). Empirische Wissenschaften grenzen sich von rein theoretischen Wissenschaften ab, die ihre Erkenntnisse allein auf der Basis gedanklicher Beschäftigung mit einem Phänomen gewinnen (wie beispielsweise die Mathematik oder die Philosophie).

 

6. Wie kommt es, dass Uneinigkeit über die in Psychologie und Sozialwissenschaften anzuwendenden Methoden herrscht?

Historisch können Psychologie und Sozialwissenschaften zwischen Natur- und Geisteswissenschaften verortet werden. Innerhalb der Disziplinen haben sich verschiedene Stränge entwickelt, die sich mal mehr an den Natur-, mal mehr an den Geisteswissenschaften orientieren, mit je eigenen gegenstandstheoretischen und weltanschaulichen Positionierungen verbunden sind und in der Regel ein eigenes Methodenrepertoire ausgebildet haben. Zu unterschiedlichen Zeiten und in unterschiedlichen Ländern dominierten bzw. dominieren jeweils unterschiedliche dieser Strömungen. Je nachdem wann und wo man eine Psychologin oder einen Sozialwissenschaftler danach fragt, was der wissenschaftliche Anspruch ihrer bzw. seiner Disziplin ist und welche Methoden einzusetzen sind, um diesem Anspruch gerecht zu werden, wird man also sehr unterschiedliche Antworten erhalten.

 

Kapitel 1.2: Was kennzeichnet das wissenschaftliche Vorgehen?

 

1. Was kennzeichnet das wissenschaftliche Vorgehen in Abgrenzung zu alltagspsychologischen Strategien des Erkenntnisgewinns?

Die Fragen der Wissenschaft unterscheiden sich im Kern gar nicht so sehr von unseren Alltagsfragen. Sie sind vielleicht etwas abstrakter formuliert oder nicht ganz so auf die persönliche Situation einzelner Personen bezogen. Der Unterschied zwischen wissenschaftlichem Vorgehen und alltagspsychologischen Strategien liegt weniger in der Art der Fragen, sondern darin, wie diese beantwortet werden. Während im Alltag Erkenntnis aus der individuellen Erfahrung abgeleitet wird, dienen die wissenschaftlichen Methoden dazu, systematisch Daten zu sammeln, auszuwerten und in Bezug zu Theorien und existierenden wissenschaftlichen Erkenntnissen zu setzen. Im Alltag täuschen die Erfahrungen uns häufig falsche Tatsachen vor, denn die „Datenbasis“ ist meist lückenhaft und es unterlaufen uns Fehler bei Beobachtungen und Schlussfolgerungen. Das wissenschaftliche Vorgehen folgt einem für die jeweilige Methode spezifischen und für andere nachvollziehbaren Prozess, der eine Überprüfung der gewonnenen Erkenntnisse erlaubt.

 

2. Was versteht man unter Reliabilität und wie kann sie überprüft werden?

Reliabilität bezeichnet die Zuverlässigkeit und Beständigkeit einer Untersuchung. Reliabel ist ein Erhebungsinstrument oder eine Untersuchung dann, wenn bei einem relativ gleichbleibenden Verhalten gleiche oder ähnliche Ergebnisse resultieren. Es gibt eine Reihe von Möglichkeiten, dieses Gütekriterium in quantitativen Untersuchungen konkret zu bestimmen, so etwa durch die Test-Retest-Reliabilität, die in der Literatur oft auch als Stabilität bezeichnet wird. Sie beschreibt das Ausmaß der Übereinstimmung bei wiederholter Anwendung einer Erhebungsmethode in der gleichen Stichprobe. Eine weitere Möglichkeit der Reliabilitätsbestimmung ist die Interrater-Reliabilität: Man versteht darunter das Ausmaß, in dem die Einschätzungen unterschiedlicher Beobachter*innen bzw. unterschiedlicher „Testanwender*innen“ (Rater*innen) übereinstimmen. Die Interrater-Reliabilität ist dann hoch, wenn verschiedene Rater*innen bei den gleichen Testpersonen zu gleichen oder ähnlichen Einschätzungen (Ratings) kommen

 

3. Was versteht man unter Validität?

Die Validität beurteilt eine quantitative Untersuchung danach, ob sie tatsächlich das misst, was gemessen werden soll. Ursprünglich bezog sich dieses Gütekriterium auf diagnostische Messinstrumente. Dazu wurden differenzierte Validitätskriterien wie Inhaltsvalidität, Konstruktvalidität, Übereinstimmungsvalidität usw. entwickelt. Im Kontext experimenteller Untersuchungen, sind weitere spezielle Validitätsaspekte relevant, wie z. B. die interne und externe Validität, die Ableitungsvalidität usw.

 

4. Wie unterscheiden sich induktives, abduktives und deduktives Vorgehen?

In der Logik versteht man unter Induktion die Methode des Schlussfolgerns von Einzelfällen auf das Allgemeine und Gesetzmäßige. Das umgekehrte Vorgehen kennzeichnet den deduktiven Weg. Unter Deduktion versteht man somit die Ableitung des Besonderen und Einzelnen aus dem Allgemeinen (aus Regeln, Gesetzmäßigkeiten, Modellen, Theorien). Abduktion schließlich bezeichnet das Entwickeln einer neuen Regel bzw. Hypothese zur Erklärung von Sachverhalten, die sich nicht unter bereits bekannte Gesetzmäßigkeiten subsumieren lassen.

 

5. Was sind die Grundprinzipien von quantitativer, qualitativer und Mixed-Methods Forschung?

Je nach Forschungsgegenstand bzw. Art der Fragestellung bedient man sich in der Wissenschaft sog. quantitativer oder qualitativer Methoden bzw. einer Verbindung aus beiden (Mixed Methods). Mit quantitativen Methoden werden Merkmale oder Zusammenhänge exakt gemessen, meist an einer großen Stichprobe, mit dem Ziel allgemeingültige Aussagen zu treffen. Bei qualitativen Verfahren liegt der Fokus eher auf der intensiven Untersuchung weniger bzw. einzelner Fälle mit dem Ziel Bedeutung zu verstehen bzw. zu interpretieren. Im Mixed Methods Ansatz werden qualitative und quantitative Methoden im Forschungsprozess systematisch miteinander verbunden und integriert.

 

Kapitel 1.3: Fünf Zielrichtungen wissenschaftlicher Tätigkeit in der Psychologie und den Sozialwissenschaften

 

1. Was versteht man unter „Beschreiben durch Operationalisieren“?

Zum Beschreiben gehört auch das Operationalisieren, d. h. anzugeben, wie man ein bestimmtes theoretisches Konstrukt – wie etwa Angst oder Intelligenz – empirisch erfassen will. Denn die meisten Phänomene, die in der Psychologie und den Sozialwissenschaften von Interesse sind, sind nicht direkt beobachtbar und damit auch nicht direkt messbar. Möchte man ein solches Phänomen beobachtbar und messbar machen (operationalisieren), ist es in einem ersten Schritt notwendig, explizit zu machen, welches Verständnis des jeweiligen Konstrukts man für eine konkrete Untersuchung zugrunde legt. So gibt es beispielsweise verschiedene Definitionen und Theorien zu Angst oder Intelligenz, die unterschiedliche Teilaspekte dieser Konstrukte hervorheben. In der quantitativen Forschung beginnt man mit der Klärung der Frage, welche Teilaspekte im Mittelpunkt einer Untersuchung stehen, und entwickelt oder wählt auf dieser Grundlage eine geeignete Erhebungsmethode aus, die den Bedeutungskern des Konstruktes bzw. alle relevanten Teilaspekte erfasst. Im Fall von Angst oder Intelligenz liegen beispielsweise bereits viele etablierte und gut überprüfte Erhebungsinstrumente vor, die zum Einsatz kommen können. Welches der vielen verfügbaren Instrumente man auswählt, ist davon abhängig, wie man Intelligenz bzw. Angst für die eigene Untersuchung definiert hat. In der qualitativen Forschung geht es dagegen oft darum, zu erfassen, wie Teilnehmer*innen ein bestimmtes Konstrukt verstehen. Dennoch findet auch hier eine Operationalisierung auf der Grundlage eines Vorverständnisses seitens der Forscher*innen statt, beispielsweise in Form eines Interviewleitfadens.

 

2. In welchen Kontexten ist die Zielrichtung des Verstehens von Relevanz?

Im Gegensatz zur quantitativen Forschung, die häufig Kausalerklärungen anstrebt, ist die qualitative Forschung eher auf das Beschreiben und Verstehen von Phänomenen ausgerichtet. Während der quantitatvie Forschungsprozess eher linear ist, vollzieht sich das Verstehen klassischerweise in einem iterativen Prozess, dem so genannten hermeneutischen Zirkel bzw. der hermeneutischen Spirale. Das bedeutet, dass das Verstehen vor dem Hintergrund von Vorannahmen (einem Vorverständnis) und einem Verständnis der gesamten (Kommunikations-)Situation erfolgt. Erkenntnisse, die im Zuge des Verstehensprozesses gewonnen werden, wirken zurück auf das Vorverständnis und das Gesamtverständnis – wodurch sich wiederum das Verständnis verändern kann.

 

3. Wie unterscheiden sich Beschreiben und Erklären und welcher Zusammenhang besteht zur Kausalität?

Erklärungen sind Angaben über Bedingungsverhältnisse bzw. Abhängigkeiten zwischen Sachverhalten. Erklärungen setzen die Beschreibung von mindestens zwei Sachverhalten voraus und haben eine besondere Bedeutung in der quantitativen (experimentellen) Forschung. Die Beziehung zwischen zwei Sachverhalten beim Beschreiben nennt man eine Zusammenhangsrelation. Beim Erklären bestimmt die Richtung der Beziehung zwischen zwei Sachverhalten das Ursache-Wirkungs-Gefüge (Kausalrelation). Veränderungen im Sachverhalt A sind ursächlich für Veränderungen im Sachverhalt B. Auch in der qualitativen Forschung gewinnt die Erklärung von Sachverhalten immer mehr an Bedeutung. Dabei wird der Begriff der Ursache jedoch teilweise anders gefasst als in der quantitativen Forschung.

 

4. Wovon hängt die Vorhersagegenauigkeit eines Prognosemodells ab?

 

Wichtige Einflussfaktoren auf die Vorhersagegenauigkeit sind:

-    Die Präzision der Beschreibung der am Prognosemodell beteiligten Sachverhalte (Variablen),

-    die adäquate Auswahl der Prädiktoren (welche unabhängigen Variablen haben einen hohen Erklärungswert?),

-    die Gewichtung der Prädiktoren gemäß ihrer empirischen Bedeutung (welche Prädiktoren haben im vorliegenden Datensatz einen hohen Prognosewert?) und

-    der Zeitraum der Prognose (je länger, desto ungenauer).

 

5. Welche Arten von Veränderungen unterscheidet man?

Man unterscheidet:

  • Beeinflussen und Verändern als Korrektur: In diesem Fall gilt der Ausgangszustand als problematisch, gestört oder unnormal.
  • Beeinflussen und Verändern als Förderung: Bei dieser Zielsetzung strebt man einen höheren, besseren Zustand an, ohne dass der Ausgangszustand als problematisch gilt.
  • Beeinflussen und Verändern als Prävention: Hier geht es darum, das Eintreten eines schlechten Zustands zu verhindern.

 

Kapitel 1.4: Methoden im empirischen Forschungsprozess

 

1. Wie entscheidet man, welche Forschungsmethoden zum Einsatz kommen sollen?

Empirische Untersuchungen beginnen in der Regel mit der Entwicklung einer Fragestellung auf Basis von Theorien und bisheriger Forschung in einem bestimmten Themenfeld. In der quantitativen Forschung werden darauf aufbauend zumeist konkrete Hypothesen formuliert. Im gesamten Forschungsprozess sind alle Methoden (Forschungsansatz, Erhebungs- und Auswertungsmethode) so auszuwählen, dass sie der Beantwortung der Fragestellung bzw. der Überprüfung der Hypothese dienen. In qualitativen Untersuchungen ist der Forschungsprozess häufig weniger linear. Auch hier steht eine Forschungsfrage am Anfang, und es werden ein passender Forschungsansatz, Erhebungs- und Auswertungsverfahren ausgewählt. Allerdings sind diese Elemente im Forschungsprozess häufig noch Veränderungen unterworfen. Beispielsweise kann es sein, dass die Forschungsfrage im Zuge der Datenerhebung modifiziert wird oder dass im Interviewleitfaden weitere Fragen ergänzt werden. Außerdem beginnt die Auswertung meist schon vor Abschluss der Datenerhebung, und erste Ergebnisse können sich auf sämtliche Elemente des Forschungsprozesses auswirken.

 

2. Was wird mit der Wahl eines Forschungsansatzes festgelegt?

Mit dem Forschungsansatz bestimmt man die übergreifende, gegenstandsbezogene Vorgehensweise, wählt also beispielsweise das Experiment zur Überprüfung der Kausalhypothese „Intelligenz ist ursächlich für Ängstlichkeit“. Widmet man sich dagegen der Frage, ob es einen Zusammenhang zwischen Schul- und Studienerfolg gibt, wäre die Korrelationsstudie das adäquate Forschungsdesign. Und wenn es darum geht, eine datenbasierte Theorie der Ängstlichkeit von Schüler*innen zu entwickeln, wäre die Grounded Theory Methodologie der passende Ansatz. Solche Ansätze spezifizieren dann, wie die Untersuchung anzulegen ist. Dies umfasst häufig auch eine Festlegung in Bezug auf die Art und Weise der Stichprobenziehung sowie die Methoden der Datenerhebung und -auswertung.

 

3. Nennen Sie zwei quantitative und zwei qualitative (Daten-)Erhebungsmethoden!

Beispiele für quantitative (Daten-)Erhebungsmethoden:

  • Beobachten
  • Zählen
  • Urteilen
  • Testen

Beispiele für qualitative (Daten-)Erhebungsmethoden:

  • (Teilnehmendes) Beobachten
  • Interviewverfahren
  • Gruppendiskussion/Fokusgruppen
  • Nutzung nonreaktiver Daten

 

4. Was muss bei der Wahl einer Analysemethode berücksichtigt werden?

Die Beantwortung der Forschungsfrage bzw. die Entscheidung darüber, ob eine Hypothese angenommen oder zurückgewiesen wird, erfolgt aufgrund der Ergebnisse der Datenanalyse. Die Analysemethode muss dabei sowohl in der qualitativen als auch der quantitativen Forschung so ausgewählt werden, dass sie zur Art des vorliegenden Datenmaterials und zur Fragestellung bzw. Hypothese passt.

 

Kapitel 1.5: Hypothesen

 

1. Durch welche Aspekte unterscheiden sich wissenschaftliche von Alltagshypothesen?

Hypothesen sind vorläufige (vermutete) Antworten, die Forscher*innen auf ihre Fragen geben (Hussy & Jain 2002). Um Vermutungen handelt es sich so lange, wie der wissenschaftliche Nachweis noch aussteht. Um sich von Alltagshypothesen zu unterscheiden und dem Anspruch der Wissenschaftlichkeit zu entsprechen, müssen Hypothesen folgende Anforderungen erfüllen:

-    präzise und widerspruchsfreie Formulierung,

-    prinzipielle Widerlegbarkeit,

-    Operationalisierbarkeit und

-    Begründbarkeit.

 

2. Nennen Sie ein Beispiel für eine quasiuniverselle Hypothese!

Die Intelligenz bedingt zumeist die Ängstlichkeit.

 

3. Warum wird diese Hypothesenart in der psychologischen Forschung so häufig verwendet?

Die quasiuniverselle Hypothese treffen wir im Bereich der psychologischen Forschung am häufigsten an. Die Überprüfung einer (unbeschränkt) universellen Hypothese kann nur zu ihrer Widerlegung führen. Es genügt ein gegenteiliger Fall und die Hypothese kann – vereinfacht dargestellt – als falsifiziert gelten. Dagegen ist ihre Bestätigung nicht möglich, weil die Überprüfung niemals als abgeschlossen gelten kann. Selbst wenn sich in allen bisherigen Überprüfungen die Hypothese bewährt hat, kann die nächste Untersuchung ein gegenteiliges Ergebnis bringen. Da in der Hypothese jedoch keinerlei Einschränkungen vorgenommen werden, ist eine vollständige Überprüfung nicht möglich, ganz abgesehen davon, dass auch zukünftige Ereignisse nicht in den Prüfprozess einbezogen werden können. Einen Ausweg aus dem Problem verspricht die quasiuniverselle Hypothese. Sie beinhaltet eine Einschränkung in Bezug auf die Wahrscheinlichkeit ihres Zutreffens. Ausnahmen werden in Kauf genommen. Forscher*innen begnügen sich damit Regelhaftigkeiten zu erkennen. Regelverstöße werden in einem gewissen Umfang zugelassen. Sie ermöglicht es somit, sich dem Ziel, allgemeingültige Aussagen formulieren und überprüfen zu können, anzunähern.

 

4. Wann sollte man anstatt einer Hypothese eine explorative Forschungsfrage formulieren?

Eine Hypothese muss vor dem Hintergrund des vorhandenen theoretischen und empirischen Wissens begründet und nachvollziehbar sein. Wenn es sich um ein bisher wenig erforschtes Feld handelt, kann dieses Wissen auch aus anderen Bereichen entliehen und auf den neuen Gegenstand angewendet werden. Ist es nicht möglich, eine Hypothese in dieser Art zu begründen bzw. nachvollziehbar zu machen, so ist eher eine explorative Forschungsfrage zu formulieren.

 

5. Welches ist der Unterschied zwischen einer hypothesenprüfenden und einer hypothesengenerierenden Untersuchung?

Die hypothesenprüfende Untersuchung liefert eine geprüfte Aussage. Eine Entscheidung über Annahme oder Zurückweisung der Hypothese ist möglich. Die hypothesengenerierende Untersuchung liefert eine ungeprüfte Hypothese. Eine Entscheidung über Annahme oder Zurückweisung der Hypothese ist nicht möglich. Das gleichzeitige Generieren und Prüfen einer Hypothese in einer einzigen Untersuchung (am gleichen Datensatz) ist nicht zulässig!

 

6. Über welche Wege kann man Hypothesen generieren?

Hypothesen können deduktiv, induktiv oder abduktiv generiert werden.

 

7. Welche Rolle hat die Hypothese im Forschungsprozess?

Der gesamte Forschungsprozess ist als ein Vorgang des Problemlösens aufzufassen. Wie muss vorgegangen werden, damit die Konfrontation der Hypothese mit der Empirie zu einer Entscheidung über die Hypothese (und die Theorie) führt.

 

Kapitel 1.6: Variablen

 

1. Was ist der Unterschied zwischen einer Variablen und einer Konstanten?

Variablen sind veränderliche Beobachtungsgrößen. Eine Variable ist somit ein Merkmal, das unterschiedliche Ausprägungsgrade annehmen kann, welches also variiert. Konstanten sind Beobachtungsgrößen mit nur einer Ausprägung. Sie sind im Gegenstandsbereich der Psychologie kaum vorzufinden, weil menschliches Erleben, Verhalten und Handeln durch große Variabilität gekennzeichnet ist. Diese Variabilität besteht sowohl innerhalb einer Person (intraindividuell) als auch zwischen verschiedenen Personen (interindividuell).

 

2. Worin besteht der Unterschied zwischen abstrakten und komplexen Variablen?

Variablen unterscheiden sich darin, wie leicht sie direkt beobachtbar sind. So ist beispielsweise die Reaktionszeit eine direkt beobachtbare, konkrete Variable (Stoppuhr vorausgesetzt). Dagegen entziehen sich Variablen wie Intelligenz oder Planungsfähigkeit der direkten Beobachtung, sie sind abstrakt. Man sieht es Menschen meistens nicht an, wie intelligent oder vorausschauend sie sind. Zur Erfassung abstrakter Variablen müssen daher indirekte Indikatoren herangezogen werden.

 

3. Was versteht man unter dem Bedeutungskern einer Variablen?

Es gibt viele Arten, abstrakte und komplexe Variablen beobachtbar und messbar zu machen, weil das Bedeutungsspektrum solcher Variablen vielschichtig ist. Die wesentlichsten Aspekte des Bedeutungsspektrums eines Begriffs bilden den Bedeutungskern. Ziel muss es sein, mit der gewählten Form der Operationalisierung den Bedeutungskern zu treffen, damit der semantische Gehalt möglichst wenig reduziert wird.

 

4. Was versteht man unter Operationalisierung?

Damit eine Hypothese, die abstrakte und/oder komplexe Variablen beinhaltet, geprüft, also mit der Realität konfrontiert werden kann, müssen diese Variablen zunächst der Beobachtung und Erfassung zugänglich gemacht werden, d. h., sie müssen operationalisiert werden. Dies geschieht in der quantitativen Forschung dadurch, dass ihnen empirische Sachverhalte (d. h. konkret mess- bzw. beobachtbare Größen) zugeordnet werden. So wird entscheidbar, ob und in welcher Ausprägung die abstrakten (theoretischen) Phänomene in der (empirischen) Realität vorliegen. Voraussetzung für eine valide Zuordnung empirischer Sachverhalte zu abstrakten bzw. komplexen Variablen, ist eine präzise Definition dieser Variablen und der ggf. darin enthaltenen Teilaspekte. In der Regel kann man bei der Operationalisierung von Variablen, die für einen bestimmten Fachbereich relevant sind, auf existierendes Hintergrundwissen zurückgreifen.

 

5. Welche Gütekriterien sind bei der Operationalisierung von Relevanz?

Der Versuch der optimalen Operationalisierung einer Variablen entspricht dem Streben nach einer validen (gültigen) Operationalisierung. Eine Variable ist dann valide operationalisiert, wenn ihr Bedeutungskern getroffen und ihr semantischer Gehalt möglichst wenig reduziert ist. Die gewählte Form der Operationalisierung sollte zudem reliabel (zuverlässig) sein, also unter vergleichbaren Bedingungen vergleichbare Ergebnisse erbringen.

 

Kapitel 1.7: Forschungsethik und gute wissenschaftliche Praxis

 

1. Stellen Sie am Beispiel der Milgram-Studie die wert- und zweckrationale Begründungsperspektive einander gegenüber!

Beim wertrationalen Handeln werden moralische und/oder ethische Werte als unveränderbare Richtlinien interpretiert (die menschliche Würde und Integrität, die Privatsphäre usw.) dürfen unter keinen Umständen verletzt werden). Die Milgramstudie wird aus dieser Perspektive abgelehnt, weil die Teilnehmer*innen massiv getäuscht wurden und Schaden und negative Folgen für sie nicht ausgeschlossen waren.

Beim zweckrationalen Handeln werden Kosten-Nutzen-Abwägungen erstellt. Das Handeln orientiert sich am Abwägungsergebnis. Die Milgramstudie kann aus dieser Perspektive unterschiedlich beurteilt werden, je nachdem wie der Prozess des Abwägens endet. Der Nutzen ist dabei das Ausmaß der erwarteten oder beobachteten wissenschaftlichen Erkenntnis, die Kosten sind Verletzungen der menschlichen Würde und Integrität, der Privatsphäre usw. der Teilnehmer*innen.

 

2. Nennen und erläutern Sie beispielhaft zwei forschungsethische Prinzipien im Umgang mit Untersuchungsteilnehmer*innen!

-   Gewährleistung der psychischen und physischen Unversehrtheit und Integrität der Teilnehmer*innen (starke psychische Belastungen und Demütigungen sollen vermieden und die Intimsphäre der Teilnehmenden gewahrt werden),

- Transparenz, Freiwilligkeit der Teilnahme, informierte Einwilligung und Vermeidung von Täuschung (Untersuchungen und ihre Ziele sollen für die Untersuchungsteilnehmer*innen transparent und die Teilnahme freiwillig sein, eine informierte Einwilligung soll eingeholt und Täuschung vermieden werden)

-  Wahrung von Vertraulichkeit, Anonymität und Datenschutz (personenbezogene Daten sind vertraulich zu behandeln und unterliegen einem besonderen Datenschutz, Teilnehmende müssen der Erhebung zustimmen, vor der weiteren Verarbeitung sollten sie anonymisiert oder pseudonymisiert werden).

 

3. Was versteht man unter der Replikationskrise?

Als Replikationskrise oder Reproduzierbarkeitskrise wird die Tatsache bezeichnet, dass wichtige wissenschaftliche Erkenntnisse mehrerer Fachdisziplinen in Wiederholungsuntersuchungen nicht repliziert werden konnten. Hierdurch wird die Zuverlässigkeit der veröffentlichten Erkenntnisse und damit die Glaubwürdigkeit der betroffenen Wissenschaftsdisziplinen massiv in Frage gestellt.

 

4. Wie kann sichergestellt werden, dass Prinzipien guter wissenschaftlicher Praxis eingehalten werden?

Es existieren verschiedene Leitlinien zu Prinzipien guter wissenschaftlicher Praxis. Der Kodex Leitlinien zur Sicherung guter wissenschaftlicher Praxis der Deutschen Forschungsgemeinschaft beispielsweise nimmt nicht nur individuelle Wissenschaftler*innen, sondern auch die Hochschulen in die Pflicht und zielt darauf ab, eine Kultur der wissenschaftlichen Integrität zu fördern. Zudem sind hier Ombudspersonen vorgesehen, die zu Fragen guter wissenschaftlicher Praxis und zu wissenschaftlichem Fehlverhalten ansprechbar sind.

 

5. Erläutern Sie die Grundidee von Open Science!

Das Ziel von Open Science ist es, die Transparenz und Zugänglichkeit von Wissenschaft in allen Phasen des Forschungsprozesses zu fördern und hierdurch ebenfalls wissenschaftliches Fehlverhalten und fragwürdige Forschungspraktiken zu verhindern sowie die Qualität der Forschung zu erhöhen und Zusammenarbeit zu stärken. 

 

 

zurück zur Inhaltsübersicht

 

I Quantitative Methoden

 

 Kapitel 2 - Quantitative Erhebungsmethoden

 

Kapitel 2.1: Besonderheiten psychologischer Erhebungen

 

1. In welchen Hinsichten unterscheiden sich Datenerhebungen in der Psychologie von Datenerhebungen in anderen empirischen Wissen­schaften? Welche besonderen Herausforderungen ergeben sich für psycho­logische Messungen?

Ein Unterschied im Vergleich zu anderen empirischen Wissenschaften ist, dass es bei Datenerhebungen in der Psychologie im Kern um die Erhellung nicht direkt beobachtbarer Phänomene geht. Direkt beobachtbares Verhalten ist meist nur dann bedeutsam, wenn daraus Schlüsse auf die zugrunde liegenden Strukturen, Prozesse und Mechanismen des psychischen Geschehens gezogen werden können.

Eine besondere Herausforderung für psychologische Messungen ist die Frage, ob die untersuchten Personen Zugang zu den relevanten psychischen Prozessen haben und sie über diese Prozesse ohne Verzerrungen Auskunft geben können, d.h. ob Selbstauskünfte untersuchter Personen reliabel und valide sind. Eine weitere besondere Herausforderung betrifft die mögliche Reaktivität von Erhebungsmethoden: Es kann eine Verzerrung von erhobenen Daten aufgrund der Kenntnis des Untersuchten über die Teilnahme an der Untersuchung eintreten. Daher müssen Maßnahmen zur Reduzierung von Reaktivität ergriffen werden (z.B. Zusicherung der Anonymität, Formulierung einer Coverstory oder Verwendung nichtreaktiver Messverfahren).

 

2. Was ist bei der Erhebung von Selbstauskünften von Versuchspersonen zu beachten?

Bei der Erhebung von Selbstauskünften von Versuchspersonen ist zu beachten, dass diese hinreichend reliabel und valide sind. Falls dies nicht der Fall ist, so empfiehlt es sich, die relevanten Daten mithilfe von Verfahren zu erheben, die ohne Selbstauskünfte der Befragten auskommen (z.B. Beobachtungs- und Messverfahren).

 

3. Worin besteht das Problem der Reaktivität und wie kann es verringert wer­den?

Reaktivität bei psychologischen Datenerhebungen bedeutet die Veränderung bzw. Verzerrung der erhobenen Daten alleine aufgrund der Kenntnis der untersuchten Personen darüber, dass sie Gegenstand einer Untersuchung sind. Aufgrund von Reaktivität verändert sich die Beschaffenheit des zu erforschenden Gegenstands in der Psychologie des menschlichen Erlebens bzw. psychischer Vorgänge.

Reaktivität kann durch folgende Maßnahmen verringert werden:

  • Die Untersuchten werden in Unkenntnis darüber gelassen, dass sie Gegenstand einer Untersuchung sind;
  • Ihnen wird Anonymität wird zugesichert;
  • eine Coverstory wird formuliert;
  • nichtreaktive Messverfahren werden verwendet;
  • implizite Messverfahren werden verwendet.

 

4. Inwiefern unterscheiden sich die Möglichkeiten zur Behandlung des Re­aktivitätsproblems zwischen Feld- und Laborstudien?

Es ist nur bei Feldstudien realisierbar, die Untersuchten in Unkenntnis darüber zu lassen, dass sie Gegenstand einer Untersuchung sind, denn Laborstudien implizieren, dass die Untersuchten über den Vorgang der Studie Bescheid wissen. Die Zusicherung von Anonymität ist bei Laborstudien von Bedeutung, jedoch weniger bei Feldstudien. Bei Laborstudien können im Gegensatz zu Feldstudien nichtreaktive Messverfahren angewandt werden, deren Ergebnisse von den Untersuchten kaum beeinflusst werden können.

Außerdem können bei Laborstudien im Gegensatz zu Feldstudien implizite Messverfahren angewandt werden. Dadurch können Verhaltensaspekte ausgewertet werden, deren Zusammenhang mit der Fragestellung den Untersuchten in der Regel verborgen ist.

 

5. Wozu dient die Formulierung einer Cover Story in psychologischen Unter­suchungen?

Eine Cover Story täuscht Versuchspersonen über den tatsächlichen Sinn und Zweck eines Experiments hinweg, damit diese in Unkenntnis der Hypothesen bleiben und die Validität und Präzision des Experiments nicht gefährden.

 

6. Welche Rolle können Reaktionszeiten bei der Behandlung des Reaktivi­tätsproblems in psychologischen Datenerhebungen spielen? Stellen Sie einen Bezug zu impliziten Messverfahren her.

Bei einigen neueren Verfahren, wie z.B. bei dem IAT, können Reaktionszeiten Schlüsse auf zugrunde liegende kognitive Strukturen und Prozesse zulassen. Beispielsweise soll mithilfe des IAT erfasst werden, wie schnell Personen verschiedene Stimuli miteinander assoziieren. Somit können verhältnismäßig schnelle Reaktionszeiten zu einer Verringerung der Reaktivitätsproblems führen.

 

Kapitel 2.2: Beobachten, Zählen und Messen

 

1. Wie ist wissenschaftliche Beobachtung definiert? Welche Aspekte der Be­obachtung werden in einem Beobachtungsplan festgelegt?

Wissenschaftliche Beobachtung ist die systematische und regelgeleitete Registrierung des Auftretens bzw. der Ausprägung von ausgewählten, psychologisch relevanten Merkmalen oder Ereignissen. Sie folgt einem zuvor festgelegten Beobachtungsplan, der festlegt,

  • was beobachtet werden soll (Kategorien für das/die interessierende/n Ereignis/se oder Merkmal/e);
  • welche Aspekte weniger oder nicht relevant sind;
  • welchen Interpretationsspielraum der Beobachtende bei der Beobachtung hat;
  • wann, wie lange und wo die Beobachtung erfolgt (Zeitpunkte, Zeiträume, Situationen);
  • auf welche Weise das Beobachtete registriert und protokolliert wird.

 

2. Inwiefern kann die wissenschaftliche Beobachtung von Ereignissen voll­ständig und uneingeschränkt sein?

Eine vollständige und uneingeschränkte Beobachtung von Ereignissen kann nicht stattfinden, weil die (visuelle) Wahrnehmung selektiv und konstruktiv stattfindet. Eine Möglichkeit, dieses Problem zumindest zu reduzieren, bietet die wissenschaftliche Beobachtung, bei der Ereignisse systematisch und regelgeleitet registriert werden. Hierdurch können Selektivität und Konstruktivität reduziert werden.

 

3. Worin unterscheidet sich eine Ereignisstichprobe von einer Zeitstichprobe?

Während bei der Zeitstichprobe Beobachtungen in festen Intervallen aufgezeichnet werden, wird bei der Ereignisstichprobe das Auftreten, die Auftretensdauer (oder die Auftretenshäufigkeit) von definierten Ereignissen aufgezeichnet.

 

4. Für welche Art/en von Merkmalen eignet sich die Operation des Zählens?

Zählen eignet sich für die Erfassung von Häufigkeiten bestimmter Ereignisse. Diskrete Merkmale können gezählt werden.

 

5. Was ist eine homomorphe Abbildung und welche Rolle spielt diese beim Messen?

Eine homomorphe Abbildung bildet Relationen zwischen Objekten bzw. Ereignissen (dem empirischen Relativ) durch zugeordnete Zahlen (den numerischen Relativ) so ab, dass die Objekte bzw. Ereignisse und die Zahlen im korrekten Verhältnis zu einander stehen. Das Messen besteht in diesem Prozess der Zuordnung, die das Kriterium der homomorphen Abbildung erfüllen muss.

 

6. Welche Skalenniveaus werden in der Messtheorie unterschieden? Welche Relationen werden auf den verschiedenen Skalenniveaus erfasst?

In der Messtheorie werden vier Skalenniveaus unterschieden: Die Nominalskala, die Ordinalskala, die Intervallskala und die Verhältnisskala. Auf Nominalskalenniveau geht es um die Relation der Verschiedenheit. Auf Ordinalskalenniveau geht es um die Relation der Rangordnung. Auf Intervallskalenniveau geht es um die Relation der Differenz. Schließlich wird auf Verhältnisskalenniveau das Verhältnis zwischen Merkmalsausprägungen angegeben; der Zahlenwert „0“ gibt an, dass ein gemessenes Merkmal nicht vorliegt.

 

7. Was sind zulässige Transformationen und welche Bedeutung haben diese für psychologische Datenerhebungen?

Zulässige Transformationen sind solche, die die relevanten Relationen zwischen einzelnen Messobjekten bzw. Merkmalsträgern unverändert lassen d.h. diese homomorph abbilden. Zulässige Transformationen sind durch das Skalenniveau bedingt.

Die Bedeutung dieser Transformationen liegt in der Aufbereitung oder Analyse der Daten von Studien. Hier kommt es vor, dass die zugeordneten Zahlenwerte verändert werden müssen, damit Voraussetzungen zum Einsatz bestimmter statistischer Verfahren erfüllt werden.

 

8. Auf welchen Skalenniveaus sind folgende Transformationen zulässig?

a. f(x)= x2 + 273x

b. f(x)= 1

c. f(x) = 100/x

  1. f(x) = x2 + 273x à zulässig auf Nominal-, Ordinal- und Intervallskalenniveau
  2. f(x) = 1 à auf keiner Skala zulässig
  3. f(x) = 100/x à zulässig nur auf der Nominalskala

 

9. Welche Transformationen sind auf dem höchstmöglichen Skalenniveau für die folgenden numerischen Abbildungen zulässig?

a. Nummern von Buslinien im Nahverkehr

b. Temperatur in Grad Celsius

  1. Nummern von Buslinien im Nahverkehr à maximal auf Nominalskala
  2. Temperatur in Grad Celsius à maximal auf Verhältnisskala

 

10. Geben Sie bitte für die beiden folgenden Beispiele an, ob die numerische Abbildung des empirischen Relativs homomorph ist:

  1. Nein, numerische Abbildung ist nicht homomorph.
  2. Nein, numerische Abbildung ist nicht homomorph.

 

Kapitel 2.3: Selbstberichtsverfahren: Befragung und Rating

 

1. Selbstauskünfte erfordern kognitive Prozesse aufseiten der Befragten. Wel­che wesentlichen Prozesse werden angenommen?

Der erste Prozess beinhaltet die Interpretation der Frage, d.h. die Beurteilung dessen, was der Forscher oder die Interviewerin mit der Frage meint.

Der zweite Prozess umfasst den Abruf und die Konstruktion eines eigenen Urteils, das die Beantwortung der Frage erlaubt.

Der dritte Prozess beinhaltet die Übersetzung des Urteils in eine kommunizierte Auskunft.

 

2. Mit welchen Einflüssen der Kommunikationssituation ist bei Selbstaus­künften in Befragungen zu rechnen? Welche kommunikationspsycho­logischen Prozesse sollten bei der Interpretation von Selbstberichten be­rücksichtigt werden?

Selbstauskünfte in Befragungen stellen einen intentionalen Akt der Kommunikation dar und implizieren somit auch eine Absicht des Senders, etwas mitzuteilen. Daher sollte ein Selbstbericht keinesfalls nur auf die übermittelte Information reduziert werden. Stattdessen ist zu bedenken, welche Intention die über sich selbst berichtende Person mit ihrer Mitteilung verfolgt.

Bei der Interpretation von Selbstberichten sollten folgende kommunikationspsychologische Aspekte berücksichtigt werden:

  • Interpretieren die Befragten die Frage/Themenstellung so, wie es die Forschenden vorgesehen haben?
  • Wie wird sichergestellt, dass die Befragten möglichst an diejenigen Aspekte oder Themen denken, die die Forschenden bei der Formulierung der Frage im Blick hatten?
  • Werden durch die Art der Befragung (z.B. durch die Wortwahl der Fragen) Informationen nahegelegt oder voraktiviert, die die Befragten zur Konstruktion einer Antwort oder eines Urteils heranziehen?
  • Inwiefern ist gewährleistet, dass die Befragten ihre intern gebildeten Urteile in eine Antwort umsetzen können und diese wiederum in das vorgegeben Format übersetzt werden kann?
  • Lassen sich die Absichten oder Motive der Befragten abschätzen, die der Mittelung von Antworten zugrunde liegen?

 

3. Wie unterscheiden sich schriftliche und mündliche Befragungen?

Die schriftliche Befragung wird mittels Fragebogen durchgeführt und sie findet häufiger in der quantitativen als in der qualitativen Forschung statt. Außerdem weisen schriftliche Befragungen oft einen höheren Grad an Standardisierung auf als Interviews und die Fragebögen enthalten meist geschlossene Fragen mit vorgegebenen Antworten. Demnach ist Vorwissen notwendig, um solche Fragen zu formulieren. Schließlich sind schriftliche Befragungen zu einem geringeren Maß mit dem Problem der Reaktivität behaftet, da sie eine größere Anonymität erlauben.

Die mündliche Befragung (Interview) ist hingegen für die qualitative Forschung typischer. Interviews haben oft keinen vorgegebenen, für alle Befragten identischen, Ablauf und sie sind stärker mit dem Problem der Reaktivität behaftet. Das heißt, dass soziale Beeinflussungs- und Übertragungseffekte aufgrund des Verhaltens der befragenden Person mit einer größeren Wahrscheinlichkeit stattfinden. Ein positiver Aspekt ist, dass Befragte meist eher bereit sind, sich in Interviews als in schriftlichen Befragungen zu äußern. Jedoch sind Interviews in der Regel aufwändiger und kostenintensiver.

 

4. Welche Aspekte sollten bei der Formulierung von Fragen in Befragungen beachtet werden?

Fragen sollten möglichst einfach und gut verständlich formuliert sein. Zu vermeiden sind daher ungebräuchliche Ausdrücke, Fachbegriffe oder Fremdwörter; lange, verschachtelte Sätze und ungewöhnliche Satzkonstruktionen; zu abstrakte oder komplizierte Sachverhalte. Außerdem sind Fragen problematisch, deren Beantwortung womöglich zu hohe Anforderungen an die mentale oder kognitive Leistungsfähigkeit der Befragten stellt, wie z.B. Fragen, die eine übermäßig präzise Gedächtnisleistung voraussetzen. Jedoch gelten die beiden genannten Hinweise nicht absolut, sondern relativ: eine adressatenorientierte Formulierung ist entscheidend. Des Weiteren sollten Fragen möglichst keine Verneinungen enthalten, sie sollten nicht überfrachtet sein und sie sollten keine Entscheidung bei unabhängig beantwortbaren Aspekten erzwingen. Ein Fragebogen sollte möglichst keine Fragen enthalten, die von Befragten vermutlich sehr ähnlich beantwortet werden, da dies nicht genug differenziert zwischen den Befragten und die Streuung damit gering bleibt. Schließlich sollten möglichst mehrere Items zur Beantwortung einer Frage eingesetzt werden, die Ausgewogenheit in der Reihenfolge der Fragen sollte beachtet werden und eine klare und informative Instruktion sollte gegeben werden.

 

5. Welche wesentlichen Entscheidungen sind bei der Konstruktion von Ratingskalen zu treffen?

Bei der Konstruktion von Ratingskalen muss entschieden werden, ob die Items die Form einer Frage oder Aussage haben, ob die Skalen unipolar und/oder bipolar formuliert sind und wie viele Stufen verwendet werden sollen. Zu beachten ist, dass eine ungerade Anzahl von Stufen einen neutralen Mittelpunkt suggeriert, was zu dem Ambivalenz-Indifferenz-Problem führt: Eine neutrale Beurteilung kann bedeuten, dass der Befragte entweder eine gleichgültige oder eine zwiespältige Einstellung hinsichtlich des fraglichen Gegenstandes hat. Abschließend muss entschieden werden, welche Bezeichnungen die Skalenstufen besitzen (numerische, verbale oder grafische).

 

6. Was ist ein Rating? Welche Urteilstendenzen können die Antworten auf Ratingskalen verzerren?

Ein Rating ist eine Form von Selbstberichtsverfahren, bei der Befragte Urteile auf einer numerisch interpretierbaren Skala abgeben.

Die folgenden Urteilstendenzen können die Antworten auf Ratingskalen verzerren:

  1. Eine Tendenz zur Mitte kann auftreten, wenn Urteilsobjekte wenig vertraut sind oder Unklarheit über die Endpunkte der Ratingskala besteht.
  2. Eine Folge ähnlicher Items kann zur gedankenlosen Reproduktion führen.
  3. Beim Primacy-Effekt können anfängliche Urteile folgende, ähnliche Urteile gleichsinnig beeinflussen.
  4. Beim Halo-Effekt kann die Beurteilung eines Objekts hinsichtlich verschiedener Merkmale durch das Urteil auf einem zentralen Merkmal beeinflusst werden.

 

7. Was ist ein semantisches Differenzial?

Das semantische Differenzial ist eine spezielle Form von Ratingverfahren. Es liefert Polaritätsprofile, die eine schnelle Orientierung über zentrale Merkmale bzw. Unterschiede zwischen Merkmalsträgern erlauben.

 

8. Welche Vorteile bieten Experience Sampling-Studien?

Allgemein verringert Experience Sampling Störeinflüsse, mit denen bei traditionellen Befragungen zu rechnen ist, vor allem Verzerrungen bei der Rekonstruktion von und vergangenem Erleben und Verhalten (Gedächtnisfehler, heuristische Vereinfachungen). Idealerweise bietet Experience Sampling Einsichten in die momentanen Zustände, die die Befragten erleben, und die (subjektiv wahrgenommenen) Kontexte, in denen diese Erlebnisse auftreten. Damit wird die ökologische (externe) Validität und die Validität der Messung gegenüber traditionellen Befragungen erhöht.

Genauer aufgeschlüsselt erlaubt das Verfahren, die folgenden Aspekte zu erforschen:
(a) Muster von Erleben und Verhalten einzelner Teilnehmender durch Aggregation über viele Messzeitpunkte; (b) Situiertheit von Erleben und Verhalten durch Berücksichtigung von Kontexteinflüssen; (c) die zeitliche Entwicklung von Erleben und Verhalten (stetiger Anstieg oder Abstieg, U-förmiger Verlauf, wellenförmige Entwicklung etc.); (d) Phänomene, die aus ethischen oder praktischen Gründen im Labor kaum oder gar nicht untersucht werden können (z. B. emotionale Reaktionen auf reale, alltagsrelevante Konflikte, Verletzungen oder Enttäuschungen).

 

9. Inwiefern kann die Datenerhebung in Experience Sampling-Studien mit dem Alltagsleben der Befragten interferieren? Wie kann diese Interferenz verringert werden?

Schon die Erwartung von Abfragen kann von Tätigkeiten ablenken oder die Art der Tätigkeiten und des Erlebens verändern (Reaktivität). Ein gewisses Ausmaß von Interferenz ist bei einer Befragungsmethode unvermeidlich. Um solche Störungen zu verringern, sollte sichergestellt werden, dass die interessierenden Verhaltensweisen (z. B. sportliche Aktivitäten oder Fahrradfahren) nicht verhindert werden (z.B. durch Instruktionen, während solcher Aktivitäten keine Endgeräte in der Nähe zu haben), dass die Abfragen noch hinreichend (mentale, physische, emotionale) Ressourcen für die Ausführung des interessierenden Verhaltens lassen und dass die Teilnehmenden ihren Lebensalltag nicht den Abfragen unterordnen (ebenfalls durch klare Instruktionen erreichbar).

 

Kapitel 2.4: Testen

 

1. Was ist ein psychologischer Test und welche Ziele werden mit ihm verfolgt?

Ein (psychologischer) Test ist ein wissenschaftliches Routineverfahren zu Untersuchung eines oder mehrerer empirisch unterscheidbarer Persönlichkeitsmerkmale mit dem Ziel einer möglichst genauen quantitativen Aussage über den relativen Grad der individuellen Merkmalsausprägung. Ein Test besteht in der Regel aus mehreren Aufgaben oder Fragen (Items), die von verschiedenen Menschen mit unterschiedlichen Fähigkeiten oder Eigenschaften unterschiedlich gelöst bzw. beantwortet werden.

In einem abstrakten methodischen Sinn wird ein Test auch als eine standardisierte Verhaltensstichprobe definiert, die aus Antworten auf eine Mehrzahl von Items besteht. Aus den Antworten wird der Testwert der untersuchten Person aggregiert.

 

2. Worin unterscheiden sich die klassische Testtheorie und die probabilisti­sche Testtheorie?

Der klassischen Testtheorie zufolge gehen in einen gemessenen Testwert der wahre Wert der Person und ein Fehleranteil (Messfehler) ein. Ziel ist die möglichst direkte und präzise Schätzung des wahren Werts. Durch den Einsatz mehrerer Testitems soll der Fehleranteil insgesamt minimiert werden.

Der probabilistischen Testtheorie zufolge sind Antworten auf Testitems Indikatoren von latenten Merkmalen; die Wahrscheinlichkeit, dass eine Person ein Item zur Erfassung eines Merkmals X positiv beantwortet, hängt von der (latenten) Ausprägung von X ab.

 

 

3. Was ist eine ICC und was stellt sie dar?

ICC ist die Abkürzung für „Item-Characteristic-Curve“. Eine ICC stellt den Zusammenhang zwischen dem Antwortverhalten (der Lösungswahrscheinlichkeit) auf der y-Achse und der Ausprägung des latenten Merkmals (der Fähigkeit) auf der x-Achse für verschiedene Items dar.

 

4. Worin bestehen die wesentlichen Unterschiede zwischen Leistungstests und Persönlichkeitstests?

Leistungstests setzen (vor allem kognitive) Merkmale zu einem objektiven Gütestandard in Beziehung. Zu dieser Art des Tests zählen Intelligenz- und Eignungstests. Um zwischen Leistungen unterschiedlicher Personen unterscheiden zu können, müssen in dem Test verschiedene Schwierigkeitsgrade realisiert sein. Dies kann durch Speed- oder Powertests erfolgen. Bei Speedtests ist die Bearbeitungszeit zu knapp angesetzt, so dass in der Regel nicht alle Aufgaben beantwortet werden können. Bei Powertests wird das Niveau der Aufgaben sukzessive gesteigert.

Persönlichkeitstests hingegen liefern Daten, die nicht im Hinblick auf objektive Leistungsmaßstäbe, sondern auf emotional, motivational und sozial relevante Persönlichkeitseigenschaften hin interpretiert werden. Hier wird zwischen subjektiven und objektiven Persönlichkeitstests unterschieden. Erstere sind leicht durchschaubar für die getestete Person, während bei den letzteren versucht wird, den Zweck zu verschleiern.

 

5. Welche wünschenswerten Eigenschaften sollten Tests und Testitems auf­weisen? Was bezeichnet die Reliabilität eines Tests? Welche Arten der Validität eines Tests können unterschieden werden?

Zunächst sollten die Testitems einer Testskala homogen sein, d.h. ein einziges und nicht mehrere verschiedene Merkmale erfassen. Die Testskala sollte eine differenzierte Erfassung des interessierenden Merkmals erlauben, d.h. möglichst viele Ausprägungsgrade des Merkmals erfassen. Außerdem muss eine Testskala distinktionsfähig sein, d.h. eine eindeutige Unterscheidung zwischen Personen mit hoher und geringer Merkmalsausprägung ermöglichen. Darüber hinaus ist es unabdingbar, dass der Test und das ermittelte Ergebnis objektiv sind, also unabhängig von der Person, die den Test durchführt, auswertet und interpretiert.

Mit der Reliabilität eines Tests ist gemeint, dass die ermittelten Testwerte verlässlich sind und der Test die Merkmalsausprägung ohne zu große Schwankungen erfasst. Die Reliabilität eines Tests kann berechnet werden durch die Retestreliabilität, die Paralleltestreliabilität, die Testhalbierungsreliabilität oder die interne Konsistenz.

Das Kriterium der Validität betrifft die Gültigkeit des Tests. Unterschieden werden Konstruktvalidität und Kriteriumsvalidität. Die Konstruktvalidität ergibt sich aus den Relationen zu theoretisch verwandten und entfernten Konstrukten bzw. dem Vergleich mit Tests, die diese anderen Konstrukte erfassen. Dabei bezeichnet die konvergente Validität die Übereinstimmung mit als ähnlich angenommenen Tests; die diskriminante Validität bezeichnet die Abweichung von als unähnlich angenommenen Tests. Bei der Kriteriumvalidität werden externe Kriterien herangezogen, um die Validität eines Tests zu bestimmen. Dabei kann die Übereinstimmung zwischen Test und Kriterium zum selben Zeitpunkt (simultane Kriteriumsvalidität) oder das Zutreffen einer Vorhersage des Kriteriums aus dem Test (Validität der Kriteriumsvorhersage) unterschieden werden.

 

6. Was ist mit der Schwierigkeit und der Trennschärfe von Testitems ge­meint? Worin besteht ihr Zusammenhang?

Die Schwierigkeit von Testitems ist der Prozentsatz aller untersuchten Personen, die das Item gelöst bzw. positiv beantwortet haben. Obwohl der Begriff einen engen Bezug zu Leistungstests ausweist, kann er doch auch auf Persönlichkeitstests angewendet werden – obgleich er in diesem Fall nicht mit dem Alltagsverständnis von Schwierigkeit übereinstimmt. Bei der Testkonstruktion wird oft eine breitere Streuung der Schwierigkeiten angestrebt, damit der Testwert über das gesamte Spektrum zwischen Personen mit verschiedenen Merkmalsausprägungen differenziert.

Der Trennschärfe eines Items ist zu entnehmen, wie gut das gesamte Testergebnis aufgrund der Beantwortung dieses einzelnen Items vorhersagbar ist. Damit gibt die Trennschärfe an, wie gut ein einzelnes Item den gesamten Test repräsentiert. Somit erreichen Personen, die einen hohen (niedrigen) Gesamttestwert aufweisen, auf einem trennscharfen Einzelitem eben einen hohen (niedrigen) Wert.

Ihr Zusammenhang besteht darin, dass bei einer Steigerung der Schwierigkeit von Testitems die Trennschärfe geringer wird.

 

7. Welche möglichen Verfälschungen können bei Tests auftreten und welche Gegenmaßnahmen können eingesetzt werden?

Leistungstests können durch das Erraten der richtigen Antwort verfälscht werden. Gegenmaßnahmen sind der Einsatz von Distraktoren oder die Ratekorrektur.

Die Ergebnisse von Persönlichkeitstests können verfälscht werden durch das Bemühen um positive Selbstdarstellung, die Orientierung an sozialer Erwünschtheit und schematische Antworttendenzen der untersuchten Personen. Eine Gegenmaßnahme zur Verringerung von Testverfälschungen besteht darin, die Antwortvorgaben auszubalancieren. Eine weitere Möglichkeit ist es, die Untersuchten zu korrektem Antwortverhalten aufzufordern. Des Weiteren können Kontrollskalen eingesetzt werden, die anhand von Angaben zu eindeutig antinormativen, aber trotzdem geläufigen Verhaltensweisen, die Tendenz von Personen, sozial erwünscht zu antworten, erfassen. Schließlich kann die Randomized-Response-Technik eingesetzt werden, die durch die Vorgabe einer Regel für zufällige unehrliche Antworten auf der Gruppenebene die Schätzungen von Antwortverfälschungen erlaubt.

 

8. Wie funktioniert die Randomized-Response-Technik?

Die Befragten werden bei der Randomized-Response-Technik aufgefordert, den Wahrheitsgehalt ihrer Antwort bei jeder einzelnen Frage von einem nur ihnen bekannten Zufallsereignis (z.B. Augenzahl eines Würfels) abhängig zu machen. Eine Instruktion könnte zum Beispiel sein, eine Frage nur dann wahrheitsgemäß zu beantworten, wenn eine Eins, Zwei, Vier oder Sechs gewürfelt wird und die Frage in jedem Fall zu bejahen, wenn eine Drei oder Fünf gewürfelt wird. Da der/die Testleiter/in die das Ergebnis des Würfelns nicht kennt, ist bei der Auswertung nicht bekannt, ob eine Frage wahrheitsgemäß beantwortet wurde oder nicht. Da die befragte Person dies weiß, kann sie je nach Zufallsereignis wahrheitsgemäß antworten. Auf der Gruppenebene kann dann die Wahrscheinlichkeit einer Verfälschung geschätzt werden, indem eine Stichprobe der Randomized-Response-Technik mit einer Stichprobe verglichen wird, die den Test ohne diese Technik beantwortet hat.

 

Kapitel 2.5: Biopsychologische und neurowissenschaftliche Messungen

 

1. Was sind die besonderen Vorteile biopsychologischer Methoden gegen­über anderen Methoden der Psychologie?

Biopsychologische Methoden bieten direktere Einblicke in die zugrunde liegenden Prozesse vieler psychologischer Phänomene als andere Methoden der Psychologie. Damit erscheint es zunehmend möglich, die biologischen bzw. neuronalen Grundlagen dieser Phänomene zu erhellen. Ein weiterer Vorteil ist, dass Messungen von biologischen Indikatoren das Risiko der gezielten Einflussnahme oder Verfälschung von Daten durch die untersuchten Personen verringern. Biopsychologische Messungen können auch als ergänzende Datenquelle dienen, d.h. in Kombination mit anderen Messungen und einer angemessenen psychologischen Theorie gewinnbringend in Forschung und Praxis eingesetzt werden.

Daraus folgt, dass die Erforschung der wechselseitigen Einflüsse zwischen biologischen und psychischen Prozessen zu einem verbesserten, stärker integrierten Verständnis der erforschten Phänomene beitragen kann.

 

2. Was sind nicht invasive Messmethoden?

Nichtinvasive Methoden kommen ohne ein Eindringen unter die Körperoberfläche bzw. in das organische Gewebe aus. Bei nichtinvasiven Methoden werden verschiedene Biosignale (z.B. elektrische Ströme oder Felder) aufgezeichnet und, zumeist mithilfe von Computern, weiterverarbeitet.

 

3. Welche Messverfahren erfassen Indikatoren der Aktivität des zentralen Nervensystems?

Es lassen sich im Wesentlichen drei verschiedene Klassen von Methoden zur Registrierung der Gehirnaktivität unterscheiden:

  • Verfahren zu Aufzeichnung von elektrischen Potenzialen, die durch die elektrochemische Aktivität von Gehirnneuronen entstehen, vor allem mittels des Elektroenzephalogramms (EEG);
  • Verfahren zur Registrierung von Magnetfeldern, die durch elektrische Potenziale von Gehirnneuronen entstehen, vor allem mit dem Magnetenzephalogramm (MEG);
  • Bildgebende Verfahren, die die Struktur und Funktion des Gehirns durch weiträumige Abbildungen wiedergeben.

 

4. Worin besteht der Unterschied zwischen der Spontanaktivität und evozier­ten Potenzialen bei EEG-Messungen? Über welche psychologischen Phä­nomene können evozierte Potenziale Auskunft geben?

Bei der Spontanaktivität handelt es sich um ständig auftretende rhythmische Potenzialänderungen mit einer Frequenz von 0,5 bis maximal 100Hz und Amplituden von 1 bis 100μV (Mikrovolt). Bei evozierten Potenzialen hingegen handelt es sich um kurzzeitige (d.h. weniger als 1 Sekunde andauernde) Reaktionen auf innere oder äußere Reize, die einen komplexen Verlauf mit interpretierbaren Höhe- und Tiefpunkten aufweisen.

Psychologische relevant sind vor allem lokale Maxima und Minima evozierter Potenziale, die bei bestimmten sensorischen, motorischen und mentalen Prozessen auftreten. Je nach Ausschlag in positive (P) oder negative (N) Richtung und zeitlichem Intervall nach Beginn eines Reizes (z.B. 100 oder 300ms) werden charakteristische Komponenten (wie P300 oder N100) von evozierten Potenzialen identifiziert und verschiedenen Arten der Reizverarbeitung in Verbindung gebracht. So tritt die P3-Komponente deutlich hervor, wenn Personen Reize wahrnehmen, die ihre Erwartungen verletzen und daher auffällig sind. Ein anderes Beispiel ist die N1-Komponente, die als das früheste Anzeichen für die Verarbeitung eines Reizes, dem eine Person Aufmerksamkeit widmet, interpretiert wird.

 

5. Was sind Tracer und bei welchen biopsychologischen Messungen werden sie eingesetzt?

Tracer sind radioaktive Markierungssubstanzen, die in den Körper der untersuchten Personen eingebracht werden (oft durch Injektion in den Blutkreislauf). Die wichtigsten Messungen mit Tracern sind die Positronenemissionstomografie (PET) sowie die Single-Photon-Emissions-Computertomografie (SPECT).

 

6. Was ist das Funktionsprinzip von MRT und fMRT, und welche psycho­logisch relevanten Phänomene lassen sich mit diesen erfassen? Worin be­stehen die Hauptunterschiede zwischen den beiden Verfahren?

Die Magnetresonanztomografie (MRT) nutzt die Eigenschaften von Protonen von Wasserstoffatomen innerhalb eines starken stabilen Hauptmagnetfelds, in das zusätzlich elektromagnetische Energie eingestrahlt wird. Magnetische Resonanz entsteht, wenn die extern erzeugte elektromagnetische Frequenz und die Kernspinfrequenz der Protonen übereinstimmen. Diese Resonanz führt dazu, dass die sich weiterhin drehenden Protonen aus ihrer ursprünglichen parallelen Ausrichtung im stabilen Hauptmagnetfeld „wegkippen“ und ins Torkeln geraten (eine Präzessionsbewegung ausführen). Wird das externe elektromagnetische Feld nun wieder ausgeschaltet, kippen die Protonen wieder in ihre Ausgangsrichtung parallel zum stabilen Hauptmagnetfeld zurück (Relaxation). Aus der Zeit zwischen Erlöschen des externen Frequenzfeldes und dem Auftreten der Relaxationssignale schließt man auf die Art des Gewebes (Gehirnflüssigkeit, Fett oder Nervenzellen), in dem sich die reagierenden Wasserstoffprotonen befinden.

Die funktionelle Magnetresonanztomografie (fMRT) nutzt magnetische Effekte der Anreicherung aktiver ZNS-Regionen mit sauerstoffreichem Hämoglobin, um psychische Funktionen und Prozesse bildhaft darzustellen. Das Grundprinzip ist folgendes: Wenn eine Region im ZNS aktiv ist, wird sie mit mehr Blut versorgt, um den Bedarf an Sauerstoff zu decken. Als Resultat entsteht in dieser Region kurzzeitig ein Überangebot an Sauerstoff, was sich in einem größeren Anteil von sauerstoffreichem Hämoglobin gegenüber sauerstoffarmem Hämoglobin niederschlägt. Aufgrund der ferromagnetischen Eigenschaften von Hämoglobin geht dieses Ungleichgewicht zugunsten des sauerstoffreichen Hämoglobins mit einer Magnetfeldverschiebung einher. Dieser magnetische Effekt wird bei der fMRT ausgenutzt, um auf den zerebralen Blutfluss und damit die Aktivierung der umgebenden Neurone zu schließen. Im abschließenden Schritt der Bilderstellung werden diejenigen Hirnareale farblich hervorgehoben, die in einem bestimmten Moment überdurchschnittlich aktiviert sind. Bei der fMRT gibt es zum Beispiel Fortschritte bei der Erforschung sozial-kognitiver Phänomene, etwa der neuronalen Korrelate von Empathie, Perspektivübernahme und Theory of Mind.

Die Hauptunterschiede der beiden Verfahren bestehen darin, dass die MRT Eigenschaften von Protonen von Wasserstoffatomen nutzt, während die fMRT die magnetischen Effekte sauerstoffreichen Hämoglobins ausnutzt. Die fMRT geht über die MRT hinaus, da sie nicht nur die Identifikation eines Gewebes anstrebt, sondern psychologisch relevante Funktionen abzubilden versucht.

 

7. Welche Arten von Artefakten können biopsychologische Messungen be­einflussen? Was sind typische Artefakte bei einer EEG-Messung?

Im Wesentlichen lassen sich drei Arten von Artefakten unterscheiden:

  • Artefakte physiologischer Herkunft, wie z.B. Muskelaktivitäten, die eigentlich nicht erfasst werden sollen;
  • Bewegungsartefakte, d.h. Bewegungen der untersuchten Person oder der Messapparatur;
  • Artefakte durch externe Einstreuungen, d.h. Signale aus externen Quellen (z.B. von Radiosendern oder elektrischen Geräten).

Zum Beispiel können elektrische Biosignale wie Gehirnströme (EEG) durch Signale überlagert werden, die auf elementare Muskelaktivitäten zurückgehen.

 

Kapitel 2.6: Online-Datenerhebung

 

1. Welche Möglichkeiten und Vorteile bietet die Datenerhebung im Internet für die psychologische Forschung?

Es lassen sich zwei Klassen von Vorteilen unterscheiden. Zum einen steigert die Online-Datenerhebung die Effizienz bzw. das Verhältnis von Aufwand zu Kosten und erleichtert die Datenerhebung (quantitativer Aspekt). Zum anderen ergeben sich durch die Nutzung des Internets neuartige Forschungsmöglichkeiten und -themen (qualitativer Aspekt).

Zudem ermöglicht die Datenerhebung im Internet, Stichproben mit hochspezifischen Merkmalen leichter zu erreichen. Darüber hinaus nehmen Personen in der Regel freiwillig an Internetstudien teil, was vermutlich in einem größeren Ausmaß zur Rezeption und Bearbeitung von Aufgaben motiviert.

Die größere Freiwilligkeit der Teilnahme ist auch aus forschungsethischer Sicht positiv zu bewerten. Ebenso ist die forschungsethisch relevante Zusicherung, dass Teilnehmer*innen jederzeit ein Abbruch der Teilnahme ohne Nachteile freisteht, in Online-Studien leichter umsetzbar: Die Teilnehmer*innen müssen hierzu lediglich den Browser schließen und müssen nicht mit Rechtfertigungsdruck gegenüber der (im Labor meist anwesenden) Versuchsleitung rechnen.

Schließlich bietet die Datenerhebung im Internet eine größere Transparenz und Überprüfbarkeit für andere Forschende.

 

2. Wie ist die Freiwilligkeit der Teilnahme an „Online-Studien“ zu be­urteilen?

Die Freiwilligkeit der Teilnahme an Internetstudien ist aus forschungsethischer Sicht positiv zu bewerten, da an Internetstudien Teilnehmende insgesamt vermutlich in einem größeren Ausmaß zur Rezeption und Bearbeitung von Aufgaben motiviert sind als studentische Versuchspersonen, die durch bestimmte Vorgaben zur Teilnahme bewegt werden.

 

3. Welche neuartigen Forschungsthemen und -gegenstände erlauben „On­line-Studien“?

Zu neuen Forschungsthemen zählen bestimmte Aspekte von Interaktions-, Kommunikations- und Gruppenprozessen. Zum Beispiel gehören dazu die Struktur globaler sozialer Netzwerke, die Konstruktion von Identitäten in „multi user domains“ oder die Verbreitung von Gerüchten in Chat-Foren, Newsgroups oder Mailinglisten. Schließlich ergeben sich aus der Nutzung des Internets auch gänzlich neuartige Forschungsthemen wie etwa der Entwurf von und das Spiel mit alternativen Identitäten, die Auswirkungen computervermittelter Kommunikation auf interpersonelle Wahrnehmung, der Einfluss von WWW-Inhalten auf die Entwicklung von Kindern und Jugendlichen oder die Ausbildung von Vorurteilen.

 

4. Welche Risiken und Nachteile sind bei der Online-Datenerhebung zu be­achten?

Risiken und Nachteile der Internet-Datenerhebung betreffen die Güte der Untersuchung sowie Aspekte der Forschungsethik (s. auch Frage 7). Zum Aspekt der Güte der Untersuchung zählt, dass die Repräsentativität der Stichproben verringert wird und damit die Befunde weniger generalisierbar sind. Darüber hinaus ist es schwieriger die Bedingungen der Datenerhebung bzw. die Einhaltung von Instruktionen zu kontrollieren.

 

5. Worin liegt die Effizienzsteigerung bei der Datenerhebung im Internet?

Bei Datenerhebungen im Internet können im Prinzip sehr große Stichproben untersucht werden können, wodurch wiederum die Teststärke für Signifikanztests steigt. Datenerhebungen im Internet können außerdem mit geringem Zeitaufwand erfolgen, u.a. aufgrund der großen Verbreitung und Flexibilität. Hinzu kommt, dass die Datenerhebung aufgrund der Automatisierung ohne Versuchsleitung und mögliche Versuchsleitereffekte auskommt. Zudem ist der Teilnehmerkreis bei Internetstudien im Vergleich zu Laborstudien potenziell erweitert und diverser.

 

6. Wie ist die Güte von Online-Studien zu bewerten?

Online-Experimente weisen aufgrund der größeren Bandbreite und Repräsentativität der Stichprobe eine höhere externe Validität auf als Laborexperimente. Jedoch ist die interne Validität aufgrund der geringeren experimentellen Kontrolle über die Bedingungen, unter denen die Teilnehmer*innen das Experiment absolvieren, potenziell geringer. Auch die Präzision von Online-Experimenten ist potenziell reduziert, vor allem durch die größere Fehlervarianz, beispielsweise aufgrund von Ablenkung, einer größeren Streuung der Tageszeiten bei der Versuchsdurchführung oder Nichtbefolgung der Instruktionen (u. a. aufgrund der Distanz zur Versuchsleitung).

 

7. Welche speziellen forschungsethischen Probleme werfen Online-Studien auf?

Zu forschungsethischen Risiken zählt die erschwerte Prüfung der Identifizierbarkeit der Teilnehmenden. Es ist weniger eindeutig bei Internetstudien, ob die Teilnehmenden identifizierbar sind oder ob Anonymität gewährleistet ist. Außerdem ist es aufgrund der fehlenden Interaktion zwischen Forschenden und Untersuchten in Internetstudien schwieriger, Gefährdungen der Untersuchten festzustellen. Schließlich ist es ebenfalls schwieriger zu überprüfen, ob die Untersuchten forschungsethisch relevante Informationen lesen und verstehen.

 

8. Wie ist das Reaktivitätsproblem bei Online-Studien im Vergleich zu Laborstudien zu beurteilen?

Daten aus Online-Studien können ohne Kenntnis der untersuchten Personen aufgezeichnet werden. Dies verringert das Reaktivitätsproblem (allerdings stellt sich die forschungsethische Frage nach der Zustimmung zur Teilnahme).

 

9. Wie kann die unerwünschte Mehrfachteilnahme an derselben On­line-Studie kontrolliert werden? Wie kann die Ernsthaftigkeit der Teil­nahme an diesen Studien erhöht werden?

Um eine unerwünschte Mehrfachteilnahme an derselben Internetstudie zu kontrollieren, sollten zumindest minimale Informationen zur Identität der Befragten angefordert werden wie z.B. E-Mail-Adresse oder IP-Adresse. Die Ernsthaftigkeit der Teilnahme an diesen Studien kann durch vertraute Kommunikationsformen, eine Personalisierung der Interaktion oder eine Offenlegung von Hintergrundinformationen über die Studie bzw. die Forscherinnen und Forscher erhöht werden.

 

10. Welche Vor- und Nachteile weisen Online-Experimente auf? Geben Sie ein Beispiel für eine Einschränkung der internen Validität bei Online-Experimenten.

Web-Experimente weisen im Vergleich zu Labor-Experimenten potenziell eine höhere externe Validität, aber geringere interne Validität auf. Ein Beispiel für eine Einschränkung der internen Validität ist ein Experiment, das den Einfluss der Schwierigkeit von Aufgaben auf Lernmotivation und Lernerfolg erfassen soll. Versuchspersonen können in einem Web-Experiment viel eher auf externe Hilfestellungen zurückgreifen als Versuchspersonen in einem Laborexperiment. Da die Motivation zur unerwünschten Nutzung von Hilfsmitteln in der Bedingung „hohe Aufgabenschwierigkeit“ vermutlich besonders ausgeprägt ist, besteht die Gefahr, dass die interne Validität des Experiments stark eingeschränkt ist.

 

 

zurück zur Inhaltsübersicht

 

Kapitel 3 - Quantitative Forschungsansätze

 

Kapitel 3.1: Grundlagen

 

1. Welche Hypothesenebenen gibt es?

Man unterscheidet zwischen der Ebene der

  • theoretisch-inhaltlichen Hypothese (TIH),
  • empirisch-inhaltlichen Hypothese (EIH),
  • statistischen Vorhersage (SV) und
  • Testhypothesen (THn).

 

2. Weshalb muss man inhaltliche Hypothesen zum Zweck ihrer statistischen Überprüfung ableiten?

Hintergrund für die Konkretisierungsschritte ist die Erkenntnis, dass inhaltliche Hypothesen statistisch nicht prüfbar sind, sondern zunächst in eine Sprache überführt werden müssen, die einer statistischen Überprüfung zugänglich ist.

 

3. Welches Entscheidungskriterium wird herangezogen, um über Testhypothesen zu entscheiden?

Das alleinige Entscheidungskriterium auf dieser Hypothesenebene (sowie auf der Ebene der statistischen Vorhersage) ist die statistische Signifikanz.

 

4. Was versteht man unter einer Effektgröße? Warum ist deren Berücksichtigung bei der Hypothesenentscheidung relevant?

Die Effektgröße drückt aus, inwiefern ein Mittelwertsunterschied nicht nur statistisch, sondern auch psychologisch-inhaltlich (also praktisch) bedeutsam ist. Während die Wahrscheinlichkeit, im Hypothesentest ein signifikantes Ergebnis zu erhalten, mit der Größe der Stichprobe steigt, ist die Effektstärke unabhängig von der Stichprobengröße.

 

5. Was ist mit der Repräsentativität von Stichproben gemeint?

Repräsentativität bezeichnet das Ausmaß in dem die Verteilung (relevanter) Merkmale in der Stichprobe der Verteilung dieser Merkmale in der Population entspricht. Streng genommen kann man nur auf Basis repräsentativer Stichproben Schlüsse auf die Grundgesamtheit ziehen.

 

6. Welche Arten von Zufallsstichproben werden unterschieden?

-           die einfache,

-           die geschichtete und

-           die mehrstufige Zufallsstichprobe sowie

-           die Klumpenstichprobe

 

Kapitel 3.2: Experiment

 

1. Was sind Merkmale des experimentellen Vorgehens?

Unter einem Experiment versteht man die systematische Beobachtung einer abhängigen Variablen unter verschiedenen Bedingungen einer unabhängigen Variablen bei gleichzeitiger Kontrolle der Störvariablen, wobei die zufällige Zuordnung von Probanden und experimentellen Bedingungen gewährleistet sein muss.

 

2. Was sind Störvariablen und weshalb muss man sie kontrollieren?

Es gibt neben der unabhängigen Variablen (UV) weitere Einflussgrößen auf die abhängige Variable (AV), die man Störvariablen nennt. Zu Störvariablen werden andere Einflussgrößen erst dann, wenn sie systematisch mit den Stufen einer UV variieren und auf die AV einwirken. Diesen Sachverhalt nennt man Konfundierung. Zu verhindern ist also die systematische Variation einer potenziellen Einflussgröße mit den Stufen einer oder mehrerer UVn, weil man bei einer vorliegenden Konfundierung nicht eindeutig bestimmen kann, ob ein beobachteter Effekt auf der AV durch die UV, durch Störvariablen oder durch beides bedingt ist und somit keine eindeutige Kausalaussage getroffen werden kann.

 

3. Wie kann man Störvariablen kontrollieren?

Folgende Kontrolltechniken können für die allgemeinen Störeffekte eingesetzt werden:

  • Konstanthaltung,
  • Elimination,
  • systematische Variation,
  • zufällige Variation,
  • Randomisieren,
  • Parallelisieren,
  • Blindversuche.

Die speziellen Störeffekte werden durch Ausbalancieren kontrolliert. Eine vollständige Kontrolle der Sequenzeffekte gewährleistet alleine das vollständige interindividuelle Ausbalancieren.

 

4. Was ist eine Versuchsplananlage?

Unter einer Versuchsplananlage (VPL-A) versteht man eine Menge von bewährten Schemata zur Anordnung von unabhängigen Variablen (Faktoren) und ihren Ausprägungen (Stufen), mit deren Hilfe eine möglichst informationshaltige und gleichzeitig ökonomische symbolische Repräsentation der Variablenausprägungen (Faktorstufen) erreicht werden kann.

 

5. Wie unterscheidet sie sich von einem Versuchsplan?

Unter einem Versuchsplan versteht man eine möglichst konkrete Handlungsanweisung zur Erhebung von Daten zum Zweck der ökonomischen, validen und präzisen experimentellen Hypothesenprüfung. Die Konkretisierung erfolgt auf der Grundlage einer zugehörigen Versuchsplananlage und mithilfe folgender vier Entscheidungen, die die Bedingungen angeben, unter welchen die Vpn beobachtet werden:

  • vollständige oder teilweise Realisierung der angelegten Zellen,
  • Bestimmung der Anzahl der Beobachtungen pro Zelle,
  • interindividuelle oder intraindividuelle Bedingungsvariation,
  • randomisierte oder nichtrandomisierte Zuordnung der Vpn zu den Zellen.

 

6. Geben Sie je ein Beispiel für einen mehrfaktoriellen reinen bzw. gemischten Versuchsplan.

Ein VPL2RR ist ein (reiner) zweifaktorieller, vollrandomisierter Versuchsplan. In diesem Versuchsplan werden die Vpn nur unter einer experimentellen Bedingungskombination beobachtet. Es gibt bspw. den Faktor A “Tageszeit“ und den Faktor B „Pausen“ mit jeweils zwei Stufen. In diesem Plan mit 2x2 Bedingungskombinationen werden die Vpn nur unter einer der vier möglichen Bedingungen erfasst.

Ein VPL2RQ ist ein (gemischter) zweifaktorieller Versuchsplan mit dem randomisierten Faktor A „Tageszeit“ und dem messwiederholten Faktor B „Pausen“. In diesem Versuchsplan werden die Vpn in beiden Stufen des Faktors B beobachtet.

Ein reiner Versuchsplan liegt somit vor, wenn beide (alle) Faktoren eines Plans entweder randomisiert oder messwiederholt sind. Alle anderen Pläne nennt man gemischt.

 

7. Worin unterscheiden sich Haupteffekt und einfacher Haupteffekt?

Ein Haupteffekt (HE) zeigt sich im Vergleich der Mittelwerte der Stufen des Faktors. Sind die Mittelwerte gleich oder nur wenig unterschiedlich, so liegt kein HE vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der Effekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist (Vergleich der Zeilen- bzw. Spaltenmittelwerte)

Ein einfacher Haupteffekt (EHE) zeigt sich im zeilen- bzw. spaltenweisen Vergleich der Zellmittelwerte in einer Stufe des jeweils anderen Faktors. Sind die Zellmittelwerte gleich oder nur wenig unterschiedlich, so liegt kein EHE vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der Effekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist (zeilen- bzw. spaltenweiser Vergleich der Zellmittelwerte).

 

8. Wie hängt die interne Validität mit der Kontrolle von Störvariablen zusammen?

Die interne Validität eines Experiments ist gegeben, wenn Veränderungen in der AV ausschließlich auf die Variation der UV zurückgeführt werden können. Diese Kausalinterpretation versucht man durch die Kontrolle der Störvariablen zu erreichen. Einschränkungen in der internen Validität durch mangelnde Kontrolle der Störvariablen führen dazu, dass die Kausalinterpretationen lediglich vorläufigen Charakter besitzen und weiterer experimenteller Bestätigung bedürfen.

 

9. Wie kann man die Präzision einer experimentellen Hypothesenprüfung erhöhen?

Das Ziel besteht darin, mögliche Fehlerquellen (Sekundärvarianz) zu minimieren (z. B. durch die Kontrolle von Störvariablen) und die Wirkung der experimentellen Variablen (Primärvarianz) zu maximieren (z. B. durch optimale Operationalisierung von UV und AV), damit die Relation von Primär- zu Sekundärvarianz möglichst zu Gunsten der Primärvarianz ausfällt und damit die Möglichkeit gegeben ist (bleibt), die Hypothese realitätsadäquat zu entscheiden.

 

10. Wie unterscheiden sich Labor- und Feldexperiment hinsichtlich der verschiedenen Aspekte der Validität?

Das Ziel des Labor-Experiments besteht in der intern validen Hypothesenprüfung, die eine optimale Kausalinterpretation zwischen UV und AV ermöglicht. Durch die künstliche Untersuchungssituation unter kontrollierten Bedingungen, sind Abstriche hinsichtlich der externen Validität zu machen. Das Feldexperiment findet in einer natürlichen Situation statt, wodurch die Möglichkeiten der Kontrolle von Störvariablen reduziert sind. Hieraus resultiert zwangsläufig eine geringere interne Validität des Feldexperiments im Vergleich zum Laborexperiment. Auf der anderen Seite führt die Nähe zur natürlichen Umgebung zu einer erleichterten Übertragbarkeit der Ergebnisse der Hypothesenprüfung auf andere Situationen und dadurch zu einer erhöhten externen Validität bzw. einem größeren Geltungsbereich.

 

11. Wann ist der experimentelle Ansatz die Methode der Wahl und wann nicht?

Die Auswahl eines Forschungsansatzes sollte immer an den Zielsetzungen der Untersuchung orientiert sein. Die Stärke von (Labor-)Experimenten liegt darin Kausalhypothesen zu überprüfen. Ist dies die Zielsetzung der Untersuchung, ist somit ein experimenteller Untersuchungsansatz angezeigt. Gibt es andere Wege, die Frage zuverlässig und gültig zu beantworten, so kann nach Ökonomieprinzipien entschieden werden, da Experimente häufig sehr aufwändig sind. Steht zudem die externe Validität im Vordergrund, so ist zumindest das Laborexperiment nicht die Methode der Wahl. Schließlich gibt es viele Konstellationen in der Psychologie und den Sozialwissenschaften, in denen der Untersuchungsgegenstand oder die Rahmenbedingungen die Umsetzung relevanter Aspekte des Experiments verhindern. Auch dann müssen Varianten des Experiments oder andere nichtexperimentelle Forschungsansätze zum Einsatz kommen.

 

 

Kapitel 3.3: Nichtexperimentelle Forschungsansätze

 

1. Für welche Art von Fragestellungen sind Korrelationsstudien gut geeignet?

Korrelationsstudien sind die am häufigsten anzutreffende Art quantitativ empirischer Untersuchungen. Sie sind geeignet, um (komplexe) Zusammenhänge zwischen verschiedenen Variablen sowie zeitliche Verläufe zu analysieren und zu beschreiben. Dabei dürfen die Ergebnisse aufgrund der starken Einschränkungen der internen Validität in aller Regel nicht kausal interpretiert werden.

 

2. Wie verhält es sich mit der erkennbaren Tendenz, Korrelationen kausal zu interpretieren?

Die Problematik der fälschlichen Kausalinterpretation von festgestellten Zusammenhängen zwischen zwei Variablen ist nicht als Schwachpunkt der Methode der Korrelationsstudie zu sehen, sondern Ergebnis einer immer wieder beobachtbaren Tendenz von Wissenschaftler*innen oder auch Journalist*innen zum kausalen Denken und Interpretieren. Mit Korrelationsstudien kann man beschreiben, aber nicht erklären. Den Beschreibungsschwerpunkt bilden die Zusammenhänge zwischen den am interessierenden Sachverhalt beteiligten Variablen.

 

3. Welche Aspekte sind bei der Umfrageforschung von besonderer Relevanz?

Die Umfrageforschung sammelt standardisierte Informationen zu einem spezifischen Fragegegenstand (Wahl, Produktbeliebtheit, Klimawandel, Gesundheitszustand usw.), indem eine repräsentative Stichprobe der jeweiligen Population befragt (interviewt) wird. Ziel der Umfrageforschung ist die Erhebung eines zutreffenden Meinungsbilds.

 

4. Was ist ein Panel?

Die Panelforschung ist eine Spezialform der Umfrageforschung. Dabei wird im Panel dieselbe repräsentative Gruppe von Personen wiederholt (in regelmäßigen Abständen) befragt bzw. interviewt.

 

5. Was sind Stärken und Herausforderungen der Panelforschung?

Panels haben den Vorteil, dass eine (bestehende) repräsentative Stichprobe mehrfach befragt werden kann und nicht immer neu zusammengestellt werden muss. Nur so lassen sich echte Entwicklungsverläufe nachzeichnen. Andererseits sind solche längsschnittlichen Erhebungen auch sehr (kosten-)aufwändig und bringen eigene methodische Herausforderungen mit sich (Panelmortalität, Veränderungen der Population, Konstanthaltung vs. Anpassung des Erhebungsinstruments, Störeffekte durch wiederholte Befragung).

 

6. Wie unterscheiden sich Metaanalyse und systematisches Review?

Verschiedene Varianten des Reviews und die Metaanalyse dienen dazu, den Stand der Forschung aufzubereiten. Das Review, stellt einen Überblicksartikel (Sammelreferat) dar, in welchem die vorfindbare Literatur zu einem bestimmten Themenbereich besprochen, bewertet und integriert wird. Dadurch kann ein detailliertes Bild über die bisherigen Forschungsbemühungen in einem bestimmten Themenfeld und deren Ergebnisse entstehen. Als Nachteil dieser Vorgehensweise wird angesehen, dass die Bewertung und Zusammenfassung von Ergebnissen in Textform immer einer gewissen Subjektivität unterliegen. Verschiedene Formen des Reviews unterscheiden sich unter anderem im Ausmaß ihrer Systematik. Der Subjektivität kann durch eine große Systematik (z. B. in Form des „systematic review“) bei der Recherche, Auswahl und Darstellung der Studien und ihrer Ergebnisse zu einem gewissen Maß entgegengewirkt werden. Die Metaanalyse strebt eine noch stärkere Standardisierung und Objektivierung an. Sie ist eine Methode mit deren Hilfe die Ergebnisse bisheriger Studien zu einem Forschungsgebiet in Form statistischer Kennwerte zusammengefasst werden. Im Mittelpunkt steht dabei die Frage, ob in dem untersuchten Themenfeld ein bestimmter Effekt vorliegt und wenn ja, wie groß er ist (Effektstärke).

 

7. Was versteht man unter dem „Müll-rein-Müll-raus“-Problem der Metaanalyse?

Das „Müll-rein-Müll-raus“-Problem thematisiert die unterschiedliche Qualität von Studien. Kann man reliable und valide Ergebnisse der Metaanalyse erwarten, wenn die Primärstudien aus methodischer Sicht (gravierende) Mängel enthalten? Zwei Lösungswege werden beschritten: Das Benutzen von Ausschlusskriterien oder die Einführung einer Moderatorvariablen. Ausschlusskriterien stehen für Mindeststandards, die erfüllt sein müssen, damit die Studie weiter in der Analyse verbleiben kann. Wird die Studienqualität hingegen als Moderatorvariable in die weiteren Analysen einbezogen, bleiben auch methodisch schwächere Arbeite in der Analyse enthalten, erhalten aber gemäß ihrer Codierung entweder ein schwächeres Gewicht oder es erfolgt ein Vergleich der Analyseergebnisse mit und ohne die als schwächer codierten Arbeiten.

 

 

zurück zur Inhaltsübersicht

 

 

 

Kapitel 4 - Quantitative Auswertungsmethoden

 

Kapitel 4.1: Datenaufbereitung

 

1. Worin besteht die Rolle der Datenaufbereitung im Forschungsprozess?

Die Datenaufbereitung umfasst die Schritte und Prozeduren, mit denen die Rohdaten einer empirischen Untersuchung in eine Form gebracht werden, die eine gezielte Beantwortung der Forschungsfragen und die Überprüfung der Hypothesen mithilfe von Auswertungsverfahren erlaubt.

 

2. Welche Ziele verfolgt die Datenaufbereitung im Bereich der quantitativen Methoden?

Die Ziele der Datenaufbereitung im Bereich der quantitativen Methoden bestehen darin,

  1. Daten, die noch nicht in quantitativer Form vorliegen, in Zahlenform zu überführen,
  2. Diese quantitativen Daten in ein per Software analysierbares Datenformat zu übertragen und
  3. die Daten so zu organisieren, dass sie im Hinblick auf die Fragestellungen oder Hypothesen effektiv analysiert werden können

 

3. Worauf ist bei der Zusammenfassung mehrerer Items, die dasselbe Konst­rukt erfassen sollen, zu achten?

Es muss zunächst geprüft werden, ob eine Aggregierung der Items zulässig ist. Diese Prüfung beinhaltet im Minimalfall die Berechnung der internen Konsistenz der Items (Cronbachs Alpha). Wenn die interne Konsistenz ausreichend hoch ist (Cronbachs Alpha von mindestens 0,70), dann ist eine Zusammenfassung zulässig. Diese Zusammenfassung erfolgt dann durch die Bildung eines Mittelwerts (arithmetischen Mittels).

 

Kapitel 4.2: Deskriptivstatistische Methoden

 

1. Was ist Deskriptivstatistik und wozu kann sie eingesetzt werden?

Die Deskriptivstatistik beinhaltet Verfahren, mit deren Hilfe quantitative Daten zusammenfassend beschrieben und dargestellt werden. Hierzu zählen:

  • Die univariate Deskriptivstatistik (Statistik für einzelne Variablen), darunter:
  1. die Bestimmung von Häufigkeiten des Auftretens von Werten und von Häufigkeitsverteilungen;
  2. die Berechnung von Kennwerten (Parametern), die zusammenfassende Aussagen über die gesamte Stichprobe erlauben (Maße der zentralen Tendenz und Streuungsmaße);
  • die multivariate Deskriptivstatistik (Statistik für Zusammenhänge mehrerer Variablen), darunter Korrelation und Regression;
  • Tabellen;
  • Diagramme und Grafiken.

 

2. Die Daten in folgender Tabelle geben Werte für die Variable „Heiterkeit“ (Ruch, 1997) wieder, die an einer Stichprobe von Psychologiestudierenden des ersten Semesters gewonnen wurden.

Bild
Tab 4.1 Kontrollfragen

 

Erstellen Sie aus den Daten eine Tabelle mit den relativen sowie den ab­soluten kumulierten Häufigkeiten sowie eine Grafik der Häufigkeitsver­teilung für die absoluten Häufigkeiten.

Die Daten in folgender Tabelle geben Werte für die Variable „Heiterkeit“ (Ruch, 1997) wieder, die an einer Stichprobe von Psychologiestudierenden des ersten Semesters gewonnen wurden. Erstellen Sie aus den Daten eine Tabelle mit den relativen sowie den absoluten kumulierten Häufigkeiten sowie eine Grafik der Häufigkeitsverteilung für die absoluten Häufigkeiten.

 

Kategorie (Werteintervall)

3

4

5

6

7

f (relativ)

0,1

0,2

0,4

0,2

0,1

f (absolut kumuliert)

2

4

8

4

2

 

Diese Tabelle kann in verschiedenen Formaten in eine Grafik übertragen werden. Geeignet ist ein Histogramm.

 

3. Gegeben seien die folgenden Punktwerte aus einem Test zur Leistungs­motivation: 49, 35, 48, 36, 46, 39, 43, 40. Ermitteln Sie bitte zu diesen Wer­ten den Median, das arithmetische Mittel (Mittelwert) und die Standard­abweichung.

Der Median ist der Punktwert 42, das arithmetische Mittel beträgt ebenfalls 42 und die Standardabweichung beträgt 5.

 

4. Wie wird ein Korrelationskoeffizient berechnet? Stellen Sie die wichtigsten Schritte bei der Berechnung, einschließlich der Bestimmung der Ko­varianz, dar!

Rechnerisch werden die Produkte korrespondierender Abweichungen auf x und y (von den jeweiligen Mittelwerten) bestimmt und an der Anzahl aller Fälle (Merkmalsträger, Versuchspersonen) sowie an den Standardabweichungen der beiden Variablen relativiert.

Zunächst ist die Kovarianz (cov) der Merkmale x und y zu berechnen: der Mittelwert der Produkte korrespondierender Abweichungen von den jeweiligen Mittelwerten von x und y. Die Formel lautet:

 

Bild
Kovarianz

 

Jede Untersuchungseinheit i liefert ein Messwertpaar (xi und yi). Die Summe der Abweichungsprodukte ist ein Maß für den Grad der gemeinsamen Variation (der „Ko-Variation“) der beiden Merkmale. Um eine Vergleichbarkeit mit anderen Stichprobengrößen zu gewährleisten, muss die Summe der Abweichungsprodukte zunächst an der Anzahl aller Fälle (N) relativiert werden; mathematisch geschieht dies durch die Division der Summe der Abweichungsprodukte durch N.

Die Kovarianz hängt zwar nicht mehr von der Stichprobengröße ab, aber immer noch von der Messeinheit der beiden Variablen. Durch eine Standardisierung erhält man die Korrelation (r). Hierzu wird die Kovarianz durch das Produkt der Standardabweichungen (SD) von x und y dividiert. Die Formel für die Korrelation lautet daher:

Bild
Korrelation
 
   

 

 

 

 

5. Eine Sozialpsychologin möchte Attraktivitätsurteile vorhersagen. Dazu erhebt sie, wie häufig 6 Versuchspersonen mit einer Zielperson Kontakt haben und mittels Fragebogen die subjektiv eingeschätzte Attraktivität. Berechnen Sie die Korrelation zwischen den beiden Variablen.

Bild
Tab. 4.2

Durch die korrekte Anwendung der Formeln zu Frage 5 bzw. aus dem Webexkurs zur Berechnung einer Korrelation ergibt sich r = 0.866. Die Kovarianz beträgt 11.733.

 

6. Inwiefern kann eine Korrelation Aufschluss über Kausalzusammenhänge geben? Lassen sich Zusammenhang und Kausalität auf statistischer Ebene unterscheiden?

Eine Korrelation zwischen zwei Variablen bedeutet keinesfalls, dass die eine Variable die andere kausal bedingt. Besteht ein Zusammenhang, so kann das eine Merkmal zwar zur Vorhersage des anderen eingesetzt werden, jedoch darf nicht von einer Kausalwirkung des einen auf das andere Merkmal ausgegangen werden. Auf statistischer Ebene kann man Kausaleffekte aus einem Experiment jedoch ohne Weiteres durch Korrelationen darstellen. Zusammenhang und Kausalität lassen sich nur unter Rückgriff auf die Versuchsplanung unterscheiden, jedoch nicht aus rein statistischer Perspektive.

 

7. Was leistet die Regressionsanalyse? Was besagt ein standardisierter Beta­koeffizient?

Die Regressionsanalyse prüft den Zusammenhang zwischen einer oder mehreren unabhängigen Variablen (Prädiktoren) und einer Zielvariable (Kriterium). Traditionell gilt die Regression als Instrument zur Vorhersage der Ausprägung eines Kriteriums durch Prädiktoren.

Der standardisierte Betakoeffizient gibt an, um wie viele Standardabweichungen sich das Kriterium ändert, wenn sich der Prädiktor um eine Standardabweichung ändert. Der Betrag des Betakoeffizienten kann somit größer als 1 werden.

 

8. Können Korrelationskoeffizient und standardisierter Betakoeffizient grö­ßer sein als 1?

Der Korrelationskoeffizient kann einen Wert zwischen -1 und 1 annehmen. Der standardisierte Betakoeffizient gibt an, um wie viele Standardabweichungen sich das Kriterium ändert, wenn sich der Prädiktor um eine Standardabweichung verändert. Somit kann der Betrag des standardisierten Betakoeffizienten im Unterschied zur Korrelation größer als 1 werden.

 

9. Worin unterscheiden sich bivariate und multiple Regression? Welche Werte kann der multiple Regressionskoeffizient (R) annehmen?

Bei einer bivariaten Regression wird der Zusammenhang zwischen dem Kriterium und einem Prädiktor berechnet. Bei einer multiplen Regression hingegen wird der Zusammenhang zwischen dem Kriterium und mehreren Prädiktoren berechnet. Der multiple Regressionskoeffizient (R) kann Werte zwischen 0 und +1 annehmen.

 

Kapitel 4.3: Inferenzstatistische Methoden

1. Was ist Inferenzstatistik und wozu kann sie eingesetzt werden?

Die Inferenzstatistik dient dem Schluss von einer Stichprobe auf eine zugehörige Population. Aussagen der Inferenzstatistik gehen damit über das Beobachtbare hinaus und sind mit Unsicherheit behaftet.

 

2. Was ist das Prinzip des statistischen Signifikanztests? Was besagt eine Nullhypothese? Wie wird über die Nullhypothese entschieden, wenn die Überschreitungs-wahrscheinlichkeit das Signifikanzniveau unterschreitet?

Der statistische Signifikanztest erlaubt Entscheidungen über ein Hypothesenpaar, die Nullhypothese (H0) und die dazu komplementäre Alternativhypothese (H1). Die Nullhypothese postuliert Gleichheit von Parametern bzw. das Vorliegen von Null-Zusammenhängen. Wenn bei einer Analyse die Überschreitungswahrscheinlichkeit das Signifikanzniveau unterschreitet, dann wird die Nullhypothese abgelehnt und die Alternativhypothese angenommen.

 

3. „Das Signifikanzniveau bezeichnet die Wahrscheinlichkeit, dass die Null­hypothese zutrifft.“ Ist diese Aussage zutreffend? Begründen Sie knapp Ihre Antwort.

Diese Aussage ist nicht zutreffend, da das Signifikanzniveau sich nur auf ein Stichprobenergebnis beziehen kann (bei unterstellter Gültigkeit der Nullhypothese), nicht jedoch auf die Nullhypothese selbst.

 

4. Nach welchen Kriterien sollten inferenzstatistische Testverfahren zur Analyse von psychologischen Studien ausgewählt werden?

Inferenzstatistische Testverfahren sollten nach den Kriterien Angemessenheit und Sparsamkeit ausgewählt werden. Das heißt, sie sollten nicht aufwändiger und komplexer sein, als es die Fragestellung bzw. Hypothesenprüfung erfordert.

 

5. Wozu dient der t-Test? Welche Arten von t-Tests werden unterschieden?

Mit einem t-Test für eine Stichprobe wird die Wahrscheinlichkeit berechnet, dass bei unterstellter Gültigkeit der Nullhypothese der in einer Stichprobe festgestellte Mittelwert erzielt wird. Es wird unterschieden zwischen einem t-Test für abhängige Stichproben und einem t-Test für unabhängige Stichproben. Der erste wird dann eingesetzt, wenn die beiden Stichproben paarweise miteinander assoziiert sind. Dies ist der Fall, wenn die beiden Stichproben an Paaren von Merkmalsträgern oder denselben Merkmalsträgern erhoben wurden. Der zweite wird eingesetzt, wenn zwei Stichproben aus unterschiedlichen Versuchspersonen verglichen werden.

 

6. Es wird geprüft, ob die Gedächtnisleistung von Grundschulkindern durch ein neues Training verbessert wird. In einer Experimentalbedingung (mit Training) ergibt sich ein Wert von 52,5, in einer Kontrollbedingung ein Wert von 45,0, die Varianz in der Gesamtstichprobe liegt bei 25. Geben Sie die Effektgröße an!

Die Effektgröße in diesem Fall ist d = 1,5. (Mittelwertdifferenz dividiert durch die gemeinsame Standardabweichung, die sich wiederum aus der Quadratwurzel der Varianz ergibt.)

 

7. In einer Untersuchung zum Lernerfolg an der Hochschule sei der Einfluss der Lehrmethode (Internet vs. Hörsaal) und der Lernmotivation (hoch vs. niedrig) an 4 unabhängigen Stichproben erhoben worden. Folgende Mittelwerte für den Lernerfolg ergeben sich am Ende des Semesters für die 4 Gruppen:

Bild
4.3

Welches statistische Verfahren ist zur Prüfung der Hypothese geeignet, dass Lehrmethode und Lernmotivation den Lernerfolg bedingen? Nehmen Sie an, die Interaktion sei signifikant. Was besagt diese Interaktion inhaltlich?

Zur Prüfung der Hypothese, dass Lehrmethode und Lernmotivation den Lernerfolg bedingen ist eine zweifaktorielle Varianzanalyse geeignet, da sie die Effekte von zwei unabhängigen Variablen und ihrer Interaktion auf eine abhängige Variable testen. Mit diesem statistischen Verfahren können drei Hypothesen geprüft werden:

  1. Die Lehrmethode hat einen signifikanten Effekt auf den Lernerfolg.
  2. Die Lernmotivation hat einen signifikanten Effekt auf den Lernerfolg.
  3. Die Interaktion zwischen Lehrmethode und Lernmotivation hat einen signifikanten Effekt auf den Lernerfolg.

Eine signifikante Interaktion besagt inhaltlich, dass Lehrmethode und Lernmotivation in Kombination, d.h. in Abhängigkeit voneinander, nicht jedoch einzeln, einen signifikanten Effekt auf den Lernerfolg haben.

 

 

zurück zur Inhaltsübersicht

 

Kapitel 5 - Qualitative Forschungsansätze

 

Kapitel 5.1: Prinzipien qualitativen Forschens

 

1. Nennen Sie fünf (beliebige) Prinzipien qualitativen Forschens!

Fünf beliebige aus den folgenden zehn Prinzipien:

  •  Naturalistische Vorgehensweise
  •  Offene Verfahren
  •  Menschenbild des reflexiven Subjekts
  •  Fallorientierung
  •  Holistische Vorgehensweise
  •  Mehrheitlich induktives / abduktives Vorgehen
  •  Emergente Flexibilität des Designs
  •  Ziel: Beschreibung, Verstehen
  •  Interpretationsbedürftige Daten
  •  Forschende als Messinstrumente
  •  Theoretische Verallgemeinerung
  •  Gütekriterium der Validität

 

2. Weshalb ist es nicht ohne Weiteres möglich, den Gegenstand unverändert in seiner natürlichen Form zu erfassen?

Der Gegenstand existiert nicht in einem Vakuum, sondern ist zumindest zum Teil durch die Untersuchungssituation mit bedingt. In der Psychologie ist die Untersuchungssituation auch eine soziale Situation, in der Menschen miteinander interagieren. Forschende sind daher unvermeidlich an der Erzeugung der eigenen Daten mit beteiligt. Aus qualitativer Sicht ist dies keine Fehlerquelle, die sich ausschließen lässt. Stattdessen berücksichtigen qualitativ Forschende ganz bewusst die Art und Weise, wie ihre eigene Person in den Forschungsprozess eingeht.

 

3. Inwiefern sind qualitativ Forschende selbst „Messinstrumente“? Was folgt daraus?

In der qualitativen Forschung fungiert häufig die Forscherin oder der Forscher selbst als Instrument der Datenerhebung (etwa bei der Durchführung von Interviews oder von Beobachtungen). Daraus folgt erstens, dass die Datenerhebung gerade nicht unabhängig von den beteiligten Personen erfolgt. Stattdessen bemühen sich die Forschenden aktiv um Verstehen, wobei sie in verschiedenen Kontexten und verschiedenen Personen gegenüber manchmal gerade unterschiedlich handeln, ohne dabei die Datenerhebung jedoch in die eine oder die andere Richtung zu lenken. Weiterhin sollten Forschende bei der Auswertung und Interpretation daher eigene Eindrücke und Verhaltensweisen ganz bewusst berücksichtigen und kritisch reflektieren.

 

Kapitel 5.2: Bewusste Stichprobenziehung

 

1. Was versteht man unter bewusster Stichprobenziehung?

Bei der bewussten bzw. absichtsvollen Stichprobenziehung wird die Stichprobe gezielt nach bestimmten Kriterien aus der Grundgesamtheit ausgewählt, so dass sie in Bezug auf die Forschungsfrage möglichst informationshaltig ist. Bei Bottom-up-Strategien der bewussten Stichprobenziehung ergeben sich diese Kriterien erst im Untersuchungsverlauf; bei Top-down-Strategien stehen sie zu Untersuchungsbeginn fest. Ziel der bewussten Stichprobenziehung ist die detaillierte Beschreibung ausgewählter Fälle oder die analytische Verallgemeinerbarkeit von der Stichprobe auf eine Theorie.

 

2. Weshalb ist die Größe der Stichprobe bei der bewussten Stichprobenziehung nicht von Bedeutung? Was ist wichtiger als die Anzahl der Fälle?

Bei der probabilistischen Stichprobenziehung muss die Stichprobe groß genug sein, um mit hinreichender Sicherheit von der Stichprobe auf die Grundgesamtheit schließen zu können. Eine solche statistische Verallgemeinerung ist aber meist nicht das Ziel qualitativer Untersuchungen; daher ist auch die Größe der Stichprobe nicht von zentraler Bedeutung. Wichtiger als die Anzahl der Fälle ist die Zusammensetzung der Stichprobe, also wie die Fälle sich zueinander verhalten, ob sie einander ähnlich oder untereinander verschieden sind.

 

3. Kann man Ergebnisse, die anhand einer bewussten Stichprobe ermittelt wurden, auf die Population verallgemeinern?

In der Regel kann man das nicht. Wie bei den meisten Regeln gibt es aber auch hier Ausnahmen. Eine solche Ausnahme ist der typische Fall: Von einem typischen Fall kann man auf die Grundgesamtheit verallgemeinern. Eine weitere Ausnahme sind homogene Grundgesamtheiten, also Populationen, deren Mitglieder einander sehr ähnlich sind bzw. eine ähnliche Struktur aufweisen. Bei einer solchen homogenen Grundgesamtheit kann man auch von wenigen Fällen auf die Population schließen.

 

4. Inwiefern stellt die theoretische Stichprobenziehung eine induktive bzw. eine Bottom-up-Strategie der bewussten Stichprobenziehung dar?

Die Kriterien, nach denen die Stichprobe zusammengesetzt ist, ergeben sich erst im Untersuchungsverlauf. Dabei werden zunächst Fälle ausgewählt, die einander ähnlich sind. Anschließend werden auch Fälle einbezogen, die zu den bisherigen Fällen in ausgewählten Merkmalen im Kontrast stehen.

 

5. Was versteht man unter einem qualitativen Stichprobenplan?

Bei einem qualitativen Stichprobenplan werden die Kriterien für die Zusammensetzung der Stichprobe vor Untersuchungsbeginn festgelegt. Kriterien und ihre Ausprägungen werden in einer Kreuztabelle kombiniert; für jede Kombination von Kriterienausprägungen wird die angezielte Anzahl von Fällen festgelegt.

 

6. Wie sähe der „typische Fall“ einer Psychologiestudentin aus?

Eine typische Psychologiestudentin weist diejenigen Eigenschaften, Interessen und Motive auf, die sich bei den meisten Psychologiestudentinnen finden. So interessieren sich Studentinnen der Psychologie meist für andere Menschen, möchten anderen Menschen gerne (therapeutisch) helfen, wünschen sich weniger Methodenveranstaltungen im Verlauf ihres Studiums usw. Schauen Sie sich einfach unter Ihren Kommilitoninnen um! Was in einem Gegenstandsbereich als typisch gelten kann, setzt immer entsprechendes Vorwissen voraus, entweder aus früheren oder aus vorgeschalteten eigenen Untersuchungen.

 

Kapitel 5.3: Fallstudie

 

1. Was versteht man unter einer Fallstudie?

Die Fallstudie stellt einen holistischen Forschungsansatz dar, mit dem interessierende Fälle ganzheitlich, unter Einbeziehung ihres Kontextes und unter Verwendung verschiedener Datenquellen und Erhebungsverfahren umfassend untersucht werden.

 

2. Welche Arten der Fallstudie gibt es?

  • Unterscheidung nach Funktion: beschreibende und erklärende Fallstudien
  • Unterscheidung nach der Anzahl der Fälle: Einzelfallstudien und multiple Fallstudien
  • Unterscheidung nach Untergliederung: fallübergreifende und eingebettete Fallstudien

 

3. Angenommen, Sie planen eine Fallstudie zu den Studienbedingungen an deutschen Universitäten. Welche Art der Fallstudie würden Sie realisieren und warum?

Bei dieser Fragestellung bietet sich zunächst eine beschreibende, keine erklärende Fallstudie an – denn Sie wollen wissen, wie die Studienbedingungen aussehen und nicht, wie sich beispielsweise Unterschiede in Studienbedingungen erklären lassen.

Weiterhin sollten Sie eine multiple Fallstudie realisieren, also verschiedene Arten von Universitäten einbeziehen, beispielsweise größere und kleinere, staatliche und private.

Außerdem handelt es sich bei Universitäten um größere Institutionen mit einer Vielzahl von Fachbereichen, an denen sich die Studienbedingungen auch innerhalb einer Universität erheblich unterscheiden können. Daher sollte Ihre Fallstudie möglichst als eingebettete Studie realisiert werden.

Zusammenfassend sollten Sie also eine beschreibende, multiple, eingebettete Fallstudie planen.

 

Kapitel 5.4: Methodologie der Gegenstandsbezogenen Theoriebildung („grounded theory“)

 

1. Was ist das Ziel der gegenstandsbezogenen Theoriebildung?

Ziel der gegenstandsbezogenen Theoriebildung ist es, unter weitgehender Ausblendung von Vorannahmen gesättigte Theorien zu erstellen, die direkt in den Daten verankert sind.

 

2. Sie planen, eine gegenstandsbezogene Theorie zu der Frage zu erstellen, wie Studierende mit chronischer Krankheit im Studium zurechtkommen. Wie gehen Sie vor?

  • Sie beginnen mit einer Leitidee. Beispielsweise könnte es sein, dass Studierende mit chronischer Krankheit, die mit anderen leben, besser zurechtkommen als Studierende mit chronischer Krankheit, die alleine leben.
  • Zu Beginn untersuchen Sie einander ähnliche Fälle. So beginnen Sie vielleicht mit zwei Studierenden mit chronischer Krankheit, die alleine leben.
  • In einer späteren Phase beziehen Sie auch kontrastierende Fälle ein, beispielsweise Daten für zwei Studierende mit chronischer Krankheit, die mit anderen leben.
  • Sie werten die Daten aus und vergleichen, sowohl die je ähnlichen Studierenden untereinander als auch die unähnlichen Studierenden. Auf dieser Grundlage erstellen Sie Vermutungen darüber, welche weiteren Faktoren damit zusammenhängen, wie gut Studierende mit chronischer Krankheit mit dem Studium zurechtkommen (z. B. das Studienfach, der Grad der Beeinträchtigung durch die Krankheit usw.).
  • Sie beziehen nun weitere Fälle in die Untersuchung ein, die sich in Bezug auf diese weiteren Faktoren ähnlich oder unähnlich sind.
  • Sie wiederholen die bisherigen Schritte so lange, bis eine Einbeziehung weiterer Fälle keine neuen Erkenntnisse erbringt, Sie Ihre Theorie also nicht weiter verändern müssen. Ihre Theorie gilt dann als gesättigt.

 

3. Worin unterscheiden sich die erste und die zweite Phase des Kodierens bei der GTM?

In der ersten Phase erfolgt das Kodieren datennah, mit dem Ziel, relevante Konzepte im Material zu identifizieren.

In der zweiten Phase werden die Konzepte zu mehrdimensionalen Kategorien ausdifferenziert und untereinander in Beziehung gesetzt. Dies geschieht auf der Grundlage eines permanenten Vergleichs der Kategorien sowohl mit den Daten als auch der Kategorien untereinander.

 

Kapitel 5.5: Ethnografie/Feldforschung

 

1. Was versteht man unter Feldforschung / Ethnografie?

Ziel der Feldforschung / Ethnografie ist es, eine Kultur aus der Sicht ihrer Mitglieder kennen zu lernen und zu beschreiben. Die Kultur soll durch die Forschungstätigkeit möglichst nicht verändert werden. Wichtigste Methode der Datenerhebung ist die teilnehmende Beobachtung.

 

2. Weshalb gilt der Einstieg ins Feld als die schwierigste Phase der Feldforschung?

In dieser Phase werden die Weichen für die weitere Untersuchung gestellt. Sie gilt als besonders schwierig, weil das Forschungsteam die ungeschriebenen Regeln der fraglichen Kultur noch nicht kennt, eine Verletzung der Regeln aber im schlimmsten Fall ein Scheitern der gesamten Untersuchung nach sich ziehen kann.

 

3. Inwiefern hat die Phase der Verschriftlichung der Ergebnisse ethnografischer Forschung in den letzten Jahren an Bedeutung gewonnen?

Die zunehmende Bedeutung der Verschriftlichung in der Ethnografie steht in engem Zusammenhang mit der sog. Krise der Repräsentation. Das Forschungsfeld wird nicht mehr als etwas quasi Objektives, Außenstehendes gesehen, das es nur zu beschreiben gilt. Stattdessen wird das Ergebnis ethnografischer Forschung zunehmend als Interpretationsprozess unter Berücksichtigung der Rolle der Forschenden aufgefasst. Entsprechend gewinnt auch der Schreib- als Interpretationsprozess an Bedeutung.

 

4. Welches Problem wird im Zusammenhang mit der Feldforschung am häufigsten diskutiert? Wie hängt dieses Problem mit der Spannung zwischen Innensicht und Außensicht zusammen, in der sich die Feldforschung bewegt?

In der Literatur zur Feldforschung / Ethnografie wird das Problem des „going native“ am häufigsten diskutiert. Darunter versteht man den Verlust von Distanz zum Forschungsgegenstand und die Identifikation mit der untersuchten Kultur.

Zielidee der Ethnografie / Feldforschung ist es, die Innensicht einer anderen Kultur möglichst gut kennen zu lernen – eben wie dies in der Regel nur einem Mitglied dieser Kultur möglich ist – und diese Kenntnis aus der Innensicht zugleich mit der Distanz der Außensicht als Forschende oder Forschender zu kombinieren. Beim „going native“ geht die Distanz der Außensicht verloren; es bleibt nur noch die Innensicht.

 

5. In der Autoethnografie liegt der Schwerpunkt auf dem eigenen Erleben, und es werden nicht-akademische Textsorten zur Dokumentation der Ergebnisse verwendet. Was halten Sie davon?

Auf diese Frage gibt es keine eindeutige Antwort. Ihre Antwort wird von Ihrem Wissenschaftsverständnis und Ihrer Definition von Erkenntnis abhängen.
Aus Sicht der Befürworter*innen autoethnografischer Forschung lässt sich anführen, dass der Rückgriff auf eigenes Erleben in der psychologischen Forschung eine lange Tradition hat. Außerdem sollte der Nutzen psychologischer Forschung ein gesamtgesellschaftlicher sein; und daher sollten Forschungsergebnisse auch für die Allgemeinheit zugänglich sein.

Aus der Sicht der Kritiker*innen lässt sich darauf verweisen, dass Selbstauskünfte nicht immer zuverlässig und valide sind. Außerdem sind die Methoden häufig nicht gut von außen nachvollziehbar; dies ist umso mehr der Fall, wenn eine eher literarische Darstellungsform gewählt wird. Dabei geht außerdem die Präzision der wissenschaftlichen Sprache verloren.

 

Kapitel 5.6: Partizipative und emanzipatorische Forschungsansätze

 

1. Nennen Sie jeweils zwei Beispiele für partizipative und für emanzipatorische Ansätze.

Jeweils zwei beliebige unter den folgenden:

  • Partizipative Ansätze: Aktionsforschung, die Praxisforschung, die Participatory Action Research, die Community-basierte partizipative Forschung, das transformative Forschungsparadigma
  • Emanzipatorische Ansätze: feministische, queere, Disability-bezogene oder indigene Forschungsperspektiven

 

2. Wodurch zeichnet sich ein partizipativ-emanzipatorischer Forschungsstil aus?

Partizipativ-emanzipatorische Forschung ist nicht wertneutral, sondern auf die Analyse von Machtstrukturen und auf Veränderung gesellschaftlicher Wirklichkeit ausgerichtet. Dabei werden die Personen im Feld von Untersuchungsteilnehmer*innen zu Mitforschenden. In welchem Ausmaß dies der Fall ist, darin unterscheiden sich die verschiedenen konkreten Ansätze.

 

3. Welches sind die wichtigsten Merkmale der Participatory Action Research (PAR)?

  • Wechselseitige Partizipation: Personen im Feld werden im Rahmen partizipativer Forschung zu Mitforschenden, und die Forscher*innen partizipieren am Feld.
  • Empowerment: Forschung wird als Lern- und Veränderungsprozess sowohl für die Forschenden als auch die Personen im Feld konzipiert. Schlussendliches Ziel ist es, die Kompetenzen der untersuchten Personen so zu erweitern, dass eine vermehrte gesellschaftliche Teilhabe möglich wird.
  • Doppelte Zielsetzung: PAR verfolgt die doppelte Zielsetzung, soziale Wirklichkeit zu verstehen (und somit Wissen zu erweitern) und diese durch Anknüpfung an das Wissen der Personen im Feld zu verändern (indem vermehrte Handlungsoptionen eröffnet werden).

 

4. Was genau bedeutet es, wenn die lebensweltlichen Akteure im Rahmen einer partizipativen Studie über Entscheidungsmacht verfügen? Worüber können sie (mit-)entscheiden?

  • Forschungsziele, sowohl Praxis- als auch wissenschaftliche Ziele
  • Forschungsfragen
  • Methodenauswahl
  • Datenerhebung
  • Auswertung
  • Kommunikation und Verbreitung der Ergebnisse

 

Kapitel 5.7: Performative Sozialforschung

 

1. Was versteht man unter performativer Sozialforschung?   

Performative Sozialforschung umfasst Ansätze, die ihren Ursprung in einem postmodern-kritischen Verständnis von (qualitativer) Forschung haben. Ihnen allen ist gemeinsam, dass sie in irgendeiner Weise im Forschungsprozess oder im Kontext der Darstellung der Forschungsergebnisse auf künstlerische Ausdrucksformen zurückgreifen. Damit wird zugleich die gängige Unterscheidung zwischen Wissenschaft und Kunst in Frage gestellt.

 

2. Was versteht man unter performativer Sozialforschung?       

  • Öffnung gegenüber nicht-propositionalen Ausdrucksformen;
  • Relevanz von Prozessen der Bedeutungskonstruktion seitens der Rezipient*innen von Forschung;
  • Ausrichtung auf gesellschaftliche Veränderung.

 

3. Worin unterscheiden sich Arts-Informed und Arts-Based Research?

           

  • Bei der Arts-Informed Research stehen künstlerische Ausdrucksformen im Dienste wissenschaftlicher (vor allem qualitativer) Forschung; Kunstformen werden vor allem verwendet, um die Ergebnisse einem breiten Publikum zugänglich zu machen.
  • Bei der Arts-Based Research dienen künstlerische Ausdrucksformen im Forschungsprozess als Methoden zur Erzeugung von nicht-diskursivem Wissen.

 

4. In dem Unterkapitel werden einige Untersuchungsbeispiele performativer Sozialwissenschaft beschrieben. Wählen Sie ein Beispiel aus und sehen Sie es sich genauer an. Was meinen Sie: Ist das sozialwissenschaftliche Forschung? Warum (nicht)?

Auf diese Frage gibt es keine eindeutige Antwort – hier kommt es ganz auf das jeweilige Beispiel und auf Ihr Verständnis sozialwissenschaftlicher Forschung an

 

Kapitel 5.8: Narrativer Ansatz und Biografieforschung

 

1. Was ist eine Erzählung?

In einer Erzählung werden Verbindungen zwischen verschiedenen Elementen geschaffen, wodurch diese Elemente in eine zeitliche oder symbolische Ordnung gebracht werden. Dadurch entstehen Ereignis- und Handlungsstrukturen, ein Plot. Typische Elemente einer Erzählung sind Akteure, die versuchen, Handlungsintentionen zu verwirklichen, daran jedoch durch das Auftreten einer Komplikation gehindert werden. Diese Komplikation kann der Anlass sein, überhaupt erst eine Geschichte zu konstruieren und zu erzählen, beispielsweise bei der Bewältigung schwieriger Lebenssituationen.

 

2. Nennen Sie mindestens zwei Funktionen von Erzählungen.

Zwei beliebige unter den folgenden:

Allgemeine psychische Funktionen: Unterstützung von Denk-, Urteils- und Erinnerungsprozessen; die emotionale Bewältigung von Ereignissen; die Bildung und Darstellung eigener Identität;

Kognitive Funktionen: Generieren von Bedeutung und Reduktion von Komplexität;

Kommunikativ-interaktive Funktionen: Überzeugen oder Mobilisieren einer Adressatengruppe; Herstellung von Beziehungen; Erzeugen einer kollektiven Identität.

 

3. Was würden Sie antworten, wenn eine Kollegin Sie auf eine Diskrepanz zwischen erzählter Lebensgeschichte und den Geschichtsbüchern hinweist und schließt, dass man der Interviewpartnerin offensichtlich keinen Glauben schenken kann?

Menschen nehmen die Welt nicht ‚objektiv’ wahr, sondern immer subjektiv, vor dem Hintergrund ihrer eigenen Erfahrungen und kognitiven Schemata. In der biografischen Forschung wird die lebensgeschichtliche Erzählung daher auch nicht als Darstellung ‚objektiver Gegebenheiten’ verstanden, sondern als Prozess der Sinngebung durch das Individuum. Von zentralem Interesse sind in der Biografieforschung daher nicht die objektiven Gegebenheiten und Lebensumstände (also nicht, was sich zu einer bestimmten Zeit ereignet hat), sondern die Art und Weise, wie das Individuum diese Umstände wahrnimmt, mit Sinn versieht und sie in die eigene Lebensgeschichte integriert. Dass die Interviewpartnerin Geschehnisse anders darstellt, als sie in den Geschichtsbüchern vermittelt werden, heißt also keineswegs, dass sie bewusst verzerrt oder gar lügt. Und im Übrigen können Geschichtsbücher auch irren!

 

4. Wie lassen sich biografische Interviews auswerten?

Die Auswertung von biographischen Interviews kann sich auf die Inhalte konzentrieren oder auf die Erzählstruktur. Gergen und Gergen unterscheiden z. B. zwischen progressiven, regressiven und stabilen Erzählstrukturen. Wieder andere Verfahren stellen die Relation zwischen erlebter und erzählter Lebensgeschichte in den Mittelpunkt der Analyse (z. B. das Verfahren von Fischer-Rosenthal und Rosenthal).

 

Kapitel 5.9: Phänomenologie

 

1. Was versteht man unter einem Phänomen?

Ein Phänomen ist etwas, das wir durch die Art und Weise hervorbringen, wie wir in der Welt sind und wie wir mit der Welt in Interaktion treten, z. B. Eifersucht oder Trauer.

 

2. Wodurch zeichnet sich der phänomenologische Ansatz von Husserl aus?

Husserl ging davon aus, dass Bewusstsein nicht als solches existiert, sondern immer als Bewusstsein von etwas. Diese grundsätzliche Gerichtetheit des Bewusstseins bezeichnete er auch als Intentionalität.

 

3. Sie planen eine phänomenologische Untersuchung zum Online-Dating. Welche der typischen Erhebungsmethoden in phänomenologischen Untersuchungen würden Sie anwenden und warum?

In der Phänomenologie kommen besonders häufig zur Anwendung: das (nonstandardisierte) Interview, die Beobachtung (insbesondere der phänomenologische Spaziergang), schriftliche Erfahrungsprotokolle sowie kreative Verfahren aus der performativen Sozialforschung.
Da es sich beim Online-Dating um einen sehr persönlichen Erfahrungsbereich handelt, sind Beobachtungsverfahren hier eher nicht geeignet. Gut geeignet wären dagegen Erfahrungsprotokolle und Interviews, die jeweils einen unmittelbaren Zugang zu dem Erfahrungsbereich bieten. Inwieweit auch kreative Methoden geeignet sind, kommt nicht zuletzt auf die Untersuchungsteilnehmer*innen und deren Affinität zu solchen Verfahren an.

 

Kapitel 5.10: Forschungsprogramm Subjektive Theorien (FST)

 

1. Inwiefern sehen Vertreterinnen und Vertreter des FST eine Parallele zwischen Wissenschaftlerinnen bzw. Wissenschaftlern und dem Menschen im Alltag?

Im FST wird angenommen, dass Menschen im Alltag ebenso wie Wissenschaftler*innen versuchen, sich selbst und die Welt um sich herum zu verstehen, zu erklären und ggf. auch zu verändern.

 

2. Was versteht man unter einer subjektiven Theorie?

Subjektive Theorien bestehen aus Konzepten, die durch Relationen untereinander verknüpft sind. Sie sind definiert als:

  • „Kognitionen der Selbst- und Weltsicht,
  • die im Dialog-Konsens aktualisier- und rekonstruierbar sind;
  • als komplexes Aggregat mit zumindest impliziter Argumentationsstruktur,
  • das auch die zu wissenschaftlichen Theorien parallelen Funktionen
  • der Erklärung, Prognose, Technologie erfüllt und
  • deren Akzeptierbarkeit als ‚objektive’ Erkenntnis zu prüfen ist“.

 

3. Welches sind die zwei Phasen des FST, und wozu dienen sie?

Das FST beinhaltet die beiden Phasen der kommunikativen und der explanativen Validierung.

Die Phase der kommunikativen Validierung dient der Erhebung und Rekonstruktion der subjektiven Theorien. Zunächst werden die Theorieinhalte in einem Leitfadeninterview erhoben. Anschließend erfolgt die Rekonstruktion der Theoriestruktur, indem die Inhalte untereinander durch Relationen verknüpft werden, die in einem Struktur-Lege-Verfahren spezifiziert sind. Diese Strukturrekonstruktion wird von den Forschenden und den Teilnehmenden jeweils gemeinsam erarbeitet.

Die Phase der explanativen Validierung dient dazu, zu prüfen, ob die subjektive Theorie auch als ‚objektive‘, wissenschaftliche Erkenntnis akzeptabel ist. Anders formuliert dient die explanative Validierung dazu, die Gültigkeit der subjektiven Theorie zu überprüfen.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 6 - Qualitative Erhebungsmethoden

 

Kapitel 6.1: Datenarten in der qualitativen Sozialforschung

 

1. Nennen Sie zwei verschiedene Datenarten, die – zusätzlich zu verbalen Daten – in der qualitativen Sozialforschung Verwendung finden.

zwei beliebige unter den folgenden:

visuelle Daten (einschließlich statischer Bilder, bewegter Bilder, Gegenstände), digitale Daten (einschließlich multimodaler Daten)
Dokumente können verbaler oder visueller Art sein; diese Datenart überschneidet sich also teilweise mit verbalen Daten.

In der jüngeren Sozialforschung finden außerdem auch Daten anderer Sinnesmodalitäten Verwendung (z.B. auditive Daten, räumliche Daten); darauf wird aber in diesem Abschnitt im Buch aus Platzgründen nicht weiter eingegangen.

 

2. Um welche Art von Dokument handelt es sich bei einer Geburtsurkunde? Und wie würden Sie den Zugang beschreiben? (Die Informationen zur Zugänglichkeit sind nicht im Buch enthalten, sondern müssen selbst recherchiert werden.)

Eine Geburtsurkunde ist ein offizielles (staatliches) Dokument. Der Zugang ist auf bestimmte Personen beschränkt, nämlich die Person, auf die die Urkunde ausgestellt ist, sowie Verwandte oder Personen, die ein juristisches Interesse geltend machen können. Nach 110 Jahren wird die Urkunde öffentlich und damit für die Allgemeinheit zugänglich.

 

3. Durch welche Merkmale zeichnen sich visuelle Daten aus?

Visuelle Daten sind durch die folgenden Merkmale gekennzeichnet: Gleichzeitigkeit der Elemente, assoziative Logik, Bedeutungsoffenheit und Mehrdeutigkeit.

 

4. Inwiefern sind digitale Daten immer unvollständig?

  • Sie sind immer nur unvollständige Operationalisierungen, repräsentieren nur einen Ausschnitt aus Befindlichkeiten, Tagesabläufen oder Eindrücken.
  • Sie werden permanent überarbeitet und verändert.
  • Forscher*innen haben nie zu dem Gesamt an digitalen Daten Zugang. Insbesondere der Zugang zu sozialen Medien wird von den Plattformen und Konzernen selbst reguliert, und nur ein Teil ist öffentlich verfügbar. Auch nutzen nicht alle Bevölkerungsgruppen gleichermaßen soziale Medien.

 

Kapitel 6.2: Interviewverfahren

 

1. In welchen Hinsichten unterscheidet sich das Interview von einem Gespräch mit guten Freunden?

Das Interview ist eine asymmetrische Form der Kommunikation mit festgelegten Rollen.

Das Interview dient dem Zweck der Informationsermittlung.

 

2. Welches sind die Unterschiede zwischen einem teil- und einem nonstandardisierten Interview? Nennen Sie jeweils ein Beispiel!

  • Dem teilstandardisierten Interview liegt ein Leitfaden zugrunde, der sowohl Themen als auch Fragen zu den verschiedenen Themen enthält. Diese Fragen sollten im Interviewverlauf alle abgedeckt werden, wenn auch nicht notwendig genau in dieser Formulierung und nicht notwendig genau in dieser Reihenfolge. Das problemzentrierte und das fokussierte Interview zählen zu den teilstandardisierten Interviews.
  • Das nonstandardisierte Interview ist wesentlich offener und gibt den Befragten mehr Gelegenheit zum freien Erzählen. In einem Leitfaden werden allenfalls Themenkomplexe zusammengestellt, aber keine Fragen vorformuliert. Das Tiefeninterview, das narrative und das episodische Interview zählen zu den nonstandardisierten Interviews.

 

3. Weshalb eignet sich das Leitfadeninterview besonders gut, um verschiedene Personengruppen miteinander zu vergleichen?

Beim Leitfadeninterview wird ein Kern an Fragen allen Teilnehmer*innen gleichermaßen gestellt. Die Antworten auf diese Fragen lassen sich gut vergleichen.

 

4. Was versteht man unter einem narrativen Interview? Wie geht man dabei vor?

Das narrative Interview dient der Untersuchung lebensgeschichtlich-biografischer Fragestellungen.

Es gliedert sich in folgende Phasen:

  • Der Erzählanstoß soll die Untersuchungsteilnehmerin oder den Teilnehmer dazu anregen, die eigene Geschichte zum Untersuchungsthema zu erzählen. Im ersten Schritt ist daher ein geeigneter Erzählanstoß zu formulieren.
  • Darauf folgt die Erzählung. Sie bildet den Hauptteil des narrativen Interviews. In diesem Abschnitt des Interviews sollten die Befragten frei erzählen können, ohne Unterbrechung durch die Forschenden.
  • In der Nachfragephase stellen die Forschenden Verständnisfragen zur Erzählung; es können auch Fragen zu weiteren Aspekten des Untersuchungsgegenstands gestellt werden, die in der Erzählung nicht spontan zur Sprache gekommen sind.
  • In der Bilanzierungsphase werden die Befragten um eine abschließende Bewertung gebeten. Diese Phase ist kein notwendiger Bestandteil des narrativen Interviews.

 

5. Eine Kommilitonin bittet Sie, sich die Fragen einmal anzusehen, die sie für ein Leitfadeninterview vorbereitet hat. Worauf achten Sie?

  • Die Fragen sollten gut verständlich formuliert sein. Das bedeutet unter anderem, dass immer nur eine Frage auf einmal gestellt werden sollte. Doppelte Verneinungen sollte man vermeiden.
  • Der Leitfaden darf keine Suggestivfragen enthalten, d. h. keine Fragen, die von vornherein eine bestimmte Antwortrichtung nahelegen.
  • Bei Fragen nach Gründen sollten Fragen wie „Warum?“ oder „Weshalb?“ nicht zu oft verwendet werden, da die Befragten sonst leicht unter Rechtfertigungsdruck geraten.
  • Die Fragen sollten so formuliert sein, dass sie nicht einfach mit „ja“ oder „nein“ beantwortet werden können, sondern zu einer ausführlicheren Antwort anregen.
  • Der Leitfaden sollte möglichst keine Begriffe aus der Wissenschaft enthalten. In der Formulierung sollte er sich vielmehr an die Begrifflichkeit der Befragten anlehnen.

 

6. Welche Fähigkeiten muss eine gute Interviewerin bzw. ein guter Interviewer mitbringen?

  • Zuhören Können;
  • Gespür dafür, wenn etwas nicht so verläuft, wie es sollte – und die Fähigkeit, in solchen Situationen nachzufragen;
  • Fähigkeit zum Strukturieren von Gesprächen, z. B. durch Zusammenfassen von Antworten oder Zurückführen zum Thema;
  • Keine Angst vor Pausen haben.

 

Kapitel 6.3: Gruppendiskussion/Fokusgruppe

 

1. Worin unterscheidet sich die Gruppendiskussion von anderen Verfahren zur Erhebung verbaler Daten?

Die Gruppendiskussion liefert nicht nur inhaltliche Daten (also Informationen darüber, was zum Diskussionsthema geäußert wird), sondern auch Information über die Interaktion zwischen den Teilnehmer*innen. Das ist der wesentliche Unterschied zwischen der Gruppendiskussion und anderen Verfahren zur Erhebung verbaler Daten.

 

2. Sie interessieren sich dafür, wie Entscheidungen in der Gruppe über umweltgerechtes Verhalten zustande kommen. Wären Fokusgruppen hier ein geeignetes Erhebungsverfahren? Bitte begründen Sie Ihre Meinung.

Ja, die Fokusgruppe ist u.a. gut geeignet, um Prozesse der Meinungsbildung in Gruppen zu untersuchen. Genau um einen solchen Prozess der Meinungsbildung handelt es sich bei der Frage nach dem Zustandekommen von Entscheidungen in der Gruppe über umweltgerechtes Verhalten.

 

3. In welche Phasen unterteilt sich eine Gruppendiskussion?

  • Theoretische Vorüberlegungen und Erstellung eines Leitfadens
  • Erläuterung der Gesprächsregeln
  • Präsentation eines Grundreizes
  • Freie Gruppendiskussion
  • Ggf. Präsentation von Reizargumenten
  • Ggf. Metadiskussion

 

4. In einer Studie zur Verbesserung der Qualität der Lehre setzen Sie die Gruppendiskussion als Erhebungsmethode ein. An der Studie nehmen sowohl Studierende als auch Lehrende teil. Was ist bei der Zusammensetzung der Gruppen zu beachten?

Sie müssten sich überlegen, ob Sie die Gruppen homogen zusammensetzen wollen (Studierende diskutieren untereinander; Lehrende diskutieren untereinander) oder heterogen (Studierende und Lehrende diskutieren gemeinsam). Bei heterogenen Gruppen und diesem Thema ist sicherlich das Konfliktpotenzial höher; allerdings ‚trauen’ sich gerade Studierende vielleicht nicht immer, Lehrenden gegenüber ihre Ansichten zur Lehrqualität zu äußern. Bei homogenen Gruppen ist vermutlich die Bereitschaft höher, bestimmte Probleme im Zusammenhang mit der Lehrqualität zu thematisieren (z. B. Schwierigkeiten beim Lernen oder Lehren); andererseits sind sich die Teilnehmer*innen vielleicht sehr schnell einig, so dass keine längere Diskussion zustande kommt. Sie müssten überlegen, was Ihnen wichtiger ist – das wiederum wird mit der genauen Fragestellung zusammenhängen.

 

 

Kapitel 6.4: Weitere offene Verfahren zur Erhebung verbaler Daten

 

1. Unter welchen Bedingungen eignet sich die schriftliche Befragung besser zur Datenerhebung als das Interview?

Die schriftliche Befragung eignet sich besser:

  • In Untersuchungen zu Gegenstandsbereichen, die einer starken sozialen Normierung unterliegen; hier ist die potenzielle Anonymität der schriftlichen Befragung von Vorteil;
  • Zur Rekonstruktion von Erinnerungsprozessen über die Zeit; die Erinnerungen können in schriftlicher Form sukzessive ergänzt werden;
  • Zur Befragung von Personen aus größerer räumlicher Entfernung.

 

2. Welches methodische Problem stellt sich bei der Entscheidung zwischen simultanem und retrospektivem lautem Denken?

 

  • Das simultane laute Denken ist näher am Phänomen, ist aber zugleich mit kognitivem Aufwand verbunden. Es beansprucht somit Ressourcen, die nicht mehr für die Aufgabenbearbeitung zur Verfügung stehen. Das Phänomen wird nicht mehr in seiner natürlichen Form erfasst.
  • Das retrospektive laute Denken unterbricht das Phänomen nicht, ist aber zeitlich nachgeordnet, so dass manche Erfahrungen und Gedanken schon nicht mehr wiedergegeben werden können. Auch beim postaktionalen lauten Denken wird das Phänomen somit nicht verzerrungsfrei erfasst.

 

Kapitel 6.5: Beobachtung

 

1. In welchen Hinsichten unterscheidet sich Beobachtung in der qualitativen von Beobachtung in der quantitativen Forschung?

Beobachtung in der quantitativen Forschung ist meist standardisiert: Vor Untersuchungsbeginn wird in einem Beobachtungsschema festgelegt, was genau beobachtet werden soll und in welche Kategorien das Beobachtete fallen kann. Beobachtung in der qualitativen Forschung ist dagegen meist nonstandardisiert, d. h. es werden keine vorab festgelegten Kategorien an den Gegenstandsbereich herangetragen.

Bei der Beobachtung in der quantitativen Forschung sind vor Untersuchungsbeginn auch die Beobachtungseinheiten festzulegen, die meistens eher feinkörning sind (einzelne Äußerungen, Verhaltensweisen). Demgegenüber ist Beobachtung in der qualitativen Forschung zunächst ganzheitlich: Es wird möglichst umfassend beobachtet; erst im Untersuchungsverlauf wird die Beobachtung zunehmend fokussierter.

Beobachtungsstudien in der quantitativen Forschung sind meistens von kürzerer Dauer; in der qualitativen Forschung können sie mehrere Jahre umfassen.

 

2. Eine Kommilitonin plant, für ihre Abschlussarbeit eine verdeckte teilnehmende Beobachtung in der örtlichen Drogenszene durchzuführen. Was würden Sie ihr zu bedenken geben?

  • Eine verdeckte Beobachtung beinhaltet Täuschung und ist daher unethisch – es sei denn, im Untersuchungszweck liegen sehr gute Gründe dafür, die Beobachtung trotzdem verdeckt durchzuführen. Aber ist das hier wirklich der Fall – oder ist Ihre Kommilitonin nur neugierig?
  • Ihre Kommilitonin wird in einer solchen Untersuchung vermutlich zur Mitwisserin bezüglich illegaler Aktivitäten. Eigentlich wäre sie verpflichtet, diese der Polizei zu melden, was aber die Untersuchung gefährden könnte (und auch Ihre Kommilitonin).
  • Gerade die Szene im Umfeld illegaler Drogen ist nicht gut zugänglich. Wie will Ihre Kommilitonin sich Zugang verschaffen?

 

3. Nennen Sie verschiedene Arten von Spuren, die sich im Rahmen nonreaktiver Verfahren in der qualitativen Forschung nutzbar machen lassen. Worauf verweisen diese Spuren?

  • Abnutzungserscheinungen: Diese verweisen auf die Häufigkeit des Gebrauchs und damit z. B. auf Bedeutsamkeit oder Beliebtheit.
  • ‚Aktive’ Spuren: Diese verweisen auf die Art und Weise der Nutzung von Räumen und Gegenständen.

 

Kapitel 6.6: Weitere Verfahren zur Erhebung qualitativer Daten

 

1. Nennen Sie zwei Verfahren zur Eigenproduktion von visuellem Material oder von Beobachtungsdaten.

Zwei beliebige von: Aufforderung zur Produktion eines Videos; zur Erstellung einer Webseite; Photo-Elicitation; Photovoice; szenisches Spiel; Rollenspiel

 

2. Was versteht man unter (ko-)mobilen Verfahren?

Ko-mobile Verfahren dienen der Erfassung der Bewegung von Menschen und Gegenständen im Raum und des Zusammenhangs zwischen Bewegung im Raum und Aneignung von Raum.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 7 - Qualitative Analyseverfahren

 

Kapitel 7.1: Datenaufbereitung: Transkriptionsverfahren

 

1. Muss man in der qualitativen Forschung immer eine Transkriptionsphase einplanen? Warum (nicht)?

Nein. Eine Transkriptionsphase ist nur erforderlich, wenn man Material in auditivem Format aufgezeichnet hat, z. B. wenn man Interviews aufgenommen hat. Auditives Material sollte vor der Auswertung verschriftlicht werden. Die Verschriftlichung erhöht die Systematik der Auswertung.

 

2. Inwiefern beinhaltet eine Transkription immer schon eine Interpretation des Materials?

Ein Transkript kann die konkrete Äußerungssituation nie vollständig wiedergeben, einschließlich aller paraverbalen und nonverbalen Elemente. Die Entscheidung darüber, welche Elemente der Äußerungssituation man in das Transkript aufnimmt, beinhaltet somit bereits eine Interpretation dessen, was wichtig und was nicht so wichtig ist. Außerdem werden Transkripte vielfach mit Satzzeichen versehen. Diese stellen eine Interpretationsleistung beim Transkribieren dar. Und schließlich gibt es in einer Aufnahme immer wieder schwer verständliche Stellen. Was hier ins Transkript aufgenommen wird, ist letztlich ebenfalls eine Frage der Interpretation.

 

3. Wenn Studierende zum ersten Mal Interviews durchführen, möchten sie häufig so viele Informationen wie möglich in das Interviewtranskript aufnehmen. Warum kann das problematisch sein, und wovon sollte die Entscheidung abhängen?

Ein Transkript bewegt sich in einem Spannungsfeld von Authentizität und Lesbarkeit. Je mehr Informationen in das Transkript aufgenommen werden, desto authentischer ist es; zugleich ist es aber auch schwerer lesbar. Außerdem erfordert eine umfangreiche Transkription unter Berücksichtigung von paraverbalen und nonverbalen Aspekten viel Zeit. Daher ist es besser, nur soviel Information in das Transkript aufzunehmen wie nötig. Welche Information jeweils ‚nötig’ ist, hängt mit der Forschungsfrage zusammen: Wenn es darum geht, Meinungen, Einstellungen und die Gründe dafür zu erfassen, dann ist in der Regel die Transkription des Äußerungsinhalts ausreichend. Nur wenn man sozusagen ‚hinter“ die Äußerungen blicken will, dann ist auch die Verschriftlichung paraverbaler und nonverbaler Elemente erforderlich.

 

4. Was versteht man unter einem Transkriptionssystem und wann ist ein solches System hilfreich?

Ein Transkriptionssystem ist ein Regelwerk. Es regelt die Wiedergabe von paraverbalen und nonverbalen Elementen durch Symbole, und es enthält Spezifikationen dafür, wie die Beiträge mehrerer Sprecher*innen auf der Seite angeordnet sind.

 

Kapitel 7.2: Auswertungsmethoden

 

Kapitel 7.2.1: Objektive Hermeneutik

 

1. Nennen Sie drei (beliebige) Grundannahmen der objektiven Hermeneutik!

Drei beliebige aus den folgenden:

  • Verstehen ist immer Verstehen von Sinn.
  • Die sinnhafte Welt konstituiert sich ausschließlich in der Sprache und manifestiert sich in Texten.
  • Menschliches Handeln wird durch soziale Strukturen geregelt und gesteuert.
  • Die Zielsetzung der objektiven Hermeneutik besteht darin, die Sinnstruktur zu rekonstruieren, die einer ausgewählten Handlungsweise zugrunde liegt, und die Regeln herauszuarbeiten, auf denen diese Sinnstruktur basiert.
  • Menschen haben meist keinen Zugang zu den Regeln, die ihrem Handeln zugrunde liegen. Die latente Sinnstruktur, die menschlichem Handeln zugrunde liegt, und der subjektiv gemeinte Handlungssinn stimmen daher vielfach nicht überein.
  • Jeder Fall ist zugleich allgemein und besonders.

 

2. Warum ist es wichtig, sich bei der objektiv-hermeneutischen Analyse genau an den Wortlaut des Materials zu halten?

Die konkreten Hypothesen, die im Verlauf der objektiv-hermeneutischen Analyse aufgestellt werden, ergeben sich aus dem genauen Wortlaut. Für eine sinngemäß vergleichbare, aber vom Wortlaut her andere Äußerung würde sich auch eine andere Hypothese ergeben. Ebenso wichtig ist der genaue Ablauf der Äußerung(ssituation) bzw. die Interaktionssequenz (s. dazu auch Schritte der objektiv-hermeneutischen Analyse).

 

3. Welches sind die Schritte einer objektiv-hermeneutischen Analyse?

Die allgemeinen Schritte sind:

  • Auf der Grundlage eines ersten, sehr kleinen Ausschnitts einer Interaktion werden Hypothesen über die objektiven Sinnstrukturen aufgestellt, die dieser Interaktion zugrunde liegen.
  • Die Hypothesen werden mit dem Material verglichen, d. h. mit dem weiteren Interaktionsverlauf. Dabei werden solche Hypothesen verworfen, die mit dem Interaktionsverlauf nicht vereinbar sind.
  • Es werden nacheinander mehrere solche Analysen durchgeführt, wobei sukzessive immer mehr Textmaterial einbezogen wird.
  • Wenn mehrere Analyseschritte immer wieder eine Strukturhypothese bestätigen, werden die Analysen zu einer Strukturgeneralisierung verdichtet.

Wenn Sie als Antwort speziell die Schritte der Sequenzanalyse genannt haben, ist das auch richtig!

 

Kapitel 7.2.2: Dokumentarische Methode

 

1. Worin besteht das Ziel der dokumentarischen Methode?

Ziel der dokumentarischen Methode ist es, das implizite, kollektive Wissen zu rekonstruieren, das gesellschaftlichen Handlungen zugrunde liegt und diese zugleich orientiert.

 

2. Welche Formen des Wissens werden in der dokumentarischen Methode unterschieden?

In der dokumentarischen Methode unterscheidet man zwischen theoretischem, kommunikativ-begrifflichem Wissen einerseits und atheoretischem, konjunktiv-implizitem Wissen andererseits. Kommunikativ-begriffliches Wissen ist eher abstrakt. Atheoretisches, implizites Wissen wird dagegen in Erfahrugsräumen erworben und manifestiert sich in unserer Handlungspraxis. Dieses implizite Wissen wird mittels der dokumentarischen Methode rekonstruiert.

 

3. Stellen Sie sich vor, Sie haben Gruppendiskussionen dazu erhoben, welche Maßnahmen jede*r einzelne ergreifen kann, um dem Klimawandel entgegenzuwirken. Sie möchten die Diskussionen mit der dokumentarischen Methode auswerden. Wie gehen Sie vor?

  • Im ersten Schritt wählen Sie Passagen für die weitere Analyse aus. Das können inhaltlich besonders relevante Passagen sein oder sprachlich besonders dichte. Auch die Anfangssequenzen von Interaktionen eignen sich gut für die Analyse mittels der dokumentarischen Methode (also die Beiträge die unmittelbar auf eine Frage der Diskussionsleitung folgen).
  • Als nächstes erstellen Sie eine formulierende Interpretation für die gesamte Gruppendiskussion (dieser Schritt ist mit dem ersten verzahnt), d.h. Sie arbeiten die thematische Struktur der Gruppendiskussion heraus.
  • Im dritten Schritt erstellen Sie reflektierende Interpretationen der zuvor ausgewählten Interaktionssequenzen und vergleichen diese untereinander. Dadurch erarbeiten Sie handlungsleitende Orientierungsrahmen.
  • Im nächsten Schritt erfolgt die sinngenetische Typenbildung. Diese baut auf den zuvor identifizierten Orientierungsrahmen auf.
  • Im letzten Schritt erfolgt ggf. di soziogenetische Typenbildung.

 

Kapitel 7.2.3: Kodieren

 

1. Welche Art der Textbedeutung lässt sich durch Kodieren erfassen?

Kodieren dient der Erfassung der tatsächlichen Textbedeutung unter einer bestimmten Perspektive.

 

2. Was versteht man unter datenreduzierendem Kodieren?

Das datenreduzierende Kodieren dient der Zusammenfassung des Materials. Dieses wird auf Bedeutungsaspekte reduziert, die im Rahmen der Fragestellung von besonderer Relevanz sind.

 

3. Was versteht man unter datenerweiterndem Kodieren?

Beim datenerweiternden Kodieren werden neue Gesichtspunkte und Fragestellungen an das Material herangetragen.

 

4. Inwiefern stellt die Offenheit beim Kodieren sowohl einen Vorteil als auch einen Nachteil der Methode dar?

Die Offenheit erlaubt es, bei der Auswertung auch individuelle Bedeutungsaspekte zu berücksichtigen. Allerdings werden so sehr schnell sehr viele Kodes generiert, bei denen man leicht den Überblick verlieren kann. Auch gibt es keine festen Vorgaben für die Durchführung einer Kodierung.

 

Kapitel 7.2.4: Qualitative Inhaltsanalyse

 

1. Inwiefern zeichnet sich die Inhaltsanalyse durch Systematik aus?

Die ausgewählten Bedeutungsaspekte werden erstens in Form eines Kategoriensystems im Detail expliziert; die Kategorien enthalten Anweisungen, unter welchen Bedingungen ein Text(teil) einer Kategorie zuzuordnen ist.

Die Zuordnung von Textstellen zu Bedeutungskategorien erfolgt zweitens meist intersubjektiv durch mindestens zwei voneinander unabhängig Kodierende (oder durch eine Person zu mehreren Zeitpunkten).
Auch sind inhaltsanalytische Kategoriensysteme zwar an das jeweilige Material angepasst; man durchläuft bei der Inhaltsanalyse jedoch immer dieselben Schritte.

 

2. Wie ist ein Kategoriensystem aufgebaut?

Inhaltsanalytische Kategoriensysteme sind hierarchisch aufgebaut. Sie bestehen aus mehreren Oberkategorien und mehreren Unterkategorien pro Oberkategorie. Kategoriensysteme können auch noch weiter ‚geschachtelt’ sein und pro Unterkategorie weitere Unterkategorien enthalten.

 

3. Aus welchen Bestandteilen setzt sich die Definition einer inhaltsanalytischen Kategorie zusammen?

Benennung, Explikation, Beispiel und ggf. Abgrenzung

 

4. Was bedeutet es, wenn ein Kategoriensystem deduktiv-induktiv erstellt wurde?

Ein Teil der Kategorien wurde aus Vorwissen abgeleitet (deduktiv, z. B. aus Theorien oder Forschungsergebnissen), ein anderer Teil wurde an Hand des Materials erstellt (induktiv). Häufig wird eine deduktiv-induktive Vorgehensweise derart realisiert, dass die Oberkategorien deduktiv, die Unterkategorien induktiv aus dem Material heraus entwickelt werden.

 

5. Warum ist die Inhaltsanalyse für die Auswertung eines einzelnen, längeren biografischen Interviews weniger geeignet als das Kodieren?

Die Inhaltsanalyse ist ein datenkomprimierendes, zusammenfassendes Verfahren. In einem biografischen Interview finden sich aller Wahrscheinlichkeit nach nicht viele Wiederholungen, so dass die Grundlage für eine Datenkomprimierung nicht gegeben ist. In einem solchen Fall ist das Kodieren besser geeignet, das es erlaubt, alle geäußerten Aspekte in die Auswertung einzubeziehen, auch wenn die Äußerung nur einmal erfolgt ist – oder auch eine biografische Analyse.

 

6. Nennen Sie Anhaltspunkte, die Aufschluss über die Validität eines Kategoriensystems geben!

Eine hohe Besetzung der Restkategorie zeigt an, dass viele Aspekte des Materials mit dem Kategoriensystem noch nicht erfasst werden.

Eine überproportional hohe Besetzung einer Kategorie im Vergleich zu den anderen Kategorien weist darauf hin, dass der Bedeutungsaspekt, der durch diese Kategorie abgebildet ist, noch vergleichsweise undifferenziert erfasst wird.

 

Kapitel 7.2.5: Diskursanalyse

 

1. Was versteht man unter einem Diskurs?

Ein Diskurs besteht aus einem Set aufeinander bezogener Texte, einschließlich der Verfahren ihrer Produktion, Verbreitung und Rezeption.

 

2. Nennen Sie zwei Kernannahmen der Diskursforschung.

Zwei beliebige unter den folgenden:

  • Intertextualität von Diskursen: Diskurse sind nicht einfach isolierte Texte, sondern sie beziehen ihre Bedeutung wesentlich aus ihrer Beziehung zu anderen Texten.
  • Kontextsensitivität von Bedeutungen: Bedeutungen verändern sich mit jedem Text, der dem Diskursuniversum hinzugefügt wird, und mit jeder Veränderung des Produktions-, Verbreitungs- oder Rezeptionskontextes.
  • Relevanz des Bedeutungskontexts: Die Bedeutungen von Diskursen erschließen sich nicht aus Texten allein, sondern die Bedingungen ihrer Produktion, Verbreitung, Rezeption, und auch deren Konsequenzen sind bei der Bedeutungsanalyse mit zu berücksichtigen.
  • Realitätskonstitutive Funktion von Diskursen: Sprache bildet Realität nicht ab, sondern Sprache konstruiert und konstituiert soziale Realität.

 

3. Handelt es sich bei der Diskursiven Psychologie eher um eine deskriptive oder um eine normativ-kritische Richtung der Diskursforschung? Inwiefern?

Im Rahmen der Diskursiven Psychologie werden Diskurse im Sinne sprachlicher Mittel rekonstruiert, mittels derer Sprecher*innen ihre Interaktionszwecke verfolgen. Damit handelt es sich um eine eher deskriptive Form der Analyse (Beschreibung von Zwecken und Ressourcen).

 

4. Worauf liegt der Schwerpunkt der normativ-kritischen Tradition der Diskursanalyse?

In der kritischen Diskursanalyse liegt der Schwerpunkt auf der Analyse von Diskurssystemen. Diese stellen zwar einerseits eine Ressource dar, derer sich Sprechende bedienen können. Andererseits markieren Diskurse aber auch die Grenzen des Sagbaren: Alles, was gesagt wird, kann nur innerhalb und mit den Mitteln eines Diskurses gesagt werden. Dem Diskurs kommt somit Macht über das Sagbare zu und letztlich auch über die Realität, die vermittels eines Diskurses konstituiert wird. Der Schwerpunkt der normativ-kritischen Diskursanalyse liegt folglich auf der Relation zwischen Diskursen und Macht.

 

Kapitel 7.2.6: Semiotik

 

1. Was versteht man unter einem Zeichen?

Ein Zeichen ist etwas, das für etwas anderes stehen bzw. dieses andere anzeigen oder bedeuten kann.

 

2. Worin besteht der Unterschied zwischen dem dyadischen und dem triadischen Zeichenbegriff?

Mit dem dyadischen Zeichenbegriff wird zwischen dem Zeichen und dem begrifflichen Inhalt des Bezeichneten unterschieden. Der triadische Zeichenbegriff beinhaltet die Unterscheidung zwischen dem Zeichen, dem Bezeichneten und dem Representamen, d. h. der Bedeutung, die dem Zeichen im Prozess des Decodierens zugewiesen wird. Der triadische Zeichenbegriff berücksichtigt somit im Gegensatz zum dyadischen Zeichenbegriff auch die Rezeption des Zeichens.

 

3. Was ist die Denotation von „Frühling“? Was wären einige Konnotationen?

  • Denotation: Jahreszeit zwischen Winter und Sommer; dauert vom 21. März bis zum 21. Juni (Sommeranfang)
  • Konnotationen: Wachstum, Erneuerung, Grün, Schneeglöckchen, Blüten, Ostern, Aufbruch, Jugend, Verliebtsein – von Ihnen fortzusetzen!

 

5. Gibt es zu „Frühling“ einen bedeutungskonstitutiven Gegensatz?

Letztlich kann sich ein bedeutungskonstitutiver Gegensatz nur aus dem Kontext der konkreten Verwendung des Begriffs ‚Frühling’ heraus erschließen; die Frage ist also schwer zu beantworten. ‚Kandidaten’ wären: Herbst, Älterwerden, fallende Blätter, Vergänglichkeit.

 

Kapitel 7.2.7: Analyse visueller Daten – Ikonologie

 

1. Was versteht man unter Ikonologie?

Die Ikonologie stellt eine Methode zur Analyse von visuellem Material dar, die in der Kunstgeschichte entwickelt wurde. Im Mittelpunkt stehen die Analyse von Symbolen und die motivgeschichtliche Einbettung der Darstellung. Die Analyse erfolgt auf drei aufeinander aufbauenden Ebenen: der darstellenden, der ikonografischen und der ikonologischen Ebene.

 

2. Worin unterscheiden sich die Darstellungsebene einerseits und die ikonografische und die ikonologische Ebene andererseits?

  • Auf der Darstellungsebene geht es darum, zu beschreiben was in einem Bild dargestellt ist – möglichst ohne es als etwas zu beschreiben bzw. zu identifizieren.
  • Auf der ikonografischen und der ikonologischen Ebene stehen die Identifikation und die Analyse von Symbolen im Mittelpunkt. Hier wird das Dargestellte unter Rückgriff auf seinen Symbolgehalt interpretiert.

 

3. Worin unterscheiden sich die ikonografische und die ikonologische Ebene?

Auf der ikonografischen Ebene geht es darum, die konventionelle Bedeutung von Symbolen zu analysieren. Auf der ikonologischen Ebene werden Symbol und Symbolgehalt in einen weiteren intertextuellen und motivgeschichtlichen Zusammenhang gestellt.

 

4. Was versteht man unter einem verdeckten Symbol?

Verdeckte Symbole sind Darstellungselemente, bei denen es unklar ist, ob ihnen lediglich eine Abbildungs- oder darüber hinaus eine symbolische Funktion zukommt. Sie sind daher nicht eindeutig als Symbole erkennbar.

 

Kapitel 7.2.8: Computergestützte Auswertung qualitativer Daten (CAQDAS)

 

1. Nennen Sie vier Funktionen qualitativer Software, die in den meisten CAQDAS-Paketen enthalten sind.

Vier beliebige unter den folgenden:

  • Dokumentenmanagement
  • Anlegen und Verwalten von Kategorien und Codes
  • Anlegen und Verwalten von Memos
  • Erstellen von Links
  • Suchfunktionen

 

2. Nennen Sie zwei zentrale Stärken von CAQDAS-Software.

  • Umfangreiche Such- und Retrievalfunktionen
  • Der Auswertungsprozess wird dokumentiert und damit nachvollziehbar.

 

Kapitel 7.3: Verfahren der Systematisierung

 

1. Warum kann es sinnvoll sein, die Ergebnisse einer qualitativen Studie einer weiteren Systematisierung zu unterziehen?

Die Ergebnisse qualitativer Untersuchungen sind oft sehr umfassend und werden dadurch auch schnell unübersichtlich. Systematisierungen der Ergebnisse helfen dabei, sich einen Überblick zu verschaffen.

Gerade wenn die Ergebnisse unübersichtlich sind, wächst die Gefahr, dass Forscher*innen sich bei der Darstellung auf besonders ‚passende’ Ergebnisse beschränken. Auch dieser Gefahr wirkt eine Systematisierung entgegen.

 

2. Was ist der Unterschied zwischen einem Typus und einer Typologie?

Eine Typologie besteht aus mehreren Typen und ihrer Relation untereinander. Ein Typus besteht aus mehreren Fällen, die sich aufgrund von Ähnlichkeit im Hinblick auf verschiedene Merkmale oder Eigenschaften zusammenfassen lassen.

‚Typologie’ ist also quasi der übergeordnete, ‚Typus’ der untergeordnete Begriff.

 

3. Welches sind die zwei Kriterien, nach denen Fälle zu Typen zusammengefasst werden?

  • Interne Homogenität: Die Fälle, die zu einem Typus zusammengefasst werden, sollen untereinander möglichst ähnlich sein.
  • Externe Heterogenität: Die Fälle, die verschiedenen Typen zugeordnet wurden, sollten sich stärker voneinander unterscheiden als die Fälle innerhalb eines Typs.

 

4. Welches sind die vier Schritte der empirisch begründeten Typenbildung?

  • Identifikation von Merkmalen bzw. Vergleichsdimensionen
  • Gruppierung der Fälle und Analyse empirischer Regelmäßigkeiten
  • Analyse inhaltlicher Zusammenhänge und Typenbildung
  • Charakterisierung der gebildeten Typen.

 

5. Wann eignet sich eine Matrix, wann eine Abbildung zur Systematisierung der Ergebnisse?

  • Matrizen eignen sich zur zusammenfassenden Darstellung verbaler Daten, z. B. der Ergebnisse von Inhaltsanalyse oder Codierung.
  • Abbildungen eignen sich zur Darstellung komplexer Zusammenhänge, z. B. zur Darstellung einer gegenstandsbezogenen oder einer subjektiven Theorie.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 8 - Bewertung qualitativer Forschung

 

Kapitel 8.1: Klassische Gütekriterien der qualitativen Forschung

 

1. Was ist unter dem Konzept der inneren Vergleichbarkeit zu verstehen und wie steht es im Zusammenhang mit dem Kriterium der Objektivität?

Das Konzept der inneren Vergleichbarkeit beruht auf der Annahme, dass bei der Datenerhebung nicht die äußere, sondern die innere Entsprechung der Situationen ausschlaggebend ist. Es wird also versucht, bei der Datenerhebung eine Situation herzustellen, die alle Teilnehmer*innen ähnlich erleben. Aber die Art und Weise, wie dieses vergleichbare Erleben hergestellt wird, kann sich von Person zu Person unterscheiden. Die innere Vergleichbarkeit stellt eine Form der Annäherung an das quantitative Gütekriterium der Objektivität aus qualitativer Perspektive dar. Sie wird auch als ‚emergentistische Objektivität‘ bezeichnet – also eine Form der Objektivität, die aus dem Erleben der Untersuchungssituation heraus entsteht.

 

2. Welche vier Ebenen sind bei der Beurteilung der Validität einer Studie in Betracht zu ziehen? Welche unterschiedlichen Perspektiven eröffnen diese Ebenen?

  • Interne Validität i. S. der Frage, inwieweit die Schlussfolgerungen, die aus einer Untersuchung gezogen werden, tatsächlich in den Daten begründet sind (auch als ‚argumentative Interpretationsabsicherung‘ bezeichnet).
  • Externe Validität i. S. der Generalisierbarkeit bzw. der Übertragbarkeit der Ergebnisse auf andere Fälle (oft Personen), andere Situationen und andere Operationalisierungen.
  • Validität der Datenerhebung i. S. der Frage, inwieweit es gelingt, bei der Datenerhebung auch tatsächlich das interessierende Phänomen zu erfassen.
  • Validität der Auswertung i. S. der Frage, inwieweit das gesamte Material in die Auswertung eingegangen ist und ob auch Gegenbeispiele zur bevorzugten Interpretation berücksichtigt wurden.

 

3. Wie können qualitativ Forschende die Validität der Datenerhebung erhöhen?

  • Erhebungsinstrumente wie Interview- oder Beobachtungsleitfäden vor Untersuchungsbeginn erproben und ggf. ändern.
  • Interviewer*innen vor Untersuchungsbeginn schulen – z. B. Probeinterviews führen lassen.
  • Teilnehmer*innen darüber aufklären, worum es bei der Untersuchung geht, soweit dies mit dem Untersuchungsgegenstand vereinbar.
  • Vertraulichkeit zusichern.
  • Eine vertrauensvolle Atmosphäre schaffen.

 

Kapitel 8.2: Alternative Gütekriterien qualitativer Forschung

 

1. Weshalb gibt es für die qualitative Forschung Diskussionen über alternative Gütekriterien?

Die Entwicklung alternativer Gütekriterien für die qualitative Forschung basiert auf dem Zweifel an der Übertragbarkeit und Passung der Gütekriterien quantitativer Forschung zu den wissenschaftstheoretischen, methodologischen und methodischen Besonderheiten qualitativer Forschung.

 

2. Was ist unter dem Konzept der Reflexivität zu verstehen, und weshalb ist diese in der qualitativen Forschung von besonderer Bedeutung?

Das Kriterium der Reflexivität hat das Ziel, die Doppelrolle von Forschenden, als externe Beobachtende und gleichzeitig aktiv Beteiligte in Kommunikation und Untersuchungsgeschehen, kontinuierlich zu reflektieren. Dies beinhaltet die Auseinandersetzung mit grundlegenden sozialen Konstellationen des Forschungskontexts, den damit verbundenen Wahrnehmungen der Forschungssituationen und alle relevanten Interaktions- und Deutungsprozesse. Die Relevanz der Reflexivität für die qualitative Forschung leitet sich daraus her, dass Forschende hier als ‚lebendige Forschungsinstrumente‘ beschrieben werden, welche durch eigene Positionen, Perspektiven, Überzeugungen und Wertvorstellungen ihre je eigenen Forschungszugänge konstituieren. Eben daraus ergibt sich die Doppelrolle qualitativer Forscher*innen.

 

3. Nennen Sie zwei weitere alternative Gütekriterien qualitativer Forschung und erläutern Sie, wie diese zur Sicherung der Qualität qualitativer Forschung beitragen.

Zwei beliebige unter den folgenden:

  • Kommunikative Validierung: Indem die Untersuchungsergebnisse den Teilnehmer*innen vorgelegt werden, lässt sich feststellen, inwieweit die Rekonstruktion der Forschenden mit den subjektiven Sichtweisen der Befragten übereinstimmt.
  • Methodentriangulation: Hier werden verschiedene Methoden auf denselben Gegenstand angewandt. Verschiedene Methoden eröffnen unterschiedliche und ergänzen sich wechselseitig zu einem umfassenderen Bild.
  • Angemessenheit der Methodenwahl: Die Methoden sind so zu wählen, dass sie dem Untersuchungsgegenstand entsprechen, sowohl einzeln als auch im Zusammenspiel untereinander. Dies ist bei qualitativen und quantitativen Studien gleichermaßen von Bedeutung. 
  • Intersubjektive Nachvollziehbarkeit: Die Dokumentation von Verfahrensprozessen und Forschungsschritten ermöglicht es Dritten, die Vorgehensweise, Entscheidungen und Interpretationen nachzuvollziehen. Die Überprüfung der intersubjektiven Nachvollziehbarkeit erfolgt mittels Audit Trails. Die intersubjektive Nachvollziehbarkeit ist gerade in der qualitativen Forschung von Bedeutung, wo die Forschenden selbst die Forschungsinstrumente darstellen.
  • Vertrauenswürdigkeit: Vertrauenswürdigkeit betrifft die Frage, warum Leser*innen eines Forschungsberichts darauf vertrauen können, dass die Darstellungen auch glaubhaft sind. Sie bemisst sich also daran, inwieweit die anderen Gütekriterien qualitativer Forschung erfüllt sind.

 

Kapitel 8.3: Ethische Fragen qualitativen Forschens

 

1. Mit welchen ethischen Problemen müssen sich qualitativ Forschende ganz allgemein auseinandersetzen, unabhängig von der konkreten Methode?

  • Die Reichhaltigkeit qualitativer Daten führt dazu, dass die betreffenden Personen leicht identifizierbar sind. Die Vertraulichkeit der Informationen ist daher in der qualitativen Forschung schwieriger zu gewährleisten als in der quantitativen.
  • Befragte geben manchmal Informationen preis, die ihnen selber oder anderen schaden können.
  • Forschungssituationen beinhalten oft ein asymmetrisches Machtverhältnis. Forscherinnen und Forscher sollten dieses Ungleichgewicht nicht ausnutzen, um sich zusätzliche Informationen zu verschaffen. Sie sollten auch von vornherein klarstellen, wenn es nicht Teil ihrer Forschungsbemühungen ist, in Problemsituationen Hilfe anzubieten.

 

2. Welche ethischen Probleme stellen sich bei der Anwendung der verdeckten teilnehmenden Beobachtung?

  • Wenn die Untersuchung verdeckt stattfindet, haben die Personen im Feld der Untersuchungsteilnahme auch nicht freiwillig zugestimmt.
  • Verdeckte Beobachtung beinhaltet eine Täuschung der Personen im Feld.
  • Bei der verdeckten teilnehmenden Beobachtung in Dunkelbereichen der Gesellschaft kann es sein, dass die Forschenden zu Zeugen krimineller Handlungen werden. Diese müssten sie eigentlich polizeilich melden, damit sie nicht strafrechtlich belangt werden können.
  • Bei der teilnehmenden Beobachtung im Allgemeinen dienen die Handlungen der Forschenden vielfach sowohl Forschungs- als auch persönlichen Zwecken. Die Personen im Feld können sich daher nachträglich ausgenutzt fühlen.

 

3. Welche Besonderheiten sind bei der Nutzung und Erhebung von qualitativen Daten im digitalen Raum gesondert zu bedenken?

  • Im digitalen Raum ist die Grenze zwischen privaten und öffentlichen Informationen oft fließend. Für die Forschung gilt, dass Forscher*innen in erster Linie den Schutz der betroffenen Personen im Blick haben sollten: Nicht alles, was öffentlich zugänglich ist, kann automatisch zu Forschungszwecken verwendet werden.
  • Vor der Verwendung digitaler Daten ist nicht nur die Zustimmung der Verfasser*in einzuholen (sofern es sich nicht eindeutig um öffentliches Material handelt), sondern auch die Zustimmung weiterer Personen, die mit den Daten in Verbindung stehen (z. B. durch Abbildung oder Verlinkung).
  • Das Problem der Anonymisierung qualitativer Daten ist bei digitalen Daten noch verschärft, denn die Verfasser*innen sind durch Suchmaschinen leicht zu ermitteln. Eine bloße Pseudonymisierung oder Anonymisierung ist daher zum Zweck des Datenschutzes nicht ausreichend.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 9 - Mixed-Methods-Forschung

 

Kapitel 9.1: Historie und Begriffsklärungen

 

1. Wann begann die Entwicklung der heutigen Mixed Methods-Forschung?

Die Kombination quantitativer und qualitativer Methoden und Ansätze hat in der sozialwissenschaftlichen Forschung eine lange Tradition. Die Anfänge der eigentlichen Mixed Methods-Forschung im heutigen Sinne gehen zurück in die 1980er Jahre. In den frühen 2000er Jahren kam es dann zu einer zunehmenden Institutionalisierung von Mixed Methods.

 

2. Welche beiden Merkmale sind für Mixed Methods-Studien konstitutiv?

  • Die Kombination von Elementen aus der qualitativen und der quantitativen Forschung und
  • Deren Integration

 

3. Wo sehen Sie Überschneidungsbereiche zwischen Mixed Methods und Triangulation?

Wenn in einer Triangulationsstudie sowohl eine quantitative und eine qualitative Erhebungsmethode verwendet und deren Ergebnisse untereinander in Beziehung gesetzt werden, handelt es sich zugleich auch um eine Mixed-Methods-Studie.

 

4. Nennen Sie drei mögliche Funktionen einer Mixed Methods-Studie.

Ganz allgemein kann man sagen, dass sich in einer Mixed Methods-Studie die Nachteile qualitativer und quantitativer Forschung durch die Vorteile der je anderen Tradition ausgleichen lassen.

Greene unterscheidet konkreter vier Funktionen von Mixed Methods-Studien:

  • Triangulation bzw. wechselseitige Validierung von Ergebnissen;
  • Komplementarität bzw. Erfassung von verschiedenen Facetten eines Phänomens durch Methoden aus den unterschiedlichen Forschungsansätzen;
  • Entwicklung, d.h. Verwendung der Ergebnisse aus einer ersten Studie im Rahmen des einen Forschungsansatzes zur Konzipierung von Elementen einer zweiten Studie im Rahmen des zweiten Forschungsansatzes;
  • Initiation, d.h. die bewusste Suche nach Inkonsistenzen und Diskrepanzen zwischen Ergebnissen;
  • Expansion, d.h. die Erweiterung der Befunde einer ersten Studie durch die Anwendung von Methoden aus dem je anderen Forschungsansatz in einer zweiten Studie.

 

Kapitel 9.2: Mixed Method-Designs

 

1. Welches sind Ihrer Ansicht nach die wichtigsten Kriterien bei der Planung einer Mixed Methods-Studie? Begründen Sie Ihre Meinung.

In der Literatur werden üblicherweise die folgenden Kriterien herangezogen: Reihenfolge (mit den Unterpunkten: wechselseitige (Un-)Abhängigkeit der Teilstudien und zeitliche Abfolge), Gewichtung, Untersuchungsziel bzw. –funktion, Schnittstellen (mit den Unterpunkten: was genau wird verknüpft und an welcher Stelle im Design findet das statt). Ich persönlich finde es hilfreich, ein Mixed Methods-Design in Bezug auf all diese Kriterien zu beschreiben. Welche Kriterien Ihrer Ansicht nach die wichtigsten sind – das ist Ihnen überlassen.

 

2. Nennen Sie zwei Kritikpunkte an der vermehrten Verwendung von Typologien zur Klassifikation von Mixed Methods-Designs. Was halten Sie selbst von solchen Typologien?

Zwei unter den folgenden:

  • Die Auswahl eines Designs ist notwendig mit der Planung der Studie verbunden. Dies steht im Gegensatz zu der Emergenz von Designs, wie sie gerade für die qualitative Forschung charakteristisch ist. Typologien gewichten somit den quantitativen Aspekt von Mixed Methods-Studien stärker als den qualitativen.
  • Typologien können die Vielfalt von Mixed Methods-Designs nicht abbilden. Viele Designs lassen sich daher nicht in den Typologien verorten.

In den Typologien werden qualitative und quantitative Designelemente einander konzeptuell gegenübergestellt. Damit ist indirekt eine Fortschreibung des Gegensatzes von ‚quantitativ‘ und ‚qualitativ‘ verbunden, der mit der Mixed Methods-Forschung eigentlich gerade überwunden werden soll.

Diesen Kritikpunkten lässt sich u.a. entgegenhalten, dass Typologien gerade für Noviz*innen in der Mixed Methods-Forschung eine gute Orientierung bieten. Auch sind die Design-Typen lediglich als Orientierung bei der Planung des Designs gedacht. Was Sie persönlich von Typologien halten, ist wiederum Ihnen überlassen. Wichtig ist nur, dass Sie Ihre Meinung begründen können.

 

3. Was versteht man unter einem sequenziellen Mixed Methods-Design? Nennen Sie zwei Beispiele.

Bei einem sequenziellen Design wird zuerst eine Studie aus einer der beiden Forschungstraditionen durchgeführt; daran schließt sich die Durchführung einer Studie aus der anderen Tradition an. Dabei werden die Ergebnisse der ersten Studie für die Planung und Umsetzung der zweiten Studie herangezogen. Die konkreten Formen des sequenziellen Designs hängen davon ab, ob zuerst die quantitative oder die qualitative Studie umgesetzt wird.

  • Beim Vertiefungsdesign steht die quantitative Studie am Anfang; daran schließt sich die qualitative Studie an.
  • Beim Verallgemeinerungsdesign steht die qualitative Studie am Anfang; daran schließt sich die quantitative Studie an.

 

Kapitel 9.3: Weitere Gesichtspunkte bei der Planung von Mixed Methods-Studien

 

1. Nennen Sie zwei mögliche Relationen der Stichproben in einer Mixed Methods-Studie.

Zwei beliebige der folgenden:

  • Identisch: Hier wird eine einzelne Stichprobe angesetzt, für die sowohl qualitative als auch quantitative Daten erhoben werden.
  • Aus derselben Population, aber verschieden: Hier liegt zwar beiden Stichproben dieselbe Population zugrunde, aber die ausgewählten Fälle sind je verschieden.
  • Eingebettet: Bei dieser Strategie wird für die Datenerhebung in der qualitativen Teilstudie eine Auswahl an Fällen aus der quantitativen Teilstudie herangezogen.
  • Mehrebenen: Die Stichproben bestehen aus unterschiedlichen Individuen bzw. Einheiten auf den verschiedenen Ebenen einer Organisation, sind aber durch die Zugehörigkeit zu dieser Organisation untereinander verbunden.

 

2. Weshalb werden Fragebögen mit geschlossenen Fragen und Interviews in der Mixed Methods-Forschung gerne kombiniert? Inwieweit ergänzen sich die beiden Datenerhebungsmethoden?

Eine quantitative Fragebogenstudie mit geschlossenen Fragen erlaubt es, eine Forschungsfrage an Hand von vielen Teilnehmer*innen zu untersuchen (Breite der Informationen). Mittels Interviews für eine kleinere Stichprobe lassen sich ausgewählte Aspekte dieser Antworten weiter vertiefen (Tiefe).

 

3. Welches ist die stärkste Form der Integration qualitativer und quantitativer Elemente in der Mixed Methods-Forschung? Was ist dabei zu beachten?

Die stärkste Form der Integration besteht darin, Daten aus dem einen Format ins andere zu konvertieren, die Daten zu einem Satz zusammenzuführen und gemeinsam auszuwerten. Dabei ist zu beachten, dass hier Daten aus dem einen ins andere Format überführt werden müssen. Dies geschieht meist in Form einer Quantifizierung qualitativer Daten, aber auch die Qualifizierung quantitativer Daten ist eine Option.

 

4. Was versteht man unter Meta-Inferenzen?

Meta-Inferenzen sind Schlussfolgerungen, die aus der Integration der Teilstudien einer Mixed Methods-Studie resultieren.

 

 

zurück zur Inhaltsübersicht