Die Befragung. Armin Scholl

Читать онлайн книгу.

Die Befragung - Armin Scholl


Скачать книгу
durch Zufall oder Quotenvorgaben erfolgt.

      Das Auswertungsziel standardisierter Verfahren besteht darin, über Häufigkeitsverteilungen bestimmte Phänomene, wie etwa das Meinungsklima zu einer öffentlichen Kontroverse, zu beschreiben oder über Häufigkeitsvergleiche Hypothesen zu überprüfen, die als Zusammenhang von mindestens zwei Variablen formuliert werden, wie etwa der Einfluss persönlicher Motive auf das Auswahl- und Nutzungsverhalten gegenüber bestimmten Medienangeboten.

      Die Gütekriterien quantitativer Forschung sind Objektivität, Reliabilität und Validität. Objektivität bezieht sich auf die Stabilität des Messinstruments unabhängig von der Erhebungssituation und von der Person, die es anwendet. Wenn unterschiedliche Interviewer beim gleichen Befragten unterschiedliche Antworten auf die gleiche Frage erzielten, wäre die Untersuchung wenig objektiv. Aus diesem Grund werden das Verhalten des Interviewers, die Interviewsituation und der Fragebogen möglichst standardisiert. Da der Begriff der Objektivität erkenntnistheoretisch belastet ist, wird er heute meist durch Intersubjektivität oder intersubjektive Überprüfbarkeit ersetzt. Wenn ein Instrument zu den gleichen Ergebnissen führt, egal wer es anwendet, impliziert dies nicht, dass die Messung deshalb prinzipiell unabhängig vom Anwender ist, sondern nur, dass es von allen Anwendern im gleichen Maß abhängig ist. Diese Annahme reicht aus, um die Vergleichbarkeit der Ergebnisse zu sichern.

      Reliabilität meint die Reproduzierbarkeit des Instruments. Wiederholte Messungen mit dem gleichen Instrument müssen zu dem gleichen Ergebnis kommen, sofern sich in der Zwischenzeit der Forschungsgegenstand nicht verändert hat. Wenn also ein Befragter zweimal die gleiche Frage bzw. zwei sinngleiche Fragen gestellt bekommt und er jedes Mal gleich antwortet, gilt die Frageformulierung [25]als reliabel. Die Reliabilität ist insbesondere bei sehr differenzierten Messungen gefährdet, etwa wenn eine Meinung auf einer zehnstufigen Skala angegeben werden soll, oder wenn ein Befragter nur eine sehr oberflächliche Meinung zu einem Sachverhalt hat bzw. den Sachverhalt für nicht relevant hält und eine fast willkürliche Antwort gibt.9

      Validität meint die inhaltliche sachlogische Gültigkeit und betrifft die Beziehung zwischen dem theoretischen Konstrukt und der empirischen Messung. Wenn man etwa das Wissen des Befragten von der bevorstehenden Kommunalwahl erfahren will, ist die Frage nach dem Datum wahrscheinlich wenig valide. Zum einen umfasst diese Frage nur einen einzigen Aspekt des Wissens, zum anderen sagt möglicherweise das Wissen dieses Datums nichts darüber aus, wie gut der Befragte sich in der Kommunalpolitik auskennt. Validität ist ebenfalls nicht gegeben, wenn der Befragte bewusste Falschaussagen macht.

      Alle drei Kriterien sind methodentheoretisch diskutierbar, praktisch verbesserbar durch gute Kenntnis vom Forschungsgegenstand und durch die standardisierte Untersuchungsanlage auch messbar. Dafür können unterschiedliche statistische Verfahren eingesetzt werden (vgl. Diekmann 2011: 247-261; Brosius / Haas / Koschel 2012: 49ff.).

      Offene Verfahren sind weniger stark regelgeleitet und streben in erster Linie ein tieferes Verstehen und Verständnis vom Forschungsgegenstand an. Um dieses Ziel zu erreichen, individualisieren (und »subjektivieren«) die Forscher

       den Fragebogen, indem die Interviewer je nach Antwort des Befragten flexibel nachfragen und das Instrument in der Feldphase der Befragung bis zum Erreichen theoretischer Vollständigkeit (»theoretical saturation«) verändert werden kann (vgl. Rubin / Rubin 2005: 33ff.);

       die Interviewsituation, indem der Interviewer offen, konversations- und alltagsnah, allerdings gewissenhafter, professioneller und tiefer als im Alltag fragt und zuhört und versucht, den Befragten nicht einseitig in die Rolle des Auskunftgebers seiner »Daten« zu drängen (vgl. Rubin / Rubin 2005: 12ff.);

       die Auswahl der Befragten, indem die Zielpersonen bewusst und in Abhängigkeit von der theoretischen Fragestellung ausgesucht werden. Die Ziehung der Stichprobe kann dabei auch nach jedem Fall neu erfolgen, um weitere geeignete, für die Fragestellung auskunftsfähige Befragte auszusuchen, bis das Thema erschöpfend behandelt ist (vgl. Rubin / Rubin 2005:79-92). Ziel des qualitativen Stichprobenplans ist nicht Repräsentativität, sondern die maximale Variation und Heterogenität in Bezug auf die forschungsrelevanten Merkmale, für die hinreichend viele Befragte ausgesucht werden müssen. (vgl. Kelle / Kluge 2010: Kapitel 3).

      [26]Während bei standardisierten Umfragen der Forscher viele und anonyme Daten theoriegeleitet oder ad hoc interpretiert, wird bei qualitativen Befragungen die Deutung bestimmter Sachverhalte zwischen dem Interviewer (bzw. Forscher) und dem Befragten »ausgehandelt«. Qualitative Forscher interessieren sich folglich mehr für die Alltagstheorien der Befragten als für akademische Theorien (vgl. Rubin / Rubin 2005: 12ff.; Kvale / Brinkmann 2009: 26f., 57f.).

      Weiterhin korrespondieren quantitativ-standardisierte Verfahren eher mit deduktiver Vorgehensweise und qualitativ-offene Verfahren eher mit induktiver Vorgehensweise. Dies bedeutet nicht notwendigerweise, dass standardisierte Verfahren immer theoriegeleitet sein müssen und offene Verfahren immer von den »Daten« ausgehen müssen, aber erstere erfordern schon bei der Fragebogenentwicklung eine deduktive Vorgehensweise, während letztere nur wenige Vorgaben machen und flexibel auf die Befragten reagieren.10 Die qualitative Sozialforschung bevorzugt deshalb oft eine »abduktive« Logik, welche eine eher dialektische Beziehung zwischen theoretischen Annahmen und empirischen Ergebnissen unterstellt (vgl. Kelle / Kluge 2010: 21ff.), während bei der quantitativen Sozialforschung induktive und deduktive Logik quasi nebeneinander stehen oder zeitlich einander folgen.

      Die Gütekriterien qualitativer Forschung sind Transparenz, Konsistenz und Kohärenz sowie Kommunikabilität. Transparenz wird hergestellt über die möglichst vollständige Dokumentation der Transkripte vom Interviewgespräch und der Kategorisierungsschritte bei der Analyse. Konsistenz entspricht der Reliabilität in der standardisierten Forschung und bezieht sich auf die Auskünfte der Befragten. Allerdings sollen Inkonsistenzen nicht vermieden oder ausgeschlossen, sondern verstanden werden oder erklärbar sein. Konsistenz betrifft daneben auch die Vergleichbarkeit unterschiedlicher Interview- und lebensweltlicher Situationen.

      [27]Kohärenz bezieht sich auf die Themen der Befragung und meint den thematischen Bezug der Aussagen des Befragten, der bei der Auswertung festzustellen ist. Die Kommunikabilität in der qualitativen Forschung korrespondiert mit der Validität in der quantitativen Forschung. Die gemeinsame Aushandlung von Bedeutung wird bei der Ergebnisdokumentation sichtbar gemacht in Form von Zitaten der Befragten11 (vgl. Rubin / Rubin 2005: 264; Kvale / Brinkmann 2009: 279ff.).

      Die Methoden der Auswertung unterscheiden sich ebenfalls von denen der standardisierten Forschung, aber sie unterscheiden sich auch innerhalb der qualitativen Forschung. Die Interviewer oder Befragten füllen keinen Fragebogen aus, sondern das Gespräch wird aufgezeichnet und liegt damit als Rohtext vor, der nicht wie bei der quantitativen Inhaltsanalyse in numerische Symbole überführt, sondern in abstraktere Textformen transformiert wird. Die qualitative Auswertung einer qualitativen Befragung reicht von der »quasi-nomothetischen« Vorgehensweise, die teilweise – ähnlich wie die standardisierte Auswertung – vom Kontext abstrahiert und generalisiert, bis zur »konsequent-idiografischen« Vorgehensweise, die sich auf den Einzelfall bezieht und in diesem sich ausdrückende allgemeine Strukturen aufdeckt (vgl. Flick 1995: 163f.).

      Für die »quasi-nomothetische« Vorgehensweise steht die Methode der qualitativen Inhaltsanalyse12, bei der induktiv (vom Einzelfall ausgehend) und iterativ (schrittweise) Kategorien13 gebildet werden (vgl. Kvale / Brinkmann 2009: 201208). Die Analyse kann in zwei Richtungen erfolgen: Durch die Abstrahierung der Aussagen der Befragten werden diese induktiv mehrdimensional typologisiert (analog dem statistischen Verfahren der Clusteranalyse). Durch die Vorgabe bestimmter soziodemografischer oder theorierelevanter Merkmale werden die Befragten in Gruppen unterteilt und in der Auswertung wird nach Ähnlichkeiten und Unterschieden in Bezug auf weitere relevante Merkmale gesucht und entspricht damit in etwa der Logik des statistischen Verfahrens der Varianzanalyse (vgl. Kelle / Kluge 2010: 38f., 43ff.).

      [28]Eine »konsequent-idiografische« Vorgehensweise verfolgen diverse Methoden der Textanalyse wie die Ethnografie, die Konversationsanalyse oder hermeneutische Verfahren des Textverstehens (vgl. Titscher et al. 1998: 107ff., 121ff., 142ff., 247ff.). Diese Verfahren beziehen den kulturellen Kontext und die konkrete Entstehungssituation


Скачать книгу