Desktop-Version

Start arrow Medien und Kommunikationswissenschaft arrow Methoden der empirischen kommunikationsforschung

< Zurück   INHALT   Weiter >

9.8 Ablauf einer Inhaltsanalyse

Anhand eines Beispiels sollen noch einmal alle Phasen des Ablaufs einer Inhaltsanalyse vergegenwärtigt werden. Die einzelnen Schritte entsprechen wie bei der Befragung dem generellen Schema zum Ablauf des empirischen Forschungsprozesses.

9.8.1 Entdeckungszusammenhang: Ein Phänomen aus der sozialen Wirklichkeit wird in eine wissenschaftliche Fragestellung überführt

Der Auftrag bzw. das allgemeine Forschungsinteresse sei, die Berichterstattung über den Bundestagswahlkampf 1998 zu untersuchen. „Wie haben die Medien über die Kanzlerkandidaten und über den Wahlkampf selbst berichtet?“ wäre die generelle Fragestellung, die sich aus dem konkreten Phänomen der sozialen Wirklichkeit herleitet. Man übersetzt die allgemeine Problemstellung in eine wissenschaftliche Fragestellung, die in diesem Fall mittels einer Inhaltsanalyse empirisch überprüft werden soll. Es werden mehrere Hypothesen entwickelt, eine davon könnte lauten: „Es gibt eine zunehmende Amerikanisierung des Wahlkampfes bzw. der Berichterstattung über den Wahlkampf.“ Damit wäre ein Schwerpunkt gesetzt – nicht die Berichterstattung in ihrer gesamten Komplexität, sondern nur ein Ausschnitt davon wird untersucht[1].

9.8.2 Begründungszusammenhang: Defi der Begriffe, Operationalisierung des theoretischen Konstruktes, Konzeption des Codebuches, Codierung, Auswertung

An dieser Stelle taucht der erste Definitionsbedarf auf: Was versteht man unter Amerikanisierung? Welche Definitionen wurden bisher in der Literatur angeboten und welche Begriffsbestimmung soll im vorliegenden Fall zugrunde liegen? Das theoretische Konstrukt wird über die Zerlegung in verschiedene Teilkonstrukte expliziert. Diese könnten sein:

• Konzentration der Berichterstattung auf die Person des Kandidaten

• Vernachlässigung von Themen

• Verwendung emotionalisierender Bilder

• Stil eines „horse race journalism [2]

Über diese Teilkonstrukte wiederum findet sich einiges in der Fachliteratur. Die einschlägigen Untersuchungen sowie deren Ergebnisse und Argumentationslinien werden geprüft und mit der angemessenen Tiefe für die Fundierung der eigenen Untersuchung dargestellt. Man muss sicher nicht jede Literaturstelle kennen und zitieren. Es geht bei der Darstellung des Forschungsstandes und der damit verbundenen theoretischen Grundlegung der eigenen Arbeit vielmehr darum, einhellige oder kontroverse Standpunkte zum Forschungsgebiet so zu nutzen, dass sie sachdienliche Hinweise für das Konzept der anstehenden Studie liefern. Das Studium der Literatur ist deshalb keine Pflichtarbeit, die irgendwie zur Abfassung einer Studie dazugehört, sondern schon in dieser recht frühen Phase der Konzeption die Grundlage und ein professionelles Korrektiv für die eigene Argumentation und den Aufbau der Untersuchung.

Die zentrale Aufgabenstellung bei einer Inhaltsanalyse ist die theorieund empiriegeleitete Kategorienbildung, also die Entwicklung des Codebuchs. Theoriegeleitet meint unter anderem den Umstand, dass aus bereits vorhandener Literatur entnommen wird, welche Kategorien bisher zu diesem Thema entwickelt wurden. Häufig erfasst man aber das Spezifische eines Untersuchungsthemas besser, wenn man zusätzlich die eigenen Ideen nutzt, also sich das zu untersuchende Material zunächst einmal ansieht und so empiriegeleitet weitere Kategorien gewinnt[3]. So könnte das Ergebnis einer Inhaltsanalyse sein, dass im Zusammenhang mit der Bundestagswahl 1998 immer auf 16 Jahre Kanzlerschaft von Helmut Kohl hingewiesen wird. Also wird man mit einer zusätzlichen Kategorie diesen Bereich abdecken.

Der Prozess der Kategorienbildung läuft sowohl deduktiv (theoriegeleitet aus der Literatur) als auch induktiv (empiriegeleitet aus eigener Anschauung) ab. Nur dadurch ist gewährleistet, dass man einen Gegenstandsbereich vollständig erfassen kann.

Durch das Kategorienschema werden also Indikatoren gebildet und die theoretischen Konstrukte operationalisiert. Unter Hinzuziehung theoretischer und empirischer Überlegungen werden zugleich die Vollständigkeit und Trennschärfe der Kategorien hinsichtlich des theoretischen Konstruktes immer wieder geprüft. Das Ergebnis dieses Schrittes ist ein erster Codebuchentwurf. Wie bei einer Befragung folgt nun eine Phase, in der diejenigen, die später das Material codieren sollen, zum ersten Mal mit dem Messinstrument vertraut gemacht werden, um zu prüfen, ob das entwickelte Instrument überhaupt handhabbar ist. Man diskutiert in Codiererbesprechungen, ob die Kategorien wirklich trennscharf und die Codieranweisungen verständlich aufbereitet sind. Und dann werden die ersten Probecodierungen vorgenommen. Der Pretest erfolgt dann mit einer Teilmenge des tatsächlich relevanten Materials, wobei die Codierer während des gesamten Pretests in der Regel etwa 10 % des nachher tatsächlich zu codierenden Materials probecodieren.

Beim nächsten Codierertreffen werden die Ergebnisse der ersten Codierung diskutiert. Voneinander abweichende Codierungen geben meistens schnell Hinweise auf die gröbsten Schwächen des Codebuchs. Kategorien werden dann vielleicht mit neuen Ausprägungen versehen, Codieranweisungen mit noch mehr Beispielen bestückt und deutlicher gemacht. Erneut werden die Codierer gebeten, Material zu codieren, das dann wiederum beim nächsten Treffen besprochen wird. Die Pretestphase ist also ein iterativer Prozess, an dessen Ende das fertige Codebuch steht. Der Pretest durchläuft dabei wiederholt drei Phasen: Codierung, Kontrolle und Anpassung des Codebuches. Dies geschieht so lange, bis eine befriedigende Interund Intracoderreliabilität festgestellt werden kann, d. h. die Codierer fast immer die gleichen Codierungen vornehmen. Die Dauer dieses Prozesses hängt von der Kompliziertheit des Codebuches und der Erfahrung der Codierer ab.

Nun folgt die eigentliche Codierung, bei der die Verteilung des Materials an die Codierer eine wichtige Rolle spielt. Es sei daran erinnert, dass wir mittels einer Stichprobe das zu codierende Material festgelegt hatten. Wichtig ist, dass das Untersuchungsmaterial einer Zeitung oder aus einem Zeitraum nicht von einem Codierer verschlüsselt werden darf, sondern dass das zu codierende Material möglichst mit einem Zufallsalgorithmus auf die Codierer verteilt wird. Warum dies sinnvoll ist, ist unschwer zu verstehen. Menschen lernen und reifen, so auch Codierer. Sie entwickeln (ungewollt) eine besondere Art und Weise, die Analyseeinheiten zu verschlüsseln. Auch wenn eine gute Reliabilität während der Pretestphase gemessen wurde, ist nicht zu verhindern, dass sich durch diese Reifungsprozesse bei einzelnen Codierern Fehler einschleichen, so dass durch individuelle Interpretationen des Materials keine reliable Anwendung der Kategorien erfolgt. Deshalb werden bei größeren Forschungsvorhaben auch während der Codierung Reliabilitätstests durchgeführt. Wenn ein Codierer das Material eines Mediums, der zweite das zweite Medium verschlüsselt, können systematische Fehler auftreten, die am Ende die ganze Untersuchung unbrauchbar machen. Variiert man dagegen das Untersuchungsmaterial zufällig oder systematisch, werden auch Codierfehler zufällig auftreten und vermutlich innerhalb der Toleranzen der Irrtumswahrscheinlichkeit liegen. Sowohl die Zeiträume als auch die Medien müssen also so auf die Codierer verteilt werden, dass sich keine Häufungen bei bestimmten Medien oder bestimmten Zeiträumen ergeben.

Der letzte Schritt in der Phase des Begründungszusammenhangs ist die Auswertung, d. h. die Dateneingabe (sofern sie nicht im Zuge der Codierung am PC bereits erfolgte), die Datenbereinigung und die komplette Analyse plus Ergebnisdarstellung. Hier wird die zentrale Fragestellung mit den Datenanalyseverfahren beantwortet bzw. der Rückbezug vom zahlenmäßigen Ergebnis auf die soziale Realität vorgenommen. Kam es nun zu einer Amerikanisierung des Wahlkampfes? Eine Antwort könnte darin bestehen, dass sich in der Berichterstattung zum Bundestagswahlkampf 1998 23 % aller Aussagen auf den Wahlkampf selbst („horse race“) bezogen haben. Die Zahl sagt an sich noch nichts über Amerikanisierung, gewinnt aber dann an Wert, wenn man diese fiktiven 23 % mit Ergebnissen früherer Studien vergleicht (oder selbst einen Vergleich zum Beispiel zwischen der Berichterstattung von 1994 und 1998 gemacht hat). Die signifikante Zunahme des Zahlenwertes würde dann die These der Amerikanisierung in Bezug auf den Indikator „horse race journalism“ stützen. Man hat also ganz im Sinn des Zieles einer Inhaltsanalyse systematisch und quantitativ die Inhalte von massenmedial verbreiteten Texten erfasst und somit von einem manifesten Text auf einen nicht-manifesten Kontext geschlossen.

9.8.3 Verwertungszusammenhang: Der praktische und theoretische Gehalt der Studie wird genutzt

Die Studie erhält nur dann eine Relevanz, wenn die Ergebnisse an die Öffentlichkeit gelangen. Üblicherweise versucht der Forscher, einen Aufsatz in den einschlägigen Fachpublikationen unterzubringen, ein Buch zu schreiben und vielleicht seine Erkenntnisse auf einer Tagung zur Diskussion zu stellen. Ziel der Forschung ist es ja, mit jeder Studie zur Entwicklung der theoretischen Grundlagen des jeweiligen Fachs beizutragen. Auf der Seite der Öffentlichkeit soll die Studie einen bestimmten gesellschaftlichen Prozess (zum Beispiel die „Entpolitisierung der Politik“) kritisch beglei-

ten. Sie liefert im Idealfall das Material für eine breite Diskussion über dieses Phänomen. Dass die Argumente der Wissenschaft dann durchaus instrumentell eingesetzt werden, steht wieder auf einem anderen Blatt.

  • [1] Näheres zu diesem Thema findet man bei Brettschneider (2000)
  • [2] Dieser Begriff beruht auf einer Feststellung, die in den USA gemacht wurde. Im Wahlkampf konzentriert sich die Berichterstattung weniger auf die Thdes Wahlkampfes als vielmehr auf den Wettkampf zwischen zwei oder mehreren Kandidaten. Berichtet wird, wer um wie viele Längen „vorne“ liegt, ganz wie bei einem Pferderennen
  • [3] Die Entwicklung eines Kategorienschemas, die Auswahl der Medien, die Ziehung der Stichprobe und die Rekrutierung der Codierer laufen im Prinzip parallel ab. Was in der abstrakten Form des Schemas wie ein zeitliches Hintereinander wirkt, ist in der Praxis eher ein gleichzeitig ablaufender Prozess, in dem sich Erkenntnisse zum Beispiel aus der Stichprobenziehung bei der Kategorienbildung verwerten lassen. Nicht zuletzt Geldund Zeitnot befördern diese Arbeitsweise
 
< Zurück   INHALT   Weiter >

Related topics