Abduktion: Unterschied zwischen den Versionen

Aus SozFra
Zur Navigation springen Zur Suche springen
 
(2 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 3: Zeile 3:
 
Abduktion kann als ein Entdeckungsverfahren neuer Fakten als grundlegender Teil einer umfassenden Logik der Forschung verstanden werden. Besteht in diesem Sinne eine erste Stufe des wissenschaftlichen Erkenntnisprozesses in der Findung einer Hypothese mittels Abduktion, dann besteht die zweite aus der Ableitung von Voraussagen aus der Hypothese, also einer Deduktion, und die dritte in der Suche nach Fakten, welche die Vorannahmen „verifizieren“, also einer Induktion. Sollten sich die Fakten nicht finden lassen, beginnt der Prozess von neuem, und dies wiederholt sich so oft, bis die „passenden“ Fakten erreicht sind. Mit dieser Bestimmung entwirft Peirce eine dreistufige Erkenntnislogik von Abduktion, Deduktion und Induktion.
 
Abduktion kann als ein Entdeckungsverfahren neuer Fakten als grundlegender Teil einer umfassenden Logik der Forschung verstanden werden. Besteht in diesem Sinne eine erste Stufe des wissenschaftlichen Erkenntnisprozesses in der Findung einer Hypothese mittels Abduktion, dann besteht die zweite aus der Ableitung von Voraussagen aus der Hypothese, also einer Deduktion, und die dritte in der Suche nach Fakten, welche die Vorannahmen „verifizieren“, also einer Induktion. Sollten sich die Fakten nicht finden lassen, beginnt der Prozess von neuem, und dies wiederholt sich so oft, bis die „passenden“ Fakten erreicht sind. Mit dieser Bestimmung entwirft Peirce eine dreistufige Erkenntnislogik von Abduktion, Deduktion und Induktion.
  
'''Schlussform der Abduktion - unterschieden von deduktiven und induktuktiven Regeln des logischen Schliessens.'''
+
'''Schlussform der Abduktion - unterschieden von deduktiven und induktiven Regeln des logischen Schliessens.'''
  
 
Die von Peirce aufgewiesene Schlussform der Abduktion löst ein Problem des Induktionsparadigmas, des erfahrungswissenschaftlichen Schließens von Einzelfällen auf eine Regel (mit der das ›Allgemeine‹ bestimmbar wird), angesichts des vorliegenden Resultats. Als eine Regel, die sich nicht auf ein axiomatisches (Deduktions-)System bezieht, gilt sie jeweils nur vorläufig, bis zu ihrer möglichen Falsifizierung.  
 
Die von Peirce aufgewiesene Schlussform der Abduktion löst ein Problem des Induktionsparadigmas, des erfahrungswissenschaftlichen Schließens von Einzelfällen auf eine Regel (mit der das ›Allgemeine‹ bestimmbar wird), angesichts des vorliegenden Resultats. Als eine Regel, die sich nicht auf ein axiomatisches (Deduktions-)System bezieht, gilt sie jeweils nur vorläufig, bis zu ihrer möglichen Falsifizierung.  
Zeile 38: Zeile 38:
 
=== Auszug ===
 
=== Auszug ===
  
Das Vorgehen im Forschungsprozess einer qualitativen Studie beinhaltet häufig die Kombination unterschiedlicher methodischer Zugänge und die Einbeziehung verschiedener Quellen. In der Tradition der ethnographischen Feldforschung findet vor allem die Verknüpfung unterschiedlicher Erhebungsmethoden breite Anwendung (vgl. Hammersley/Atkinson 1983; Hirschauer/Amann 1997; Lüders 2000). Die Integration oder Kombination unterschiedlicher Daten, Methoden und Theorien im Forschungsprozess wird in der methodologischen Diskussion üblicherweise mit dem Begriff ‚Triangulation‘ (vgl. Denzin 1970/1978; 1989; Flick 1992; 1995; 1998; 2000; Fielding/Fielding 1986;Marotzki 1995; Kelle/Erzberger 1999) bezeichnet. Dieser Begriff wurde von Denzin (1970; 1978) in die Diskussion um die Anwendung qualitativer Methoden eingeführt und von ihm zunächst als Strategie zur Validitätsmaximierung diskutiert.
+
Das Vorgehen im Forschungsprozess einer qualitativen Studie beinhaltet häufig die Kombination unterschiedlicher methodischer Zugänge und die Einbeziehung verschiedener Quellen. In der Tradition der ethnographischen Feldforschung findet vor allem die Verknüpfung unterschiedlicher Erhebungsmethoden breite Anwendung (vgl. Hammersley/Atkinson 1983; Hirschauer/Amann 1997; Lüders 2000). Die Integration oder Kombination unterschiedlicher Daten, Methoden und Theorien im Forschungsprozess wird in der methodologischen Diskussion üblicherweise mit dem Begriff ‚Triangulation‘ (siehe auch [[Methoden-Triangulation]]) (vgl. Denzin 1970/1978; 1989; Flick 1992; 1995; 1998; 2000; Fielding/Fielding 1986;Marotzki 1995; Kelle/Erzberger 1999) bezeichnet. Dieser Begriff wurde von Denzin (1970; 1978) in die Diskussion um die Anwendung qualitativer Methoden eingeführt und von ihm zunächst als Strategie zur Validitätsmaximierung diskutiert.
 
 
 
 
== Methodentriangulation ==
 
 
 
 
 
[http://gesis.org/Publikationen/Zeitschriften/ZUMA_Nachrichten/documents/pdfs/36/ZN_36_08_Erzberger.pdf]
 
 
 
"Eine Sichtweise, die quantitative und qualitative Methoden als gleichwertig betrachtet,
 
wirft notwendigerweise die Frage nach der Integration der unterschiedlichen Verfahrensweisen
 
auf. Wie kann Struktur und Deutung - Lebensverlaufsrekonstruktionen und Interpretationen
 
- sinnvoll in Beziehung zueinander gesetzt werden? Den methodologischen
 
Christian Erzberger: Die Kombination von qualitativen und quantitativen Daten
 
Hintergrund zur Beantwortung dieser uns hier beschäftigenden Frage bildet das Konzept
 
der Methodentriangulation von '''Denzin (1978)''', der bei der Untersuchung des gleichen
 
Forschungsgegenstandes durch unterschiedliche Methoden den Aspekt der Verbesserung
 
der Validität durch Ermittlung kongruenter Ergebnisse betont. Die Kritik der Denzinschen
 
Auffassung durch Lamnek (1988) und Wilson (1982) hat den Validierungsgesichtspunkt
 
in den Hintergrund treten lassen, mit der Folge, daß nun Ergebnisse eher als
 
komplementär, d.h. als sich gegenseitig ergänzend, anzusehen sind. Beide Aspekte der
 
Methodentriangulation sind in empirischen Studien schon beschrieben worden (vgl. Flick
 
1992; Freter u.a. 199 1). Ergebnis der kritischen Auseinandersetzung mit dem Validierungsansatz
 
bei der Methodentriangulation war die Anerkenntnis der Möglichkeit, daß
 
Ergebnisse nicht zueinander passen können und damit in einem divergenten Verhältnis
 
zueinander stehen können."
 
 
 
 
 
==
 
Zur Bedeutung der Triangulation ==
 
 
 
 
 
FLICK beginnt sein Buch zunächst mit der Geschichte und vor allem mit der Auseinandersetzung des Für und Wider der Triangulation. Nach seiner Einschätzung hat die Triangulation am stärksten in der Diskussion um qualitative Forschung Beachtung gefunden, wobei die Konzeption von DENZIN (1970) maßgebend gewesen ist. FLICK hebt hervor, dass DENZIN die Triangulation in erster Linie, d.h. ursprünglich, als eine wichtige Strategie der Validierung gesehen hat, indem durch die Kombination von verschiedenen Methoden der empirischen Forschung ein und dasselbe Phänomen untersucht bzw. erklärt werden kann. Die Anwendung verschiedener Methoden und Theorien, der Einsatz verschiedener Forscher und die Einbeziehung verschiedener Datenquellen sollten demzufolge einen größtmöglichen Erkenntnisgewinn über ein soziales Phänomen bringen. Der Autor setzt sich an dieser Stelle mit den verschiedenen Kritikern DENZINs auseinander, was unwissende Lesende zu diesem Zeitpunkt eigentlich zunächst auf Distanz zu diesem Ansatz gehen lässt. Es wird ihnen erklärt, dass DENZIN vor allem wegen der Verwendung von Triangulation als Validierungsstrategie sehr angegriffen worden sei. Die Kritiker bemängeln zudem, dass DENZIN die Rolle und das theoretische Vorverständnis der Forschenden zu wenig berücksichtigt, die im Forschungsprozess über die Methode im Sinne von Reaktivität den Forschungsgegenstand auf je spezifische Weise konstituieren (S.17). Es sei DENZIN auch unterstellt worden, dass er Triangulation zu sehr als "Quasi-Korrelation" betrachte, womit er Gefahr laufe, "die jeweiligen Implikationen, die eine bestimmte theoretische Ausgangsposition und die entsprechende Methodenanwendung prägen, zu übersehen bzw. zu vernachlässigen" (S.18). Die Empfehlungen der Kritiker an DENZIN lauteten, Triangulation als Alternative zu betrachten und als zusätzliche Geltungsbegründung, und zwar nicht im Sinne einer wechselseitigen Validierung von Einzelergebnissen (S.19). Unterschiedliche Zugänge, Methoden, Datensorten und Ergebnisse sollen eher miteinander konvergieren und sich ergänzen, aber nicht kongruent sein. Sie können sich komplementär aufeinander beziehen und die Erkenntnismöglichkeiten erweitern. FLICK räumt ein, dass DENZIN in späteren Ausführungen den Anspruch auf Validität und Objektivität in der Interpretation der Ergebnisse auch relativiert hat. Er plädiere nunmehr für den Einsatz der Triangulation als Strategie, um zu einem tieferen Verständnis des untersuchten Gegenstandes zu kommen (S.20). [5]
 
 
 
In Anlehnung an DENZIN beinhaltet für FLICK die Triangulation die Einnahme unterschiedlicher Perspektiven auf einen untersuchten Gegenstand.
 
 
 
"Diese Perspektiven können in unterschiedlichen Methoden, die angewandt werden, und/oder unterschiedlichen gewählten theoretischen Zugängen konkretisiert werden, wobei beides wiederum miteinander in Zusammenhang steht bzw. verknüpft werden sollte. Weiterhin bezieht sie sich auf die Kombination unterschiedlicher Datensorten jeweils vor dem Hintergrund der auf die Daten jeweils eingenommenen theoretischen Perspektiven. Diese Perspektiven sollten so weit als möglich gleichberechtigt und gleichermaßen konsequent behandelt und umgesetzt werden. Gleichermaßen sollte durch die Triangulation (etwa verschiedener Methoden oder verschiedener Datensorten) ein prinzipieller Erkenntniszuwachs möglich sein" (S.12). [6]
 
 
 
Fasst man FLICKs Ausführungen zusammen, so sollte alles in allem die Methode der Triangulation dann angewendet werden, wenn sie einen größeren Erkenntnisgewinn als eine singuläre Herangehensweise verspricht. Der Autor plädiert in diesem Zusammenhang für eine systematische Perspektiven-Triangulation, die es ermöglicht, die Stärken der jeweiligen Forschungsperspektiven gegenseitig zu ergänzen und auch deren Grenzen wechselseitig aufzuzeigen. Er betont, dass es dabei nicht um eine pragmatisch konzipierte Verknüpfung verschiedener Methoden, sondern um die Berücksichtigung ihrer jeweiligen theoretischen Hintergrundannahmen geht (S.21). Es können z.B. strukturelle Aspekte eines Problems mit einer Methode untersucht werden, und in Kombination dazu die Merkmale seiner Bedeutung für die Beteiligten mit einer anderen Methode zu erfassen versucht werden. Darin liegt die Systematik. So erhält man mit zwei Perspektiven auf ein Phänomen und mit zwei unterschiedlichen methodischen Zugängen (z.B. teilnehmende Beobachtung und Interviews) zwei Datensorten, die aufeinander bezogen werden können. Damit zeigt die Triangulation unterschiedliche Konstruktionen eines Phänomens auf – etwa auf der Ebene des Alltagswissens und auf der Ebene des Handelns. [7]
 
 
 
 
 
== 4. Typen der Triangulation ==
 
 
 
 
 
Im Folgenden sollen die verschiedenen Ansätze der Triangulation resümiert werden, wie sie von FLICK mit einer unterschiedlichen, nicht ganz nachvollziehbaren Gewichtung zusammengetragen werden. Kurz verwiesen wird von FLICK auf die Daten-Triangulation, die Investigator-Triangulation und die Theorien-Triangulation im traditionellen Verständnis von DENZIN (Kap.2). Die Daten-Triangulation bezieht sich auf die Einbeziehung unterschiedlicher Datenquellen. Empfohlen wird die Untersuchung eines Phänomens bzw. eines Ereignisses zu verschiedenen Zeitpunkten, an verschiedenen Orten und mit verschiedenen Personen. Es werden drei Ebenen unterschieden, auf welchen sich das Verhalten oder die Einstellungen von Untersuchungspersonen empirisch analysieren lassen: 1. Stichproben werden nach dem Zufallsprinzip zusammengestellt und Individuen werden über statistische Verfahren in Beziehung gesetzt; 2. Interaktionen in Gruppen werden analysiert und 3. Personen werden in Kollektiven bzw. in sozialen Gruppen und Institutionen untersucht, wobei "Personen und Interaktionen nur insofern als Einheiten betrachtet werden, als sie Druck oder Anforderungen widerspiegeln, die von der Kollektivität ausgehen" (S.14). Die so genannte Investigator-Triangulation – auch als "Forscher-Triangulation" bezeichnet – geht davon aus, dass unterschiedliche Beobachter oder Interviewer sich einem Untersuchungsgegenstand nähern bzw. ihn analysieren. Hier soll ein systematischer Vergleich des Einflusses verschiedener Forschender auf den Untersuchungsgegenstand möglichst valide Ergebnisse erbringen. Einen größtmöglichen Erkenntnisgewinn erhofft sich DENZIN auch bei der Theorien-Triangulation, die verschiedene Theorien oder auch Hypothesen zur Erklärung von Phänomenen heranzieht. Diese Form der Triangulation soll verhindern, dass Forschende zu sehr an ihren Vorannahmen festhalten. Sie soll generalisiert-theoretische Untersuchungen ermöglichen und beschränkt sich nicht auf theorie-spezifische. Nicht zuletzt soll sie den Fortschritt in Theorie und Forschung vorantreiben, indem Theorien auf ihren jeweiligen Erkenntnisgewinn hin miteinander verglichen und überprüft werden. Auf diesem Weg können sich auch theoretische Synthesen entwickeln. [8]
 
 
 
Ausführlich widmet sich FLICK der Methoden-Triangulation (in Kap. 3), die seines Erachtens bislang die stärkste Beachtung gefunden hat. Unterschieden wird hier in Anlehnung an DENZIN zwischen der Triangulation innerhalb einer Methode und die Triangulation verschiedener, eigenständiger Methoden. Während DENZIN bei der methodeninternen Triangulation die Verwendung mehrerer Subskalen in einem Fragebogen im Auge hat, konzentriert sich FLICK auf die Kombination verschiedener methodischer Zugänge in der qualitativen Forschung. So können hier die Zugänge aus unterschiedlichen Zielsetzungen und theoretischen Hintergründen resultieren. Als Beispiel führt er die Ethnografie an, die dann in Kapitel 4 anhand von Beispielen verdeutlicht wird. FLICK möchte hier jedoch Methode eher im Sinne eines Verfahrens betrachten, das unterschiedliche methodische Zugänge kombiniert und sozusagen subsumiert (S.28): Innerhalb einer qualitativen Methode werden verschiedene Zugänge zum Forschungsgegenstand möglich und damit auch unterschiedliche Zielsetzungen und theoretische Hintergründe, wobei diese "den Rahmen einer Methode nicht sprengen" (S.27). In seinem Beispiel zur Methoden-Triangulation kombiniert er zwei methodische Zugänge: Er wählt das episodische Interview, das Fragen und Erzählungen in der Auseinandersetzung mit einem spezifischen Forschungsgegenstand verbindet. Hintergrund für dieses Verfahren ist die Tatsache, dass Menschen sich in unterschiedlicher Weise Wissen aneignen und die Wissensbereiche, z.B. zum technischen Wandel, auch entsprechend differenziert und systematisch erfasst werden können. Hier kann das Beispiel zum episodischen Interview nicht ausführlich und in seiner ganzen Komplexität dargestellt werden. Zur Erklärung soll aber erwähnt werden, dass nach neueren Erkenntnissen der Gedächtnis- und Wissenspsychologie Menschen über semantisch-begriffliches und episodisch-narratives Wissens verfügen und diese Erkenntnisse kann man sich in der Untersuchung eines Forschungsgegenstandes zu Nutze machen. Informationen zum narrativ-episodischen Wissen eines Menschen sind eher über Erzählungen zugänglich (hier wird eher die kontextsensitive Ebene, also Erfahrungsebene angesprochen). Informationen zum semantisch-begrifflichen Wissen eines Menschen erhalten Forschende, wenn das Wissen argumentativ-theoretisch von dem Interviewpartner erörtert wird (hier wird eher die kognitive Verarbeitung angesprochen). Zentral für das episodische Interview ist die regelmäßige Aufforderung an die Interviewpartner, anhand eines Erzählreizes Situationen zu erzählen. Im zweiten Schritt wird dann versucht, den Interviewpartnern subjektive Definitionen und abstrakte Zusammenhänge "zu entlocken", die etwas über die semantischen Anteile des Wissens aussagen. Ein episodisches Interview ist demzufolge ein Leitfadeninterview, das mit Fragen und Erzählreizen zu einem oder mehreren Komplexen arbeitet. Durch die unterschiedlichen Fragetypen werden unterschiedliche Datensorten (Erzählungen, Argumentationen, Begriffsexplikationen etc.) generiert, die miteinander trianguliert werden können. Im episodischen Interview wird demzufolge auf drei Ebenen agiert: Unterschiedliche theoretische Perspektiven werden miteinander verknüpft, woraus unterschiedliche methodische Zugänge resultieren, die wiederum verschiedene Datensorten hervorbringen. Dies verspricht für die Forschungspraxis ein komplexes Design, wobei die dualen Zugänge auf den und zwischen den jeweiligen Ebenen mir nicht immer trennscharf scheinen. [9]
 
 
 
Ferner beschreibt FLICK die Triangulation in der Ethnografie (Kap. 4), wobei er Formen impliziter und expliziter Triangulation unterscheidet. Kennzeichnend für die implizite Triangulation in der ethnografischen Forschung ist der flexible Einsatz unterschiedlicher methodischer Zugänge entsprechend der jeweiligen Situation und des jeweiligen Gegenstandes. Ein methodisches Diktat wird hier abgelehnt, sondern es gilt, den Kontext der andauernden teilnehmenden Beobachtung möglichst offen zu gestalten und die Kombination verschiedenster Methoden zu erlauben. Die ethnografische Forschung ist demnach für hybride Methodologien prädestiniert, die mit ergänzenden Methoden operieren und auch unterschiedliche Aspekte von Gegenständen anzielen (hier verweist FLICK auf KNOBLAUCH (2000). FLICK (S.54) merkt an: "Was in dieser hybriden Methodologie praktiziert wird, ist jedoch nichts anderes als eine von der Idee der Korrektivität und Validierung befreite Variante der Methodentriangulation, die jedoch implizit bleibt, da relativ wenig Gewicht auf die Systematik der Methodenkombination gelegt wird." Wird hingegen die Verknüpfung von verschiedenen Datenerhebungs- und Auswertungsmethoden zur Pflicht erklärt, spricht FLICK von der expliziten Triangulation in der Ethnografie. Vor allem MAROTZKI und SCHÜTZE werden von FLICK als Verfechter der expliziten Triangulation genannt. Zudem verweist er in diesem Kontext auf die kritischen Anmerkungen von Helga KELLE (2001), die einräumt, dass die Verknüpfung von Methoden immer das jeweilige theoretisch-methodologische Forschungsprogramm zu berücksichtigen habe, dem die Methoden entstammen und für das sie stehen (S.56). Zudem sollte mit Methoden nicht experimentiert werden, sondern Forschende sollten fundierte Kenntnisse über die jeweiligen Methoden besitzen und in ihrer Anwendung auch ausgebildet sein. Nur so sei der reflektierte Einsatz in der Forschungspraxis gewährleistet. [10]
 
 
 
Ausführlicher widmet sich FLICK im fünften Kapitel der Triangulation qualitativer und quantitativer Forschung, beschreibt die verschiedenen Designs, zeigt potenzielle Verknüpfungen auf und Möglichkeiten einer sinnvollen Abfolge der Erhebungen (oder auch Parallelerhebung). Methoden werden also demzufolge "gemixt", wobei dies nicht willkürlich erfolgen sollte, sondern es kann sich aus einer gewissen Forschungslogik heraus ein integriertes Forschungsdesign sowohl für Querschnitt- als auch für Längsschnittuntersuchungen entwickeln. Für integrierte Designs gibt es viele verschiedene, jeweils individuelle und in Abhängigkeit von der Forschungsfrage begründete "Spielarten", weshalb z.B. qualitative Erhebungen vor quantitativen stattfinden können und umgekehrt, und warum die eine Methode der anderen unterordnet werden kann. Methodologisch wird es besonders spannend, wenn nicht die Methoden aufeinander bezogen werden, sondern vor allem die daraus resultierenden Datensorten und Ergebnisse, denn hier zeigt sich dann – hoffentlich – die "Aufwand-Nutzen-Analyse" im Erkenntnisgewinn. Mit Verweis auf ERZBERGER (1998) und KELLE und ERZBERGER (2000, 2003) zeigt FLICK drei Möglichkeiten auf, die eine Verbindung qualitativer und quantitativer Forschung zur Folge haben kann: 1. Diese kann konvergierende Ergebnisse hervorbringen, d.h. Ergebnisse, die vollständig, generell, tendenziell oder partiell übereinstimmen. 2. Sie kann Ergebnisse hervorbringen, die komplementär zueinander sind, d.h. eher ergänzend oder vertiefend interpretiert werden können. 3. Schließlich können die Ergebnisse divergierend sein, d.h. die Aussagen stehen sich eher gegenüber und es gibt kaum Kongruenzen und Schnittmengen. Hier resultieren Fragen zur theoretischen Perspektive und zum empirischen Zugang, und es sind Legitimationsansprüche erwartbar. FLICK wägt diese Problematiken dann in einigen Anwendungsbeispielen ab und räumt ein, dass die methodischen Fragen bei der Verbindung quantitativer und qualitativer Forschung bislang noch nicht befriedigend gelöst seien (S.84f.). Seines Erachtens fehlt es an einer vernünftig begründeten und erprobten Systematik, die – so sein Fazit – meist hinter einer Forschungs- und Konzeptpragmatik zurücktritt. Es gilt bei der Kombination qualitativer und quantitativer Forschung zu fragen (vgl. auch FLICK 2002): 1. inwieweit beiden Zugängen gleiches Gewicht zukommt bzw. zukommen sollte; 2. inwieweit beide Zugänge aufeinander bezogen werden (können); 3. inwieweit es eine logische Beziehung beider Zugänge gibt und wie sie verknüpft werden, und 4. wie beide Forschungsmethoden bewertet und gewichtet werden. Zwischen den Zeilen lässt sich hier bei FLICK herauslesen, dass er die Beantwortung dieses Fragekatalogs allen empfiehlt, die meinen, die Verbindung von Methoden eingehen zu wollen oder zu müssen. Und er plädiert in jedem Fall für einen gleichberechtigten Status beider Methodengruppen (S.85). [11]
 
 
 
 
 
== 5. Potenziale und Grenzen der Triangulation ==
 
 
 
 
 
Im Kapitel 6 demonstriert FLICK beispielhaft die Planung und Durchführung einer Triangulationsstudie, wobei er vor allem auf praktische Probleme hinweist. In diesem Kapitel werden die vielfältigen Möglichkeiten und Potenziale, aber auch die Schwierigkeiten und Grenzen von Triangulationen deutlich. Es werden verschiedene Methodenkombinationen erörtert. FLICK umreißt kurz verschiedene Designs wie Triangulation in Fallstudien, in Vergleichsstudien, die zeitliche Sequenzierung der Triangulation, die Gleichzeitigkeit von Methoden und die Möglichkeiten von Längsschnittanalysen, wobei diese eher unüblich seien. Auf eineinhalb Seiten spricht er verschiedene Samplingstrategien an. Ebenfalls kurz gehalten sind seine Hinweise zur Datensammlung. Im Wesentlichen geht es ihm darum, Forschende darauf aufmerksam zu machen, dass sie sich die Gewinnung ihrer Stichprobe(n) gemäß ihrer Fragestellungen und ihres theoretischen Zugangs gut überlegen müssen. So sei zu fragen, ob es sinnvoll ist, mit verschiedenen Populationen und Gruppenmitgliedern oder verschränkten Samplings zu arbeiten. Zudem sind die Befragungszeitpunkte bzw. die Abstände zwischen den Befragungen bzw. Beobachtungen zu überdenken; ebenso die Einflüsse verschiedener Methoden auf ein Sample (Interferenzen zwischen verschiedenen Methoden). Nicht zuletzt gelte es bei der Auswertung und der Interpretation der Daten darauf zu achten, ob eine getrennte und kontrastive Analyse oder eine separate Analyse der Daten mit einem anschließenden Vergleich angemessen ist oder ob von vornherein Datensorten aufeinander bezogen werden sollten. Gegebenenfalls lassen sich auch Kategorien von einem ersten Datensatz für die Auswertung eines nächsten Datensatzes ableiten. Hier würden die Analysen phasenweise erfolgen. Es folgen einige Informationen zur computergestützen Datenanalyse, wobei hier Forschungsanfängern nicht klar sein dürfte, was die einzelnen Programme eigentlich zu bieten haben, wie sie funktionieren und was sie in Bezug auf eine Analyse qualitativer Daten eigentlich leisten können. Wichtig erscheint mir der Hinweis, dass die erfassten qualitativen Daten nicht ohne weiteres mit quantitativen Daten zusammengebracht werden können, d.h. es ist in der Regel eher umständlich und die Daten sind mit Vorsicht zu integrieren. [12]
 
 
 
Bleibt an dieser Stelle die Frage nach dem Nutzen von Triangulationen und die nach der Güte der Daten aus Triangulationen. Zum Nutzen lässt sich sagen, dass dieser sich an der Intention des Einsatzes festmacht und auch natürlich an dem Aufwand, der dafür betrieben wird bzw. wurde. Auch muss der Stellenwert der Triangulation im Forschungsprozess betrachtet werden. Wenn etwa explorativ eine Fokusgruppe zu einem Thema befragt wird, um daraus später einen Fragebogen für die Hauptuntersuchung zu generieren, hat das eine geringere Bedeutung als wenn Fokusgruppen und Einzelinterviews die eigentlichen Methoden der Datenerhebung darstellen. Häufig werden – wie bereits erwähnt – Triangulationen zum Zweck der Geltungsbegründung durchgeführt: Sie dienen der Validierung von Daten oder auch der Interpretation früherer theoretischer Konzeptionen. Dieses Vorgehen scheint mir ein eher pragmatisches zu sein. Was die Generalisierung der Ergebnisse von Triangulationsstudien betrifft, gelten hier – sofern nur qualitative Daten erhoben werden – dieselben Bedingungen wie für qualitative Studien allgemein. FLICK weist deshalb zurecht darauf hin, dass es Triangulationsstudien bedauerlicherweise an festgelegten Gütekriterien fehlt, macht aber leider keine Vorschläge, wie diese aussehen könnten. [13]
 
 
 
 
 
== 6. Kritik und Bewertung ==
 
 
 
 
 
Das Büchlein war überfällig, aber es ist definitiv zu knapp geraten. Insgesamt sind die Ausführungen eher informell und "patchworkartig" sowie insbesondere für Einsteiger recht kryptisch. Oftmals wird auf Studien, Theorien und Methoden hingewiesen, die dann nicht weiter erörtert, sondern mehr oder weniger als bekannt vorausgesetzt werden. FLICK reklamiert selbst bei den verschiedenen Formen der Triangulation mehr Systematik, aber seinem Buch fehlt es leider auch an Struktur und vor allem an der gewohnt guten didaktischen Vermittlung. Folglich bringen die Ausführungen FLICKs den Lesern und Leserinnen am meisten, die schon einen gewissen Überblick und gute Grundkenntnisse zu qualitativen und quantitativen Verfahren der empirischen Sozialforschung haben und die das Buch als vertiefende Ergänzung zu den Standardwerken der empirischen Sozialforschung nutzen können. [14]
 
 
 
 
 
== Literatur ==
 
 
 
 
 
Bateson, George & Mead, Magret (1942). Balinese character: A photographic analysis. New York: New York Academy of Sciences.
 
 
 
Denzin, Norman (1970). The research act. Chicago: Aldine.
 
 
 
Erzberger, Christian (1998). Zahlen und Wörter. Die Verbindung quantitativer und qualitativer Daten und Methoden im Forschungsprozeß. Weinheim: Deutscher Studien Verlag.
 
 
 
Flick, Uwe (2002). Qualitative Sozialforschung – Eine Einführung. Reinbek: Rowohlt.
 
 
 
Flick, Uwe; Kardorff, Ernst von & Steinke, Ines (Hrsg.) (2000). Qualitative Forschung – Ein Handbuch. Reinbek: Rowohlt.
 
 
 
Flick, Uwe; Kardorff, Ernst von, Keupp, Heiner, Rosenstiel, Lutz von & Wolff, Stephan (Hrsg.) (1991). Handbuch Qualitativer Sozialforschung – Grundlagen, Konzepte, Methoden und Anwendungen. München: Psychologie Verlags Union.
 
 
 
Jahoda, Marie; Lazarsfeld, Paul & Zeisel, Hans (1933). Die Arbeitslosen von Marienthal. Leipzig: Hirzel.
 
 
 
Kelle, Helga (2001). Ethnografische Methoden und Probleme der Triangulation – Am Beispiel der Peer Culture Forschung bei Kindern. Zeitschrift für Soziologie der Erziehung und Sozialisation, 21, 192-208.
 
 
 
Kelle, Uwe & Erzberger, Christian (2000). Quantitative und qualitative Methoden – kein Gegensatz. In Uwe Flick, Ernst von Kardorff & Ines Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch (S.299-309). Reinbek: Rowohlt.
 
 
 
Kelle, Uwe & Erzberger, Christian (2003). Making inferences in mixed methods: The rules of itegration. In Abbas Tashakkori & Charles Teddlie (Hrsg.), Handbook of mixed methods in social & behavioral research (S.457-488). Thousand Oaks: Sage.
 
 
 
Knobloch, Hubert (2000). Zukunft und Perspektiven qualitativer Forschung. In Uwe Flick, Ernst von Kardorff & Ines Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch (S.623-632). Reinbek: Rowohlt.
 
 
 
Zur Autorin
 
 
 
Dagmar HOFFMANN, Dr. phil., ist Soziologin und arbeitet derzeit als wissenschaftliche Assistentin im Studiengang Audiovisuelle Medienwissenschaft an der Hochschule für Film und Fernsehen "Konrad Wolf" Potsdam-Babelsberg. Sie lehrt dort Medienforschung und Medienpsychologie. In ihrer Habilitation beschäftigt sie sich mit der medialen Aneignung der Inszenierungen von Nacktheit und Sexualität in Film und Fernsehen und favorisiert einen Mehrmethodenansatz. Weitere Arbeits- und Interessensschwerpunkte: Medientheorien, Medienforschung, Sozialisationstheorien und Sozialisationsforschung, Politische und Pädagogische Soziologie. In zurückliegenden Ausgaben von FQS finden sich Besprechungen von Dagmar HOFFMANN zu Liebe (wie) im Fernsehen (hrsg. von Nathalie IVÁNYI & Jo REICHERTZ 2003); Gender und die Konstruktion von Natur und Technik (hrsg. von Ursula PASERO & Anja GOTTBURGSEN 2002), gemeinsam mit Sören BOTT; sowie zusammen mit Markus WIEMKER Die Fabrikation des Populären. Der John-Fiske-Reader (hrsg. WINTER & MIKOS 2001) und Die Werkzeugkiste der Cultural Studies (hrsg. von GÖTTLICH, MIKOS & WINTER 2001).
 

Aktuelle Version vom 13. Dezember 2007, 15:57 Uhr

Der Begriff Abduktion (lat. abductio = Wegführung; engl. abduction) ist im Wesentlichen von dem amerikanischen Theoretiker Charles Sanders Peirce (1839-1914), in die wissenschaftliche Debatte eingeführt worden. „Abduktion ist der Vorgang, in dem eine erklärende Hypothese gebildet wird“[1]. Er bezeichnet bei Peirce das einzige wirklich kenntniserweiternde Schlussverfahren, das sich von den geläufigen logischen Schlüssen – nämlich der Deduktion und der Induktion – unterscheidet.

Abduktion kann als ein Entdeckungsverfahren neuer Fakten als grundlegender Teil einer umfassenden Logik der Forschung verstanden werden. Besteht in diesem Sinne eine erste Stufe des wissenschaftlichen Erkenntnisprozesses in der Findung einer Hypothese mittels Abduktion, dann besteht die zweite aus der Ableitung von Voraussagen aus der Hypothese, also einer Deduktion, und die dritte in der Suche nach Fakten, welche die Vorannahmen „verifizieren“, also einer Induktion. Sollten sich die Fakten nicht finden lassen, beginnt der Prozess von neuem, und dies wiederholt sich so oft, bis die „passenden“ Fakten erreicht sind. Mit dieser Bestimmung entwirft Peirce eine dreistufige Erkenntnislogik von Abduktion, Deduktion und Induktion.

Schlussform der Abduktion - unterschieden von deduktiven und induktiven Regeln des logischen Schliessens.

Die von Peirce aufgewiesene Schlussform der Abduktion löst ein Problem des Induktionsparadigmas, des erfahrungswissenschaftlichen Schließens von Einzelfällen auf eine Regel (mit der das ›Allgemeine‹ bestimmbar wird), angesichts des vorliegenden Resultats. Als eine Regel, die sich nicht auf ein axiomatisches (Deduktions-)System bezieht, gilt sie jeweils nur vorläufig, bis zu ihrer möglichen Falsifizierung.

Um überhaupt von einem Fall und dem Resultat auf die Regel schließen zu können, muss zuvor eine implizite Überprüfung der Regel stattfinden, indem von einem Resultat mit ihrer Hilfe auf den zugrundeliegenden Einzelfall,die Anfangsbedingung,geschlossen wird. Der Rückschluss auf den Fall aber ist ein abduktives Vorgehen.

Vgl. Charles S. Peirce, »Minutiöse Logik. Aus den Entwürfen zu einer Logik«, in: ders., Semiotische Schriften, hg. und übersetzt von Christian Kloesel und Helmut Pape, Bd. 1, Frankfurt a. M. 1986, S. 376–408 [1901].


Der abduktive Schluss

In der Geschichte der Logik geht die Idee der Abduktion oder Hypothese auf Aristoteles zurück, der sie mit dem Begriff Apagoge erwähnt (Erste Analytik II, 25, 69a) und auch bereits der Induktion (conclusio) gegenüberstellt. Die Übersetzung des Begriffs Apagoge mit Abduktion erfolgte 1597 erstmals durch Julius Pacius, einen Heidelberger Rechtsprofessor. Die besondere Leistung von Peirce besteht darin, diese Schlussweise genauer untersucht und für die Logik des Wissenschaftsprozesses fruchtbar gemacht zu haben.

Charles Sanders Peirce hat also den Ausdruck «Abduktion» nicht in die Wissenschaften eingeführt, er hat lediglich einen längst vergessenen Begriff aufgegriffen und wieder in die Sprache eingeführt. Den Begriff «Abduktion» verwendete Peirce zum ersten Mal etwa 1893, systematisch setzte er ihn jedoch erst ab 1901 ein. Ab 1906 benutzte Peirce dann zunehmend den Begriff der Retroduktion.

In der Sprache der Logik lässt sich die Abduktion so beschreiben:

„Die überraschende Tatsache C wird beobachtet; aber wenn A wahr wäre, würde C eine Selbstverständlichkeit sein; folglich besteht Grund zu vermuten, daß A wahr ist“ (Peirce CP 5.189).

Nicht eine bekannte Regel steht am Anfang, sondern ein überraschendes Ereignis, etwas, was ernsthaften Zweifel an der Richtigkeit eigener Vorstellungen aufkommen lässt. Dann kommt es im zweiten Schritt zu einer Unterstellung, einer Als-ob-Annahme: wenn es eine Regel A gäbe, dann hätte das überraschende Ereignis seinen Überraschungscharakter verloren. Entscheidend ist nun für die Bestimmung der Abduktion, dass nicht die «Beseitigung der Überraschung» das Wesentliche an ihr ist, sondern die Beseitigung der Überraschung durch «eine neue Regel A». Beseitigen ließe sich eine Überraschung auch durch die Heranziehung bekannter Regeln. Aber das wäre keine Abduktion. Die Regel A muss erst noch gefunden bzw. konstruiert werden; sie war bisher noch nicht bekannt, zumindest nicht zu dem Zeitpunkt, als das überraschende Ereignis wahrgenommen wurde. Hätte die Regel bereits als Wissen vorgelegen, dann wäre das Ereignis nicht überraschend gewesen. Im zweiten Teil des abduktiven Prozesses wird also eine bislang noch nicht bekannte Regel entwickelt. Der dritte Schritt erbringt dann zweierlei: zum einen, dass das überraschende Ereignis ein Fall der konstruierten Regel ist, zum anderen, dass diese Regel eine gewisse Überzeugungskraft besitzt.

Peirce charakterisierte Abduktion im Gegensatz zu den Schlussweisen der Deduktion und der Induktion folgendermaßen:

Abduktion ist jene Art von Argument, die von einer überraschenden Erfahrung ausgeht, das heißt von einer Erfahrung, die einer aktiven oder passiven Überzeugung zuwiderläuft. Dies geschieht in Form eines Wahrnehmungsurteils oder einer Proposition, die sich auf ein solches Urteil bezieht, und eine neue Form von Überzeugung wird notwendig, um die Erfahrung zu verallgemeinern.
Deduktion beweist, dass etwas sein muss; Induktion zeigt, dass etwas tatsächlich wirksam ist; Abduktion deutet lediglich daraufhin, dass etwas sein kann.“ („Deduction proves that something must be; Induction shows that something actually is operative; Abduction merely suggests that something may be.“ (Collected Papers, CP 5.171)

Biographieforschung im Diskurs

10.1007/978-3-8348-9160-0_4 Bettina Völter, Bettina Dausien, Helma Lutz und Gabriele Rosenthal Triangulation von Fallrekonstruktionen: Biographie- und Interaktionsanalysen

Michaela Köttig

Auszug

Das Vorgehen im Forschungsprozess einer qualitativen Studie beinhaltet häufig die Kombination unterschiedlicher methodischer Zugänge und die Einbeziehung verschiedener Quellen. In der Tradition der ethnographischen Feldforschung findet vor allem die Verknüpfung unterschiedlicher Erhebungsmethoden breite Anwendung (vgl. Hammersley/Atkinson 1983; Hirschauer/Amann 1997; Lüders 2000). Die Integration oder Kombination unterschiedlicher Daten, Methoden und Theorien im Forschungsprozess wird in der methodologischen Diskussion üblicherweise mit dem Begriff ‚Triangulation‘ (siehe auch Methoden-Triangulation) (vgl. Denzin 1970/1978; 1989; Flick 1992; 1995; 1998; 2000; Fielding/Fielding 1986;Marotzki 1995; Kelle/Erzberger 1999) bezeichnet. Dieser Begriff wurde von Denzin (1970; 1978) in die Diskussion um die Anwendung qualitativer Methoden eingeführt und von ihm zunächst als Strategie zur Validitätsmaximierung diskutiert.