Prüfungsstoff der LV zusammengefasst:
Forschungsdesigns:
Design-Forschung = Design-Based Research (DBR)
Aktionsforschung
Fallstudien
Vergleichsstudien
(Grounded Theory)
Lernziele dieser VO:
Die AbsolventInnen kennen ausgewählte Forschungsmethoden und können diese fachdidaktischen Fragestellungen zuordnen
Die AbsolventInnen kennen die Stärken und Schwächen dieser Methoden und können in Hinblick auf ihre professionelle Tätigkeit in der Schule oder in der FD Forschung die Qualität und Aussagekraft publizierter Studien einschätzen.
Inhalte dieser VO:
Auf welchen Forschungserkenntnissen basiert Fachdidaktik?
Mit welchen Methoden verfolgt sie ihre Forschungsfragen?
Warum fachdidaktische Forschung?
Wie unterscheidet sie sich von anderen Forschungsrichtungen?
„Zur Verbesserung der Wirksamkeit naturwissenschaftlichen Unterrichts bedarf es fachdidaktischer Forschung!”
Der Fachdidaktik geht es um das Verstehen und die Verbesserung von Lehr- und Lern-Prozessen.
Fachdidaktische Forschung folgt anderen Forschungsparadigmen
Denn: Wissenschaftliche Zugänge sind nicht alle gleich —> Das hat mit dem Forschungsgegenstand zu tun (mit Menschen muss ich anders arbeiten als ich z.B. mit Modellorganismen in Biologie kann und auch die Forschungsfragen sind anders)
Fachdidaktik ist neben der Fachforschung und bildungswissenschaftlichen Forschung die dritte Forschung, die wir als Lehrpersonen brauchen
− Fachdidaktische Forschung bedient sich unterschiedlicher Forschungsparadigmen
− Die Wahl der Forschungsansatzes richtet sich nach der Fragestellung
(- Wahl der Methode - ob qualitativ oder quantitativer Ansatz - ist abhängig von den Forschungszielen bzw. der Forschungsfrage)
− Viele aktuelle Forschungsansätze lassen sich der empirisches Sozialforschung zuordnen.
Unterschied Naturwissenschaften und Sozialwissenschaften (WICHTIG PRÜFUNG): Naturwissenschaftlicher (wenn Aussage bis heute nicht falsifiziert werden konnte bzw. sehr oft geprüft wurde, wird Beschreibung zu einer Theorie) versus sozialwissenschaftlicher Kontext (Verständnis wie Alltagsverständnis, also Annahme muss im empirischen Kontext erst getestet werden) → also genau umgekehrter Zugang
Naturwissenschaften: Es braucht eine Reproduzierbarkeit der Ergebnisse (Man macht oft dasselbe Experiment und bekommt immer gleiches Ergebnis)
Sozialwissenschaft: Reproduzierbarkeit ist zwar angestrebtes Ziel aber kann oft nicht erreicht werden
Im Vordergrund der Methodik in den hier dargestellten drei naturwissenschaftlichen Didaktiken stehen domänenbezogene Anpassungen von Instrumenten und Verfahren der empirischen Sozialforschung. Dabei wird man eher qualitativ ausgerichtete methodische Zugänge wählen, wenn man erfahren möchte, warum Menschen fachliche Inhalte so unterschiedlich verstehen, wenn man ein neues Forschungsfeld explorativ erkunden und dadurch ggf. zur Theorienbildung und -entwicklung beitragen möchte, wenn man differenzierte Einblicke in Lernprozesse erhalten will oder wenn man auf der Hypothesensuche ist.
Auf der einen Seite hat man Praxis der individuellen Lehrperson (sehr kontextspezifische und individuelle Erfahrungen, lassen sich sehr schwer verallgemeinern) Forschung will Verallgemeinerung der Wissensstände, weniger subjektiv Praxisforschung … in der realen Schule wird geforscht → Masterarbeit Praxisforschung führt zu praxisrelevantem Forschungswissen (ist auch situationsbedingt) Grundlagenforschung ist das, wo es nicht um anwendungsorientierte Forschung geht, sondern um Theoriebildung → entwickelt Forschungswissen Diese drei Vorgangsweisen werden separat voneinander durchgeführt meistens → das ist ein Kritikpunkt, man will diese Wissensbestände und Fragen auch miteinander verknüpfen! Ziel der fachdidaktischen Community ist also die Verknüpfung dieser drei Komponenten Man brauch erfahrungsbasiertes Wissen von den LP (das braucht es zwar, ist aber sehr individuell, kann man nicht verallgemeinern etc.) Und forschungsbasiertes Wissen aus der eigenen Forschungstätigkeit ist wichtig
Definiere “Biologiedidaktik”
Was sind qualitative Methoden?
Leitfadengestützte Interviews
Qualitative Inhaltsanalyse
Gruppendiskussion zur Erfassung der SchülerInnen-Perspektive
Lautes Denken – die Analyse von Denk-, Lern- und Problemlöseprozessen
Auswertung narrativer Lernerdaten
Was sind quantitative Methoden?
Entwicklung eines Leistungstests für fachdidaktisches Wissen
Concept Mapping als Diagnosewerkzeug
Entwicklung eines Testinstruments zur Messung von Schülerkompetenzen
Entwicklung eines Fragebogens zur Untersuchungen des Fachinteresses
Fachdidaktische Forschung und empirische Sozialforschung
Fachdidaktische Forschung in der Biologie nähert sich der Psychologie und sozialwissenschaftlichen Theorien an
So ist es nicht verwunderlich, dass die naturwissenschaftsdidaktische Forschung häufig nur recht eingeschränkte Auswirkungen auf die Unterrichtspraxis hat. Selbst Erfolg versprechende Forschungsergebnisse kommen kaum in die Schulpraxis.
Qualitätskriterien empirischer Sozialforschung
(Was zeichnet empirische Sozialforschung aus? Was sind Merkmale empirischer Sozialforschung bzw. sozialwissenschaftlicher Forschung)
1. Das Einhalten der Richtlinien guter wissenschaftlicher Praxis
2. Transparenz des Datenerhebungsprozesses (Forschungsjournal schreiben, Beobachtungsprotokoll vorbereiten)
3. Systematische und nachvollziehbare Dokumentation (Genau beschreiben, welche Analyseschritte man vorgenommen hat)
4. Hohes Maß an Passung von Forschungsmethode und Forschungsfrage (Ich kann nicht mit jeder Methode jede Frage beantworten)
5. Hohes Maß an Selbstreflexion (Jeder selbst ist sein größter Kritiker —> kritisches Denken!)
6. Peer Review Prozess
Kritisches Denken
Auch Qualitätssicherungskonzept für eigene Forschungstätigkeit
Persönlich sicherstellen, dass man Arbeit schreibt, die den Rahmenbedingungen entspricht
Man will mit der Arbeit zu einer Position bzw. Bewertung bzw. Antwort kommen zu einer Frage
Relevante Quellen, logisch argumentieren etc.
Neuer Beitrag leisten und nicht reproduzieren, was schon gemacht wurde
Habe ich das spezifische (Fach-)Wissen erworben, dass ich zur Beantwortung der Fragestellung brauche?
Theoretische Grundannahmen fachdidaktischer Forschung
Objektivität/Subjektivität in der fachdidaktischen Forschung
Allgemeine Prinzipien bzw. Richtlinien für die gute wissenschaftliche Praxis
—> Online- Checkliste zur Ethischen Überlegungen in Hinblick auf das eigene Forschungsprojekt siehe Website der Fakultät für LehrerInnebildung
(Allgemeine) Qualitative und quantitative Forschungsmethoden
Wann setze ich welche Methode ein?
Wie sind die beiden Forschungsmethoden?
Quantitative Fachdidaktikforschung
durch was zeichnet sie sich aus (Vorteile)
Ziele (auch Vorteil)
Methoden
mögliche Einschränkungen (Nachteile)
allgemeine quantitative Methoden:
Vorteile: Quantitative Testinstrumente lassen eine Verallgemeinerung zu. Ich wähle also ein so großes Sample, dass es für diverse statistische Verfahren möglich ist, signifikante Effekte auch nachweisen zu können. Ziel ist es, auf einem gewissen Abstraktionsniveau für eine ganze Population die Verteilung bestimmter gemessener Effekte zu beobachten.
Sie lassen eine allgemeine Aussage zu für bestimmte Zustände.
Nachteil: Quantitativ ist aber nur wenig gut für Fragen, wie: „Soll man naturwissenschaftlichen Unterricht verbessern in Österreich und ist das abhängig vom Schultyp?“ → ich kann schwer die Schulsysteme der Länder vergleichen
Qualitative Fachdidaktikforschung
Vorteile/Ziele:
allgemeine qualitative Methoden:
Einschränkungen/Nachteile:
weiterer Nachteil: nicht allgemeingültig! Ich kann nichts verallgemeinern! Ich kann nur über diejenigen SuS oder LP aussagen machen, die ich interviewt/beobachtet habe etc. → also auch nicht verallgemeinernd beschreiben
weiterer Nachteil: Objektivität ist schwieriger zu erreichen —> aber objektive Realität in der fachdidaktischen Forschung wird angenommen
Mixed Method Approach in der fachdidaktischen Forschung —> Wie kann man diese “schalten”?
Zur Absicherung von Forschungsaussagen werden Verfahren der Triangulation und Multi-Method-Designs gewählt. Durch die Verwendung verschiedener Methoden – auch in Verbindung mit qualitativen und quantitativen Verfahren – gewinnt man Einblicke in Prozesse und Ergebnisse aus verschiedenen Blickwinkeln und kann die gewonnenen Aussagen stärker empirisch fundieren. Eine Kombination von Methoden muss jedoch stets für die konkrete Fragestellung begründet werden, Vorgaben oder Muster dafür gibt es nicht.
Was ist ein Forschungsdesign?
Design-Forschung versucht, beiden Forderungen gerecht zu werden: Bearbeitung praxisrelevanter Fragestellungen unter Einhaltung forschungsmethodischer Standards.
Entwicklung von Kompetenzstrukturmodellen
Kompetenzstrukturmodelle befassen sich mit der Frage, welche und wie viele verschiedene Kompetenzdimensionen in einem spezifischen Bereich differenzierbar sind.
Ausgangspunkt für die Entwicklung eines Kompetenzstrukturmodells sind in der Regel naturwissenschaftlich-fachliche Inhalte oder angestrebte Bildungsziele in Form von Lernzielen oder Kompetenzen, die modelliert werden sollen.
Beim kompetenzorientierten Unterricht gestaltet man den Unterricht von hinten her (zuerst Ziele definieren)
Erlernbare kognitive Leistundsdispositionen
Kompetenz findet auf unterschiedlichen Anforderungsniveaus statt
Kritik an Kompetenzmodellen
Kompetenzmodelle erwarten oft starr eine bestimmte Lernabfolge, die sich in der Empirie nicht gut zeigen lässt
Kontinuierlicher Entwicklungsprozess!
Kompetenzmodelle im Biologieunterricht
Wieso ist eine Modellkompetenz gut für Schüler:innen?
Wenn man wissen über Modelle hat (Modellkompetenz entwickelt hat), kann man naturwissenschaftliche Inhalte besser lernen etc. ➔ Deshalb soll man Modellkompetenz entwickeln ➔ Es sind die Ausprägungen, die die Modellkompetenz umfasst (naturwissenschaftliche Fähigkeiten etc.)
Kompetenzstruktur
Verschiedene Möglichkeiten, Kompetenzniveaus zu generieren:
Design-Based-Research (DBR)
Was ist das?
charakteristische Elemente
Prozess/Zyklus
Ein Ansatz für eine nutzenorientierte Grundlagenforschung ist Design-Based Research. Design wird als theorieorientierter Prozess für die Lösung konkreter Probleme der Praxis verstanden. Hier geht es darum, gleichzeitig gute Lernumgebungen zu entwickeln und eine Theorie des Lernens in diesem Themenbereich zu entwerfen oder weiterzuentwickeln.
Ziel ist eine explizite Theorie zur Lösung eines praktischen Problems.
Dazu müssen Interventionsmaßnahmen im Feld in Zusammenarbeit von Forschern und Praktikern durchgeführt werden.
Design-Based Research geht hingegen davon aus, dass sich „funktionierende“ Lernumgebungen in einem komplexen Wechselspiel verschiedener Einflussfaktoren entwickeln.
Design-Based Research geht davon aus, dass es vermutlich keine solchen isolierbaren Einzelfaktoren gibt. Der Ansatz versucht, Lernumgebungen in einer Perspektive des komplexen Zusammenwirkens verschiedener Einflussfaktoren zu entwickeln und zu verbessern. Dennoch sollen gleichzeitig Beiträge zur Grundlagenforschung geliefert werden.
Ausgangspunkt einer Designforschung ist ein konkretes Problem des Unterrichts. Ziel ist eine Lösung dieses Problems, die durch eine explizite Theorie abgesichert ist. Die Forschungsgegenstände können sehr unterschiedlich sein: neue Sachstrukturen, eine neue Methode oder ein neues Medium usw.
Design-Projekte in Kooperation zwischen Vertretern der verschiedenen Wissenschaften und Unterrichtspraktikern durchzuführen, die Expertise in verschiedenen Bereichen mitbringen. Das bedeutet auch, dass man sich mit unterschiedlichen Vorstellungen auseinandersetzen und Kompromisse eingehen muss. So wird eine zu einseitige Ausrichtung vermieden.
Design-Based Research versteht sich als nutzenorientierte Grundlagenforschung, weshalb die Regeln der anwendungsorientierten Forschung und der Grundlagenforschung eingehalten werden müssen. Einzig verzichtet Design-Based Research auf den Anspruch, einzelne Variablen isoliert untersuchen zu wollen.
Beachte: LP haben ohnehin schon wneig Zeit, LP Materialien zum Testen zur Verfügung stellen und nicht lediglich die Idee präsentieren, den LP Anfahrtswege zahlen für die Studie, Kompromisse eingehen etc.
Design-Based Research ist jedoch nicht an Projektdauern mit Zeiträumen von Jahrzehnten gebunden. Wenn man sich auf kleinere Praxisprobleme konzentriert, lassen sich Zyklen von Entwicklung, Erprobung und Forschung auch in kürzeren Zeiträumen realisieren. Im Rahmen einer einzelnen Doktorarbeit ist das jedoch nur selten möglich
DBR ist sehr stark in der Naturwissenschaftsdidaktik verortet
Ziel
Unterschied zum DBR
= eigener Unterricht erforschen als Lehrperson
Erforschung von Effekten und Veränderungen in einem realen sozialen Umfeld
Ziel: Mithilfe von Forschungsmethoden systematisch den eigenen Unterricht weiterentwickeln und systematischer zu Erkenntnissen zu kommen, die oft untergehen, wenn man aus eigener Praxiserfahrung, die mir nur einen bestimmten Teil der Wahrnehmung ermöglicht, heraus meinen Unterricht weiterentwickle
Hierbei steht der Praktiker, d. h. im Fall der Fachdidaktik in der Regel die Lehrkraft, als zentrale, handelnde Figur im Mittelpunkt. Das Interesse besteht im Wesentlichen an der konkreten Weiterentwicklung ihrer Praxis und/oder seiner individuellen Professionalität. Dabei ist die Einzelperson in Aktionsforschungsprozessen in der Regel in professionelle Lerngemeinschaften eingebunden = Communities of Practice.
Aktionsforschung geschieht daher zunächst an und in einer konkreten Gruppe, und ihre Ergebnisse sind in einem ersten Zugriff auch zunächst nur für diese Gruppe gültig.
Ähnlich wie im DBR in Zyklen, aber im DBR arbeiten Wissenschaftler mit LP zusammen und LP wird von außen beobachtet und nicht nur von ihr alleine
In der Aktionsforschung ist LP alleine (bei Erhebung und Interpretation etc.)
Die professionellen Lerngemeinschaften von Lehrkräften und Forschern einigen sich auf eine zu bearbeitende Fragestellung bzw. ein in der Praxis drängendes Problem und prüfen, ob dieses hinreichend wichtig ist, um ein breit angelegtes Forschungsprojekt zu rechtfertigen. Grundsätzlich muss sichergestellt werden, dass das Problem häufig zu beobachten und von allgemeinem Interesse ist und eine Veränderung der unterrichtlichen Ansätze und Konzepte eine Abschwächung oder Behebung vermuten lässt.
z. B. neue Unterrichtseinheiten und methodische Variationen von Lernprozessen,Medien etc. Sie diskutieren Wege und Formen der Reflexion und Evaluation und erproben die gemeinsam ausgearbeiteten Vorschläge zur Unterrichtspraxis möglichst individuell in ihrem Unterricht.
durch Lern- und Leistungsüberprüfungen bei den Schülern, Beobachtungen des Unterrichts und auch durch darüber hinausgehende Schüler- und Lehrerbefragungen (Interviews, Gruppendiskussionen oder schriftliche Befragungen).
Alle Teilnehmer reflektieren ihren eigenen Aktionsprozess sowie die Ergebnisse und bringen ihre Erkenntnisse in die Gruppe ein und diskutieren weitergehende und veränderte Vorgehensweisen.
—> mehrmaliges Durchlaufen
Professionelle Lerngemeinschaften (Communities of Practice)
Lerngemeinschaften sind Grundprinzip in der Aktionsforschung
Unterschiedliche Vorstellungen von Wissen
- konstruktivistische Definition von Wissen = Konstruieren des eigenen Wissens im Kopf → Wissen des Individuums im eigenen Kopf
- Aktionsforschung macht es aber aus: situiertes Wissen (das entsteht, wenn eine Gruppe miteinander arbeitet), nicht aller Teilnehmer haben aber das gleiche Wissen in ihrem Kopf entwickelt → Wissen, das in der Zusammenarbeit von Gruppen entsteht
Diese Wechselwirkung ist das, was man in Communitys of Practice als situierten Lernprozess versteht: Zum einen entwickelt das Individuum bestimmtes Verständnis im eigenen Kopf und in der Zusammenarbeit mit anderen entwickelt es andere Lösungsansätze
Entwicklung von Unterrichtangeboten und Vergleichsstudien zu deren Wirkung
Ablauf
Ein „Fallstrick“ bei der Planung einer Vergleichsstudie besteht deshalb darin, dass man diese Einflussfaktoren nicht gut genug kontrolliert.
Die Entwicklung von Unterrichtsmedien, -inhalten oder -methoden gehört zu den Aufgaben und Arbeitsgebieten der Fachdidaktik. Ob Neuentwicklungen wirklich „besser“, d. h. lernwirksamer oder motivationsfördernder sind, kann jedoch nur empirisch und nur im Vergleich mit anderen (in der Regel bereits vorhandenen) Medien oder Methoden entschieden werden.
Die Anforderungen zeigen, dass Vergleichsstudien mit einem sehr großen Aufwand verbunden sind. Die Aussagen, die man dann erhält, sind dennoch eingeschränkt gültig. Sie gelten zunächst nur für eine Lerngruppe und ein Vergleichsmedium. Verallgemeinerungen vervielfachen den Aufwand. Man sollte deshalb in jedem Einzelfall prüfen, ob man tatsächlich den Vergleich benötigt, oder ob es nicht zunächst ausreicht, die Wirksamkeit eines Mediums ohne Abgrenzung gegenüber anderen Medien nachzuweisen.
In einer empirischen Studie kann man fast nie alle potenziellen Einflussfaktoren berücksichtigen und kontrollieren. Will man aus einer Vergleichsstudie verlässliche Schlussfolgerungen ziehen, so muss man für einen fairen Vergleich zumindest alle diejenigen Faktoren berücksichtigen, die in der Literatur für das jeweilige Untersuchungsthema als wichtige Einflussgrößen benannt werden.
Probleme: Gewöhnung/Wiederholung —> Motivation sinkt, Persönlichkeit/Einstellungen der LP
gekreuztes Parallelklassendesign —> vergleichbare Versuchsgruppen schaffen
Individuelle Entwicklungen des Verständnisses von naturwissenschaftlichen Begriffen oder Zusammenhängen lassen sich in Fallstudien systematisch rekonstruieren.
Fallstudien für Schüler:innenvorstellungen
Yin (2012) unterscheidet in diesem Zusammenhang zwischen beschreibenden Fallstudien und erklärenden Fallstudien, wobei die Fallstudie im oben definierten Sinn mit der erklärenden Fallstudie, die nach dem „wie“ und „warum“ fragt, zu identifizieren ist. Als dritte Kategorie nennt Yin explorative Fallstudien, die in der Vorbereitung einer Hauptstudie der Klärung von Voraussetzungen und Gewinnung von Hypothesen dienen
Fallstudien zielen also auf wissenschaftlichen Erkenntnisgewinn. Meist beziehen sie sich auf Individuen. Soziale Gruppen, etwa eine Familie oder eine Schulklasse, aber auch eine bestimmte Organisation, sind ebenfalls als Untersuchungseinheiten möglich.
Einzelfall und Allgemeingültigkeit
Auch wenn eine Theorieentwicklung durch einen Einzelfall selbstverständlich nur vorläufig geschehen könne, sei letztlich nicht die Anzahl weiterer Fallstudien entscheidend, sondern deren jeweilige Qualität.
Fallstudien genügen Qualitätskriterien?!
Objektivität: durch methodologische Triangulation erreichen
Reliabilität
Validität: Misst mein Test, was er soll? . Im Vergleich zu den beiden anderen Gütekriterien ist die Validität allerdings schwieriger zu überprüfen. Vor der eigentlichen Testkonstruktion ist also erst einmalTheoriearbeit zu leisten. Diese ist für die Validitätsprüfung besonders wichtig, denn nur wenn man genau festlegt, was und zu welchem Zweck gemessen werden soll, kann man auch überprüfen, inwieweit die Ergebnisse die Interpretation stützen.
Qualitätskriterien für gute qualitative Forschungen
- Zuverlässigkeit der Datenerhebung, d.h. ich habe genau beschrieben, wie ich zu meinen Daten komme und für jeden einzelnen Fall kann ich beschreiben, was ich dort erhoben habe
lückenlose Dokumentation, die Externe in die Lage versetzt, die Untersuchung Schritt für Schritt zu verfolgen.
- Vollständigkeit der erhobenen Daten: Herausforderung, möglichst alle Perspektiven und denen zugrundeliegende Daten erheben, ein Fall kann aber meist nie vollständig erhoben werden; eine Vollständigkeit ist aber immer dringend, wenn man vergleichende Fallstudien macht, dass man für jeden Fall immer dieselben Daten erhebt; ich versuche möglichst alle Perspektiven abzudecken
- Eindeutigkeit und Nachvollziehbarkeit der Interpretation: worauf stütze ich meine Interpretation; man braucht theoretisches Verständnis mit der Literaturrecherche; nachvollziehbar begründen wie man kodiert etc.
- Validität: verlässlich testen; Objektivität im Sinne der Transparenz
—> Inter Rater Reliability: meistens in einem Forschungsprojekt eingebunden; da sind Personen, die den Code schon erstellt haben und wir Studierende kodieren dann die Interviews etc., und dann machen beide ein Interview, codieren sie durch, dann sieht man sich beide an und vergleicht sie (Wie gut stimmen sie überein? Man wünscht sich normalerweise eine Inter Rater Reliability bei ca. 90 %, 100 % ist unrealistisch) Also man hat Codes über die man versucht, entsprechend eine ähnliche Interpretation zu bekommen
- Methodische Multiperspektivität (Triangulation): man versucht mehrere Methoden heranzuziehen (Masterarbeit meist nur eines, weil Teil eines größeren Forschungsprojekts)
- Keine Voreingenommenheit, ist aber natürlich immer ein Aspekt, der mitschwingt; dagegenwirken: indem man qualitative Untersuchungen eher weniger Hypothesen formuliert (weil Hypothesen sind ja Erwartungen aus der Theorie heraus abgeleitet und begründet), weil sonst sehe ich nur das was ich mir erwarte
Leitfadengestütztes Interview
= qualitative Methode
− ist eine Methode der Befragung von Probanden. Es können individuelles Wissen und Fähigkeiten erhoben werden, aber Ansichten, Einstellungen Erlebnisse, Erfahrungen, etc. in Erfahrung gebracht werden.
− Leitfadengestützte Interviews zeichnen sich durch ein gewisses Maß an Offenheit aus. Eine bestimmte Anzahl an Fragen wird vorgegeben (Leitfragen). Der Proband bestimmt, wohin sich die Antwort entwickelt.
− Die Fragen dienen der Orientierung (Gerüst) für das Interview. Es wird aber flexibel mit dem Leitfaden umgegangen. Während des Interviews können Fragen gegebenenfalls ausgelassen, umformuliert oder ergänzt werden. Auch die Reihenfolge der Fragen kann verändert und nachgefragt werden.
Geschlossene Fragebögen = quantitativ (vergleichbare Aussagen)
Qualitativ = offene Fragebögen mit Leitfragen
Qualitativ: Die Fragen müssen nicht immer exakt gleichgestellt werden, aber inhaltlich müssen sie gleich sein!
Qualitativ: Dialog mit der befragten Person
Die Fragen des Leitfadens sind offen formuliert, so dass keine ja/nein Antworten möglich sind. Sie sollten als Erzählaufforderungen verfasst sein. Der Interviewpartner soll dazu angeregt werden, selbst zu berichten, was ihm/ihr im aktuellen Kontext zu dieser Frage einfällt.
Auswahl des Probanden
Durchführung des Interviews
Auswertung des Interviews (siehe Qualitative Inhaltsanalyse)
Am Anfang des Interviews erfragen, ob Person freiwillig mitmacht, Person darf immer freiwillig das Interview abbrechen (Checkliste Ethik-Kommission)
Meistens: Qualitative Inhaltsanalyse nach Mayring
Auf bereits publiziertes methodisches Vorgehen verweisen, zitieren und danach vorgehen
Interviewen ist eine Technik, die man erlernen muss → das muss man ÜBEN!
Mit ein paar Freunden Probeinterviews führen, bevor man die richtigen Interviews führt
Validität unter anderem durch: Interne Triangulation: Die Interviews sollten so gestaltet werden, dass an mehreren Stellen auf gleiche Aspekte rekurriert wird. Dadurch können Äußerungen der Probanden zu verschiedenen Zeitpunkten – angeregt durch unterschiedliche Impulse – miteinander verglichen werden, was die Validität der Interpretation sinngleicher Aussagen erhöht.
Ein Interview ist eine Befragung, bei der ein Interviewer durch Gesprächsimpulse einen Interviewten zum Sprechen anregt. Dies geschieht mit dem Ziel, persönliche Informationen, Einstellungen, Haltungen, Wissen oder Vorstellungen zu ermitteln. Vorstellungen lassen sich besonders gut in Situationen erheben, in denen Befragte viele Möglichkeiten besitzen, ihre Ideen und Einstellungen zu einem Thema ausführlich zu präsentieren. Das leitfadengestützte Interview ist eine solche Möglichkeit, komplexe Denkstrukturen und damit Vorstellungen von Personen zu erheben.
Wofür?
Schritte
Ablaufmodell
zur Auswertung von (leitfadengestützten) Interviews in qualitativen Forschungsansätzen
Mit dem Verfahren der qualitativen Inhaltsanalyse wird ein systematisches, regel- und theoriegeleitetes Vorgehen vorgestellt, das Gütekriterien wie Objektivität, Reliabilität und Validität sichern soll.
also am besten deduktiv (aus der Literatur heraus) udn induktiv arbeiten:
induktiv … also es kommen weitere Informationen während den Interviews auf, die hier aus den Items der Literatur (deduktiv) nicht einordenbar sind → neue Definition aufmachen, wo man mehrere Items zusammenfassen kann → einzelne in Subdimensionen zusammenfassen → neue Subdimension oder Hauptdimension – also allgemein einfach überarbeiten
—> es braucht engen Kontakt mit Betreuer:in und Kolleg:in (Wie würdest du es zuordnen? Würdest du diese Codes wählen? Etc.) → es braucht Blick von außen bzw. neue Perspektiven anderer
Güte der qualitativen Inhaltsanalyse: Die Auswertungs- und Interpretationsobjektivität wird gewährleistet, indem die einzelnen Schritte jeweils unabhängig durch mindestens eine weitere Person durchgeführt und die Ergebnisse verglichen werden (Interrater-Reliabilität). Die Durchführungsobjektivität bei den Interviews kann anhand der Ton- oder Videoaufzeichnungen beurteilt werden. Sie kann durch standardisierte Instruktionen, die in einem Interviewleitfaden notiert sind und die Durchführung durch einen Interviewer erreicht werden. Die Reliabilität als Konsistenzprüfung (Split-Half-Reliabilität) ist gewährleistet, wenn die Ergebnisse anhand von Daten mehrerer interviewter Personen abgesichert werden. Außerdem lässt sich durch eine wiederholte Ordnung von Aussagen zu den Kategorien durch eine Person (Intrarater-Reliabilität) überprüfen, wie gut die Ergebnisse reproduziert werden können. Dabei werden ca. 15 % der Interviews z. B. nach einem Monat erneut bearbeitet, ohne auf die ehemalige Kodierung zu sehen.
deduktiv versus induktiv
deduktiv – aus Studien/der Literatur leite ich ab
induktiv – eigene Beobachtungen aus dem Text
Induktiv oder deduktiv (Unter-)Kategorien ableiten, in der qualitativen Forschung meist Kombination aus beidem (weil man will ja neue Dinge erforschen, die noch nicht bekannt sind)
Deduktiv ... ich habe theoretische Vorannahmen, die ich einfließen lassen kann (das sind meistens übergeordnete Fragen im Interview)
Induktiv … über den neuen Datensatz neue Informationen generieren (Wie kann ich sie einbauen in bereits bestehendes Theoriegebäude und wie kann ich es weiterentwickeln?)
Die Auswahl der Stichprobe erfolgt nicht nach dem Zufallsprinzip, sondern sukzessive nach theoretischen Gesichtspunkten („theoretisches Sampling“). Die Erhebung ist abgeschlossen, wenn weitere Fälle keine neuen, theoretisch relevanten Kategorien mehr erbringen („empirische Sättigung“).
Ablauf und Tipps:
Jede:r SuS bekommt Aufnahmegerät (weil die Stimmen so besser differenziert werden können)
Videos oft schwierig wegen Datenschutz (Kapelari rät davon ab; außer, es ist Mimik/Gestik etc. in der Forschung wichtig)
Auswertung:
Zweite Methode sehr aufwendig
Grounded Theory, wenn noch wenig Wissen über das Thema vorhanden ist
Idealtypisches Ablaufschema der Theorieentwicklung (in den Sozialwissenschaften)
Interviews versus (Fokus-)Gruppendiskussionen
Gruppendiskussionen sind deutlich einfacher durchzuführen als Einzel-Interviews
Je jünger die Befragten desto besser sind Gruppendiskussionen
Gruppendiskussionen dienen der Theoriebildung
Zuerst Gruppendiskussion (Welche Inhalte poppen auf?) → aufbauend auf diese Infos Kodierschema machen → Interviews gezielt machen
Meistens induktives Vorgehen
Grounded Theorie (nicht in Masterarbeit, weil sehr aufwendig)
Offene Ausgangsfrage wird gestellt → Subfragen entwickeln sich in der Diskussion der SuS (Beobachter:in notiert diese) → Fälle herauskristallisieren
Empirische Sättigung … es kommen keine neuen Aspekte mehr zu meiner Forschungsfrage hinzu (kann bei der Masterarbeit meist nicht erreicht werden, deshalb meist in bereits bestehende Forschungsarbeiten eingebunden und man macht einen Teilaspekt)
Gruppendiskussionen ermöglichen Einblicke in die Erfahrungen, Wissensbestände, Einstellungen und Werthaltungen von Kindern und Jugendlichen zu einem bestimmten Themenbereich. Das können Einzelinterviews im Prinzip zwar auch leisten, aber bei Einzelinterviews besteht die Gefahr, dass Kinder und Jugendliche sich in ihren Antworten stärker an den vermuteten Erwartungen des Interviewers orientieren (Problem der sozialen Erwünschtheit).
Ziel/Vorteile
zwei verschiedene Zugänge
Ablauf/Tipps
mögliche Einschränkungen der Aussagekraft (Nachteile)
− Forschungsmethode aus der Kognitionspsychologie
− Ermöglicht kognitive Prozesse zu beobachten, die während einer Handlung/ lösen einer Aufgabe ablaufen (Analyse von Denk-, Lern- und Problemlöseprozessen)
− Lautes Denken kann auch zur Analyse von Unterricht und bei der Entwicklung von Kompetenzmodellen hilfreich sein
wichtig zur Pilotierung bzw. Testentwicklung:So können beispielsweise missverständliche Formulierungen und unerwünschte Verstehensprobleme im Item-Text und bei Abbildungen genauso identifiziert werden wie Unklarheiten in der Instruktion. Protokolle lauten Denkens liefern diesbezüglich sehr konkrete, inhaltliche Hinweise für die Item-Optimierung.
Wie entwickeln SuS Verständnis für naturwissenschaftliche Phänomene? —> Denkprozesse sind sehr individuell
Man kann nur ein Teil erfassen (Weil wenn Befragte nicht alles sagen, was sie denken, hat man auch nicht alles erfasst)
Man könnte es mit Eye-Tracker kombinieren
Unter 12 Jahren eher analoges Lautes Denken, sonst auch retrospektiv möglich
Über Mimik/Gestik bekomme ich mehr Informationen (daher können Videos hier auch gut und sinnvoll und auch begründbar sein)
Beim Kodieren auch unsere subjektive Wahrnehmung kritisch hinterfragen! ➔ Andere Personen mit ins Team hineinholen!
Die Methode ermöglicht wie kaum eine andere Methode die Erhebung handlungsnaher Daten bei Denk-, Lern- und Problemlöseprozessen, d. h. das Generieren von Daten über kognitive Prozesse, die zeitgleich zur Handlung oder auch unmittelbar danach (retrospektives lautes Denken oder auch stimulated recall) verbalisierbar sind. Beim lauten Denken zeitgleich zur Handlung werden vornehmlich Inhalte des Kurzzeitgedächtnisses verbalisiert, wogegen das retrospektive laute Denken unmittelbar nach der Handlung Interpretationen und Erklärungen von Gedankenschritten und Verläufen beinhaltet (vgl. Konrad 2010). In beiden Varianten werden durch lautes Denken verbale Daten oder auch so genannte Protokolle lauten Denkens (vgl. Ericsson und Simon 1993) in Form von Video- oder Audiodaten erhoben.
Rahmenbedingungen (angemessene Lernsituation, Ruhe, etc.) sind die Lernmaterialien, mit denen sich die Versuchspersonen auseinandersetzen, entscheidend für den Informationsgehalt der Protokolle lauten Denkens. Optimal gestaltete Lernmaterialien regen kontinuierlich den Denkprozess der Lernenden an (ggf. auch durch integrierte Lernimpulse), sodass pauschale und meist unsystematisch eingesetzte Aufforderungen zum lauten Denken unnötig sind.
mögliche Einschränkungen der Aussagekraft (Nachteile) des Lauten Denkens
Grounded Theory
nicht in der Masterarbeit, weil sehr aufwändig
Grounded Theory = Eine qualitative Forschungsmethode, bei der Theorien und Konzepte direkt aus den Daten entwickelt werden, anstatt auf vorherigen Annahmen oder theoretischen Rahmenbedingungen zu basieren.
Es ist zeitintensiv, komplex und erfordert Erfahrung. Angesichts dieser Herausforderungen ist die Grounded Theory für eine Masterarbeit mit einem begrenzten Zeitrahmen von nur einem Semester möglicherweise weniger geeignet.
Entwicklung eines Testinstruments zur Messung von Schülerkompetenzen = quantitative Methode
Mit Leistungstests wird das Wissen bzw. die Kompetenz der Befragten ermittelt. Es gibt richtige und falsche Antworten in dichotomen oder mehrstufigen Kodierungen.
Quantitative Testinstrumente lassen eine Verallgemeinerung zu. Ich wähle also ein so großes Sample, dass es für diverse statistische Verfahren möglich ist, signifikante Effekte auch nachweisen zu können. Ziel ist es, auf einem gewissen Abstraktionsniveau für eine ganze Population die Verteilung bestimmter gemessener Effekte zu beobachten.
Quantitativ ist aber nur wenig gut für Fragen, wie: „Soll man naturwissenschaftlichen Unterricht verbessern in Österreich und ist das abhängig vom Schultyp?“ → ich kann schwer die Schulsysteme der Länder vergleichen
Testinstrument für Schülerkompetenzen entwickeln: Ich brauche ein Grundmodell.
Das Beobachten einer Kompetenzentwicklung ist äußerst komplex.
Kompetenzorientierter Unterricht → Bildungsstandards
qualitativ oder quantitativ?
mehrere Auswertungsmöglichkeiten
Concept Maps als Lerninstrument aber auch als Messinstrument einsetzbar
Wie viele richtige Verknüpfungen (Pfeile) kann ich erkennen, wie viele Konzepte treten allgemein auf etc. → das kann ich als Lehrperson anschauen
Fragebogenentwicklung
allgemeines
Fragebögen erkunden Interessen, Einstellungen oder Einschätzungen der Probanden. Hier gibt es prinzipiell keine richtigen oder falschen Antworten. Neben Fragen mit offenem Antwortformat werden häufig Fragen verwendet, die mit mehrstufigen Ratings beantwortet werden (z. B. „stimme vollkommen zu“ bis „lehne vollständig ab“, so genannte Likert-Skalen).
Qualitative Forschungsmethoden erklären auf geringem Sample mögliche Ursachen bzw. kausale Zusammenhänge → wenn ich diesen Zusammenhang also bestätigt habe, kann ich eine quantitative Forschung anhängen und dies untersuchen/überprüfen
Brainstorming im Team (weil dann die Perspektivenbreite gegeben ist)
Schritt 5: gezielt mit Repräsentanten der geplanten Zielgruppe arbeiten, damit ich verstehen kann, wie sie die Frage verstehen und was verbinden sie mit dieser Frage
Qualität eines Fragebogens überprüfen
Die Skalen sollten folgende Eigenschaften aufweisen:
Fragebögen sind Messinstrumente, die rigoros auch zu entwickeln sind, wenn wir versuchen wollen, kausale Zusammenhänge zwischen zwei Variablen beobachten zu können und als kausale Zusammenhänge interpretieren können. Nur Korrelationskoeffizient, das es einen Zusammenhang gibt) ist nicht ausreichend, weil es keine Rückschlüsse auf eine Kausalität zieht
Hauptgütekriterien
weiters siehe Korrelationskoeffizient
Hauptgütekriterium Objektivität
Hauptgütekriterium Reliabilität (& Reliabilitätskoeffizient)
Reliabilitätskoeffizient
Hauptgütekriterium Validität
Misst mein Test, was er soll? . Im Vergleich zu den beiden anderen Gütekriterien ist die Validität allerdings schwieriger zu überprüfen. Vor der eigentlichen Testkonstruktion ist also erst einmalTheoriearbeit zu leisten. Diese ist für die Validitätsprüfung besonders wichtig, denn nur wenn man genau festlegt, was und zu welchem Zweck gemessen werden soll, kann man auch überprüfen, inwieweit die Ergebnisse die Interpretation stützen.
Wir haben einen deduktiven Ansatz (theoretisches Verständnis eine Phänomens) und wir testen bestimmte ausgewählte Variablen aus dem Phänomen im Rahmen der Fragebogenstudie
WICHTIG: Wenn ich ein Testinstrument entwickle, muss ich ganz konkret und gezielt überprüfen, ob dieses Testinstrument tatsächlich das erfasst, was ich erfassen möchte bzw. dass ich tatsächlich mit diesem Testinstrument valide überprüfe, ob ein Zusammenhang tatsächlich besteht zwischen den angeschauten Variablen.
Und ich muss mir die Fragen anschauen (Sind sie messbar? Ist Antwort aus sprachlicher Formulierung in einen Zahlenwert auch korrekt? Etc.)
Beispiel: Mit unserem Beispiel-Leistungstest zum biologischen Fachwissen wollen wir überprüfen, über welches biologische Vorwissen Studierende am Beginn des ersten Semesters verfügen. Die Ergebnisse sollen dazu genutzt werden, den Studierenden eine Rückmeldung über mögliche Wissenslücken zu geben, um diese bereits am Beginn des Studiums gezielt schließen zu können. Zu diesem Zweck entwickeln wir also einen entsprechenden Test.
Inhaltsvalidität:
—> Konstrukt mehr eingrenzen (nur Themen Ökologie und Genetik)
—> jedes Item mit dem Biologie-Lehrplan abgleichen
—> Items zuerst erproben (und dann gegebenenfalls anpassen) mit Lautem Denken
—> Dokumentation der Inhaltsvalidität
Kriteriumsvalidität: … Idee, die Annahmen von Zusammenhängen zwischen dem Ergebnis unseres Tests und einem/mehreren externen Kriterien zu überprüfen (z.B. das Ergebnis in einem bereits etablierten Leistungstest zur Biologie oder die Abiturnote im Fach Biologie). Der Zusammenhang zu dem in unserem Test erreichten Leistungswert wird in Form einer Korrelation berechnet und kann dann – im Gegensatz zur Inhaltsvalidität – als numerischer Wert in Form des Korrelationskoeffizienten ausgedrückt werden.
Konstruktvalidität: das theoretische Konstrukt steht im Mittelpunkt —> Korrelationen berechnen
Für eine konvergente Validierung wird ein Zusammenhang zwischen dem zu validierenden Test und einem oder mehreren anderen Instrumenten hergestellt, die ähnliche Konstrukte erfassen. In unserem Fall können wir beispielsweise einen schon existierenden Test verwenden, der die Kenntnis von biologischen Fachbegriffen überprüft, indem diese definiert werden müssen.
Korrelationskoeffizient
Welche Zahlen sagen was?
Kausalität von Korrelationskoeffizient
Prüfung in 7 Schritten - Fragebogenentwicklung
Transferaufgabe: Wie würden sie eine Masterarbeit zu einem Thema (z.B. Corona) bzw. dieser Forschungsfrage (eigene Masterarbeit) umsetzen?
—> Welchen Forschungsansatz und welche Methode würde ich wählen?
Beispiel Forschungsfrage: Welche förderlichen und hemmenden Faktoren für einen MINT-Unterricht in der Sekundarstufe I gibt es aus der Sicht von Fach-Expert:innen (und Lehrpersonen)?
Experteninterviews (Leitfaden)
Antwort könnte sein:
qualitatives Forschungsdesign, weil es geht um einzelne Personen, ihre Gefühle/Emotionen bzw. Einblicke in ihre Gedanken etc. —> keine allgemeingültige Aussagen dürfen getroffen werden
Leitfadengestützte Einzelinterviews (mehr Arbeit aber tiefere Einblicke) oder Gruppendiskussion (einfacher und schneller, meist für Gruppen mit jüngeren Teilnehmer:innen gut geeignet)
Auswertung mit der Qualitativen Inhaltsanalyse nach Mayring
Mischung aus einem deduktiven und induktiven Ansatz
Semi-strukturierte Leitfadeninterviews mit Expert*innen aus allen MINT-Disziplinen durchgeführt. Diese qualitative Forschungsmethode einer Interviewstudie eignet sich hierbei besonders gut, da sie es ermöglicht, tiefe Einblicke in die individuellen Erfahrungen, Meinungen und Perspektiven der befragten Personen zu gewinnen.
Der Großteil ähnlicher Arbeiten der letzten Jahre zum Thema MINT-Didaktik verwendete ebenfalls qualitative Ansätze, wie Margot und Kettler (2019) in ihrer Studie herausgefunden hatten.
Es sollen also detaillierte Einblicke in die individuellen Ansichten und Einstellungen von Fachexpert*innen aus allen Disziplinen zum MINT-Unterricht erhoben werden. Es besteht ein offenes und flexibles Setting, bei dem die Leitfragen lediglich einen Rahmen vorgeben sollen. Durch die Verwendung eines Leitfadens werden also bestimmte Themen bzw. Schwerpunkte durch offene Fragen abgedeckt, während gleichzeitig Raum für spontane Antworten und ergänzende Informationen gegeben wird. Die Interviewpartner*innen erleben die Fragen als Erzählaufforderung und werden angeregt zu sprechen und nicht lediglich auf die Fragen mit Ja oder Nein zu antworten (Kapelari, 2023).
Die Auswahl der Befragten ermöglicht es, eine breite Palette von Fachexpertisen und Perspektiven einzubeziehen, um ein umfassendes Verständnis zum MINT-Unterricht zu erlangen. Vor der Durchführung der Interviews werden die Fragen auf der Grundlage relevanter Literatur entwickelt (deduktiv). Dies gewährleistet eine solide theoretische Basis und ermöglicht es, theoriegeleitete Interviews zu führen anhand derer die Forschungsfrage ergründet wird. Neben Fragen zur eigenen Meinung zum Lernen von MINT und zu den bestehenden Forschungsparadigmen, können zusätzlich Fragen nach konkreten Umsetzungsmöglichkeiten, Chancen und Herausforderungen von MINT im Unterricht gestellt werden.
Für die Aufzeichnung und Dokumentation der Interviews wird eine Transkriptionssoftware verwendet. Beispiele für solche Software sind z.B. EasyTranscript, oTranscribe oder F4transkript, welches über die Universität Innsbruck benutzt werden kann. Diese Tools ermöglichen eine effiziente und genaue Transkription der Interviewaufnahmen, wodurch eine präzise Analyse der gesammelten Daten ermöglicht wird. Die Auswertung der Interviews erfolgt mittels der Qualitativen Inhaltsanalyse nach Mayring (2022). Dadurch sollen die gewonnenen Daten systematisch analysiert und Kategorien sowie thematische Muster identifiziert werden. Dabei soll die Kategorie-Bildung sowohl deduktiv, basierend auf vorab festgelegten Kategorien aus der Literatur, als auch induktiv, indem neue Kategorien aus dem Datenmaterial abgeleitet werden, erfolgen. Das Hauptziel der Auswertung besteht darin, die gemeinsamen Meinungen und den Konsens zur MINT-Bildung aus den Interviews herauszufiltern. Dies ermöglicht es, wichtige Erkenntnisse über die verschiedenen Forschungsparadigmen, die Gestaltung eines (ganzheitlichen) MINT-Unterrichts und die Herausforderungen sowie Chancen bei der Umsetzung zu gewinnen.
Hierbei soll erwähnt sein, dass die gesamte Methodik dieser Masterarbeit vor dem Hintergrund des Fragenkatalogs Ethik der Universität Innsbruck geschehen soll, um einer guten wissenschaftlichen Praxis gerecht zu werden.
Die genauen forschungsethischen Aspekte dieser Masterarbeit werden erst bei einer genaueren Spezifizierung des Themas bekannt werden.
Darüber hinaus besteht die Möglichkeit, falls es das Arbeits- und Zeitpensum dieser Masterarbeit zulässt, gemeinsam mit erfahrenen Lehrpersonen Unterrichtsmaterial zu einem bestimmten Thema für einen interdisziplinären MINT-Unterricht in der 3. Klasse Unterstufe zu entwickeln. Dieser praktische Aspekt kann zur Anwendung der gewonnenen Erkenntnisse dienen und eine direkte Umsetzung im schulischen Kontext ermöglichen.
Last changeda year ago