Buffl

Vivi Fragen

VS
by Vivi S.

Warum fachdidaktische Forschung?

Wie unterscheidet sie sich von anderen Forschungsrichtungen?

„Zur Verbesserung der Wirksamkeit naturwissenschaftlichen Unterrichts bedarf es fachdidaktischer Forschung!”


Der Fachdidaktik geht es um das Verstehen und die Verbesserung von Lehr- und Lern-Prozessen.


Fachdidaktische Forschung folgt anderen Forschungsparadigmen

Denn: Wissenschaftliche Zugänge sind nicht alle gleich —> Das hat mit dem Forschungsgegenstand zu tun (mit Menschen muss ich anders arbeiten als ich z.B. mit Modellorganismen in Biologie kann und auch die Forschungsfragen sind anders)


Fachdidaktik ist neben der Fachforschung und bildungswissenschaftlichen Forschung die dritte Forschung, die wir als Lehrpersonen brauchen


− Fachdidaktische Forschung bedient sich unterschiedlicher Forschungsparadigmen

− Die Wahl der Forschungsansatzes richtet sich nach der Fragestellung

(- Wahl der Methode - ob qualitativ oder quantitativer Ansatz - ist abhängig von den Forschungszielen bzw. der Forschungsfrage)

− Viele aktuelle Forschungsansätze lassen sich der empirisches Sozialforschung zuordnen.


Unterschied Naturwissenschaften und Sozialwissenschaften (WICHTIG PRÜFUNG): Naturwissenschaftlicher (wenn Aussage bis heute nicht falsifiziert werden konnte bzw. sehr oft geprüft wurde, wird Beschreibung zu einer Theorie) versus sozialwissenschaftlicher Kontext (Verständnis wie Alltagsverständnis, also Annahme muss im empirischen Kontext erst getestet werden) → also genau umgekehrter Zugang

Naturwissenschaften: Es braucht eine Reproduzierbarkeit der Ergebnisse (Man macht oft dasselbe Experiment und bekommt immer gleiches Ergebnis)

Sozialwissenschaft: Reproduzierbarkeit ist zwar angestrebtes Ziel aber kann oft nicht erreicht werden


Design-Based-Research (DBR)

  • Was ist das?

  • charakteristische Elemente

  • Prozess/Zyklus


Ein Ansatz für eine nutzenorientierte Grundlagenforschung ist Design-Based Research. Design wird als theorieorientierter Prozess für die Lösung konkreter Probleme der Praxis verstanden. Hier geht es darum, gleichzeitig gute Lernumgebungen zu entwickeln und eine Theorie des Lernens in diesem Themenbereich zu entwerfen oder weiterzuentwickeln.

Ziel ist eine explizite Theorie zur Lösung eines praktischen Problems.

Dazu müssen Interventionsmaßnahmen im Feld in Zusammenarbeit von Forschern und Praktikern durchgeführt werden.

Design-Based Research geht hingegen davon aus, dass sich „funktionierende“ Lernumgebungen in einem komplexen Wechselspiel verschiedener Einflussfaktoren entwickeln.

Design-Based Research geht davon aus, dass es vermutlich keine solchen isolierbaren Einzelfaktoren gibt. Der Ansatz versucht, Lernumgebungen in einer Perspektive des komplexen Zusammenwirkens verschiedener Einflussfaktoren zu entwickeln und zu verbessern. Dennoch sollen gleichzeitig Beiträge zur Grundlagenforschung geliefert werden.

Ausgangspunkt einer Designforschung ist ein konkretes Problem des Unterrichts. Ziel ist eine Lösung dieses Problems, die durch eine explizite Theorie abgesichert ist. Die Forschungsgegenstände können sehr unterschiedlich sein: neue Sachstrukturen, eine neue Methode oder ein neues Medium usw.

Design-Projekte in Kooperation zwischen Vertretern der verschiedenen Wissenschaften und Unterrichtspraktikern durchzuführen, die Expertise in verschiedenen Bereichen mitbringen. Das bedeutet auch, dass man sich mit unterschiedlichen Vorstellungen auseinandersetzen und Kompromisse eingehen muss. So wird eine zu einseitige Ausrichtung vermieden.

Design-Based Research versteht sich als nutzenorientierte Grundlagenforschung, weshalb die Regeln der anwendungsorientierten Forschung und der Grundlagenforschung eingehalten werden müssen. Einzig verzichtet Design-Based Research auf den Anspruch, einzelne Variablen isoliert untersuchen zu wollen.

Beachte: LP haben ohnehin schon wneig Zeit, LP Materialien zum Testen zur Verfügung stellen und nicht lediglich die Idee präsentieren, den LP Anfahrtswege zahlen für die Studie, Kompromisse eingehen etc.

Design-Based Research ist jedoch nicht an Projektdauern mit Zeiträumen von Jahrzehnten gebunden. Wenn man sich auf kleinere Praxisprobleme konzentriert, lassen sich Zyklen von Entwicklung, Erprobung und Forschung auch in kürzeren Zeiträumen realisieren. Im Rahmen einer einzelnen Doktorarbeit ist das jedoch nur selten möglich

DBR ist sehr stark in der Naturwissenschaftsdidaktik verortet





Aktionsforschung

  • Was ist das?

  • Ziel

  • Unterschied zum DBR

  • Prozess/Zyklus


= eigener Unterricht erforschen als Lehrperson

Erforschung von Effekten und Veränderungen in einem realen sozialen Umfeld

Ziel: Mithilfe von Forschungsmethoden systematisch den eigenen Unterricht weiterentwickeln und systematischer zu Erkenntnissen zu kommen, die oft untergehen, wenn man aus eigener Praxiserfahrung, die mir nur einen bestimmten Teil der Wahrnehmung ermöglicht, heraus meinen Unterricht weiterentwickle



Hierbei steht der Praktiker, d. h. im Fall der Fachdidaktik in der Regel die Lehrkraft, als zentrale, handelnde Figur im Mittelpunkt. Das Interesse besteht im Wesentlichen an der konkreten Weiterentwicklung ihrer Praxis und/oder seiner individuellen Professionalität. Dabei ist die Einzelperson in Aktionsforschungsprozessen in der Regel in professionelle Lerngemeinschaften eingebunden = Communities of Practice.

Aktionsforschung geschieht daher zunächst an und in einer konkreten Gruppe, und ihre Ergebnisse sind in einem ersten Zugriff auch zunächst nur für diese Gruppe gültig.


Ähnlich wie im DBR in Zyklen, aber im DBR arbeiten Wissenschaftler mit LP zusammen und LP wird von außen beobachtet und nicht nur von ihr alleine

In der Aktionsforschung ist LP alleine (bei Erhebung und Interpretation etc.)



  1. Die professionellen Lerngemeinschaften von Lehrkräften und Forschern einigen sich auf eine zu bearbeitende Fragestellung bzw. ein in der Praxis drängendes Problem und prüfen, ob dieses hinreichend wichtig ist, um ein breit angelegtes Forschungsprojekt zu rechtfertigen. Grundsätzlich muss sichergestellt werden, dass das Problem häufig zu beobachten und von allgemeinem Interesse ist und eine Veränderung der unterrichtlichen Ansätze und Konzepte eine Abschwächung oder Behebung vermuten lässt.

  2. z. B. neue Unterrichtseinheiten und methodische Variationen von Lernprozessen,Medien etc. Sie diskutieren Wege und Formen der Reflexion und Evaluation und erproben die gemeinsam ausgearbeiteten Vorschläge zur Unterrichtspraxis möglichst individuell in ihrem Unterricht.

  3. durch Lern- und Leistungsüberprüfungen bei den Schülern, Beobachtungen des Unterrichts und auch durch darüber hinausgehende Schüler- und Lehrerbefragungen (Interviews, Gruppendiskussionen oder schriftliche Befragungen).

  4. Alle Teilnehmer reflektieren ihren eigenen Aktionsprozess sowie die Ergebnisse und bringen ihre Erkenntnisse in die Gruppe ein und diskutieren weitergehende und veränderte Vorgehensweisen.

—> mehrmaliges Durchlaufen


Entwicklung von Unterrichtangeboten und Vergleichsstudien zu deren Wirkung

  • Ablauf






Ein „Fallstrick“ bei der Planung einer Vergleichsstudie besteht deshalb darin, dass man diese Einflussfaktoren nicht gut genug kontrolliert.

Die Entwicklung von Unterrichtsmedien, -inhalten oder -methoden gehört zu den Aufgaben und Arbeitsgebieten der Fachdidaktik. Ob Neuentwicklungen wirklich „besser“, d. h. lernwirksamer oder motivationsfördernder sind, kann jedoch nur empirisch und nur im Vergleich mit anderen (in der Regel bereits vorhandenen) Medien oder Methoden entschieden werden.

Die Anforderungen zeigen, dass Vergleichsstudien mit einem sehr großen Aufwand verbunden sind. Die Aussagen, die man dann erhält, sind dennoch eingeschränkt gültig. Sie gelten zunächst nur für eine Lerngruppe und ein Vergleichsmedium. Verallgemeinerungen vervielfachen den Aufwand. Man sollte deshalb in jedem Einzelfall prüfen, ob man tatsächlich den Vergleich benötigt, oder ob es nicht zunächst ausreicht, die Wirksamkeit eines Mediums ohne Abgrenzung gegenüber anderen Medien nachzuweisen.

In einer empirischen Studie kann man fast nie alle potenziellen Einflussfaktoren berücksichtigen und kontrollieren. Will man aus einer Vergleichsstudie verlässliche Schlussfolgerungen ziehen, so muss man für einen fairen Vergleich zumindest alle diejenigen Faktoren berücksichtigen, die in der Literatur für das jeweilige Untersuchungsthema als wichtige Einflussgrößen benannt werden.

Probleme: Gewöhnung/Wiederholung —> Motivation sinkt, Persönlichkeit/Einstellungen der LP


gekreuztes Parallelklassendesign —> vergleichbare Versuchsgruppen schaffen

Qualitätskriterien für gute qualitative Forschungen

- Zuverlässigkeit der Datenerhebung, d.h. ich habe genau beschrieben, wie ich zu meinen Daten komme und für jeden einzelnen Fall kann ich beschreiben, was ich dort erhoben habe

lückenlose Dokumentation, die Externe in die Lage versetzt, die Untersuchung Schritt für Schritt zu verfolgen.

- Vollständigkeit der erhobenen Daten: Herausforderung, möglichst alle Perspektiven und denen zugrundeliegende Daten erheben, ein Fall kann aber meist nie vollständig erhoben werden; eine Vollständigkeit ist aber immer dringend, wenn man vergleichende Fallstudien macht, dass man für jeden Fall immer dieselben Daten erhebt; ich versuche möglichst alle Perspektiven abzudecken

- Eindeutigkeit und Nachvollziehbarkeit der Interpretation: worauf stütze ich meine Interpretation; man braucht theoretisches Verständnis mit der Literaturrecherche; nachvollziehbar begründen wie man kodiert etc.

- Validität: verlässlich testen; Objektivität im Sinne der Transparenz

—> Inter Rater Reliability: meistens in einem Forschungsprojekt eingebunden; da sind Personen, die den Code schon erstellt haben und wir Studierende kodieren dann die Interviews etc., und dann machen beide ein Interview, codieren sie durch, dann sieht man sich beide an und vergleicht sie (Wie gut stimmen sie überein? Man wünscht sich normalerweise eine Inter Rater Reliability bei ca. 90 %, 100 % ist unrealistisch) Also man hat Codes über die man versucht, entsprechend eine ähnliche Interpretation zu bekommen

- Methodische Multiperspektivität (Triangulation): man versucht mehrere Methoden heranzuziehen (Masterarbeit meist nur eines, weil Teil eines größeren Forschungsprojekts)

Zur Absicherung von Forschungsaussagen werden Verfahren der Triangulation und Multi-Method-Designs gewählt. Durch die Verwendung verschiedener Methoden – auch in Verbindung mit qualitativen und quantitativen Verfahren – gewinnt man Einblicke in Prozesse und Ergebnisse aus verschiedenen Blickwinkeln und kann die gewonnenen Aussagen stärker empirisch fundieren. Eine Kombination von Methoden muss jedoch stets für die konkrete Fragestellung begründet werden, Vorgaben oder Muster dafür gibt es nicht.

- Keine Voreingenommenheit, ist aber natürlich immer ein Aspekt, der mitschwingt; dagegenwirken: indem man qualitative Untersuchungen eher weniger Hypothesen formuliert (weil Hypothesen sind ja Erwartungen aus der Theorie heraus abgeleitet und begründet), weil sonst sehe ich nur das was ich mir erwarte



Leitfadengestütztes Interview

= qualitative Methode

− ist eine Methode der Befragung von Probanden. Es können individuelles Wissen und Fähigkeiten erhoben werden, aber Ansichten, Einstellungen Erlebnisse, Erfahrungen, etc. in Erfahrung gebracht werden.

− Leitfadengestützte Interviews zeichnen sich durch ein gewisses Maß an Offenheit aus. Eine bestimmte Anzahl an Fragen wird vorgegeben (Leitfragen). Der Proband bestimmt, wohin sich die Antwort entwickelt.

− Die Fragen dienen der Orientierung (Gerüst) für das Interview. Es wird aber flexibel mit dem Leitfaden umgegangen. Während des Interviews können Fragen gegebenenfalls ausgelassen, umformuliert oder ergänzt werden. Auch die Reihenfolge der Fragen kann verändert und nachgefragt werden.


Geschlossene Fragebögen = quantitativ (vergleichbare Aussagen)

Qualitativ = offene Fragebögen mit Leitfragen

Qualitativ: Die Fragen müssen nicht immer exakt gleichgestellt werden, aber inhaltlich müssen sie gleich sein!

Qualitativ: Dialog mit der befragten Person


Die Fragen des Leitfadens sind offen formuliert, so dass keine ja/nein Antworten möglich sind. Sie sollten als Erzählaufforderungen verfasst sein. Der Interviewpartner soll dazu angeregt werden, selbst zu berichten, was ihm/ihr im aktuellen Kontext zu dieser Frage einfällt.

  • Auswahl des Probanden

  • Durchführung des Interviews

  • Auswertung des Interviews (siehe Qualitative Inhaltsanalyse)


Am Anfang des Interviews erfragen, ob Person freiwillig mitmacht, Person darf immer freiwillig das Interview abbrechen (Checkliste Ethik-Kommission)

Meistens: Qualitative Inhaltsanalyse nach Mayring

Auf bereits publiziertes methodisches Vorgehen verweisen, zitieren und danach vorgehen

Interviewen ist eine Technik, die man erlernen muss → das muss man ÜBEN!

Mit ein paar Freunden Probeinterviews führen, bevor man die richtigen Interviews führt


Validität unter anderem durch: Interne Triangulation: Die Interviews sollten so gestaltet werden, dass an mehreren Stellen auf gleiche Aspekte rekurriert wird. Dadurch können Äußerungen der Probanden zu verschiedenen Zeitpunkten – angeregt durch unterschiedliche Impulse – miteinander verglichen werden, was die Validität der Interpretation sinngleicher Aussagen erhöht.


Ein Interview ist eine Befragung, bei der ein Interviewer durch Gesprächsimpulse einen Interviewten zum Sprechen anregt. Dies geschieht mit dem Ziel, persönliche Informationen, Einstellungen, Haltungen, Wissen oder Vorstellungen zu ermitteln. Vorstellungen lassen sich besonders gut in Situationen erheben, in denen Befragte viele Möglichkeiten besitzen, ihre Ideen und Einstellungen zu einem Thema ausführlich zu präsentieren. Das leitfadengestützte Interview ist eine solche Möglichkeit, komplexe Denkstrukturen und damit Vorstellungen von Personen zu erheben.


Qualitative Inhaltsanalyse

  • Wofür?

  • Schritte

  • Ablaufmodell


zur Auswertung von (leitfadengestützten) Interviews in qualitativen Forschungsansätzen

Mit dem Verfahren der qualitativen Inhaltsanalyse wird ein systematisches, regel- und theoriegeleitetes Vorgehen vorgestellt, das Gütekriterien wie Objektivität, Reliabilität und Validität sichern soll.





also am besten deduktiv (aus der Literatur heraus) udn induktiv arbeiten:

induktiv … also es kommen weitere Informationen während den Interviews auf, die hier aus den Items der Literatur (deduktiv) nicht einordenbar sind → neue Definition aufmachen, wo man mehrere Items zusammenfassen kann → einzelne in Subdimensionen zusammenfassen → neue Subdimension oder Hauptdimension – also allgemein einfach überarbeiten


—> es braucht engen Kontakt mit Betreuer:in und Kolleg:in (Wie würdest du es zuordnen? Würdest du diese Codes wählen? Etc.) → es braucht Blick von außen bzw. neue Perspektiven anderer


Güte der qualitativen Inhaltsanalyse: Die Auswertungs- und Interpretationsobjektivität wird gewährleistet, indem die einzelnen Schritte jeweils unabhängig durch mindestens eine weitere Person durchgeführt und die Ergebnisse verglichen werden (Interrater-Reliabilität). Die Durchführungsobjektivität bei den Interviews kann anhand der Ton- oder Videoaufzeichnungen beurteilt werden. Sie kann durch standardisierte Instruktionen, die in einem Interviewleitfaden notiert sind und die Durchführung durch einen Interviewer erreicht werden. Die Reliabilität als Konsistenzprüfung (Split-Half-Reliabilität) ist gewährleistet, wenn die Ergebnisse anhand von Daten mehrerer interviewter Personen abgesichert werden. Außerdem lässt sich durch eine wiederholte Ordnung von Aussagen zu den Kategorien durch eine Person (Intrarater-Reliabilität) überprüfen, wie gut die Ergebnisse reproduziert werden können. Dabei werden ca. 15 % der Interviews z. B. nach einem Monat erneut bearbeitet, ohne auf die ehemalige Kodierung zu sehen.

Lautes Denken – die Analyse von Denk-, Lern- und Problemlöseprozessen

  • Ziel/Vorteile

  • zwei verschiedene Zugänge

  • Ablauf/Tipps

  • mögliche Einschränkungen der Aussagekraft (Nachteile)


− Forschungsmethode aus der Kognitionspsychologie

− Ermöglicht kognitive Prozesse zu beobachten, die während einer Handlung/ lösen einer Aufgabe ablaufen (Analyse von Denk-, Lern- und Problemlöseprozessen)

− Lautes Denken kann auch zur Analyse von Unterricht und bei der Entwicklung von Kompetenzmodellen hilfreich sein


wichtig zur Pilotierung bzw. Testentwicklung:So können beispielsweise missverständliche Formulierungen und unerwünschte Verstehensprobleme im Item-Text und bei Abbildungen genauso identifiziert werden wie Unklarheiten in der Instruktion. Protokolle lauten Denkens liefern diesbezüglich sehr konkrete, inhaltliche Hinweise für die Item-Optimierung.


Wie entwickeln SuS Verständnis für naturwissenschaftliche Phänomene? —> Denkprozesse sind sehr individuell

Man kann nur ein Teil erfassen (Weil wenn Befragte nicht alles sagen, was sie denken, hat man auch nicht alles erfasst)

Man könnte es mit Eye-Tracker kombinieren


Unter 12 Jahren eher analoges Lautes Denken, sonst auch retrospektiv möglich

Über Mimik/Gestik bekomme ich mehr Informationen (daher können Videos hier auch gut und sinnvoll und auch begründbar sein)

Beim Kodieren auch unsere subjektive Wahrnehmung kritisch hinterfragen! ➔ Andere Personen mit ins Team hineinholen!



Die Methode ermöglicht wie kaum eine andere Methode die Erhebung handlungsnaher Daten bei Denk-, Lern- und Problemlöseprozessen, d. h. das Generieren von Daten über kognitive Prozesse, die zeitgleich zur Handlung oder auch unmittelbar danach (retrospektives lautes Denken oder auch stimulated recall) verbalisierbar sind. Beim lauten Denken zeitgleich zur Handlung werden vornehmlich Inhalte des Kurzzeitgedächtnisses verbalisiert, wogegen das retrospektive laute Denken unmittelbar nach der Handlung Interpretationen und Erklärungen von Gedankenschritten und Verläufen beinhaltet (vgl. Konrad 2010). In beiden Varianten werden durch lautes Denken verbale Daten oder auch so genannte Protokolle lauten Denkens (vgl. Ericsson und Simon 1993) in Form von Video- oder Audiodaten erhoben.


Rahmenbedingungen (angemessene Lernsituation, Ruhe, etc.) sind die Lernmaterialien, mit denen sich die Versuchspersonen auseinandersetzen, entscheidend für den Informationsgehalt der Protokolle lauten Denkens. Optimal gestaltete Lernmaterialien regen kontinuierlich den Denkprozess der Lernenden an (ggf. auch durch integrierte Lernimpulse), sodass pauschale und meist unsystematisch eingesetzte Aufforderungen zum lauten Denken unnötig sind.

Hauptgütekriterium Validität

Misst mein Test, was er soll? . Im Vergleich zu den beiden anderen Gütekriterien ist die Validität allerdings schwieriger zu überprüfen. Vor der eigentlichen Testkonstruktion ist also erst einmalTheoriearbeit zu leisten. Diese ist für die Validitätsprüfung besonders wichtig, denn nur wenn man genau festlegt, was und zu welchem Zweck gemessen werden soll, kann man auch überprüfen, inwieweit die Ergebnisse die Interpretation stützen.


Wir haben einen deduktiven Ansatz (theoretisches Verständnis eine Phänomens) und wir testen bestimmte ausgewählte Variablen aus dem Phänomen im Rahmen der Fragebogenstudie


weiters siehe Korrelationskoeffizient

WICHTIG: Wenn ich ein Testinstrument entwickle, muss ich ganz konkret und gezielt überprüfen, ob dieses Testinstrument tatsächlich das erfasst, was ich erfassen möchte bzw. dass ich tatsächlich mit diesem Testinstrument valide überprüfe, ob ein Zusammenhang tatsächlich besteht zwischen den angeschauten Variablen.

Und ich muss mir die Fragen anschauen (Sind sie messbar? Ist Antwort aus sprachlicher Formulierung in einen Zahlenwert auch korrekt? Etc.)

Fragebögen sind Messinstrumente, die rigoros auch zu entwickeln sind, wenn wir versuchen wollen, kausale Zusammenhänge zwischen zwei Variablen beobachten zu können und als kausale Zusammenhänge interpretieren können. Nur Korrelationskoeffizient, das es einen Zusammenhang gibt) ist nicht ausreichend, weil es keine Rückschlüsse auf eine Kausalität zieht



Beispiel: Mit unserem Beispiel-Leistungstest zum biologischen Fachwissen wollen wir überprüfen, über welches biologische Vorwissen Studierende am Beginn des ersten Semesters verfügen. Die Ergebnisse sollen dazu genutzt werden, den Studierenden eine Rückmeldung über mögliche Wissenslücken zu geben, um diese bereits am Beginn des Studiums gezielt schließen zu können. Zu diesem Zweck entwickeln wir also einen entsprechenden Test.

Inhaltsvalidität:

—> Konstrukt mehr eingrenzen (nur Themen Ökologie und Genetik)

—> jedes Item mit dem Biologie-Lehrplan abgleichen

—> Items zuerst erproben (und dann gegebenenfalls anpassen) mit Lautem Denken

—> Dokumentation der Inhaltsvalidität

Kriteriumsvalidität: … Idee, die Annahmen von Zusammenhängen zwischen dem Ergebnis unseres Tests und einem/mehreren externen Kriterien zu überprüfen (z.B. das Ergebnis in einem bereits etablierten Leistungstest zur Biologie oder die Abiturnote im Fach Biologie). Der Zusammenhang zu dem in unserem Test erreichten Leistungswert wird in Form einer Korrelation berechnet und kann dann – im Gegensatz zur Inhaltsvalidität – als numerischer Wert in Form des Korrelationskoeffizienten ausgedrückt werden.

Konstruktvalidität: das theoretische Konstrukt steht im Mittelpunkt —> Korrelationen berechnen

Für eine konvergente Validierung wird ein Zusammenhang zwischen dem zu validierenden Test und einem oder mehreren anderen Instrumenten hergestellt, die ähnliche Konstrukte erfassen. In unserem Fall können wir beispielsweise einen schon existierenden Test verwenden, der die Kenntnis von biologischen Fachbegriffen überprüft, indem diese definiert werden müssen.

Transferaufgabe: Wie würden sie eine Masterarbeit zu einem Thema (z.B. Corona) bzw. dieser Forschungsfrage (eigene Masterarbeit) umsetzen?


—> Welchen Forschungsansatz und welche Methode würde ich wählen?

Beispiel Forschungsfrage: Welche förderlichen und hemmenden Faktoren für einen MINT-Unterricht in der Sekundarstufe I gibt es aus der Sicht von Fach-Expert:innen (und Lehrpersonen)?


Experteninterviews (Leitfaden)


Antwort könnte sein:

qualitatives Forschungsdesign, weil es geht um einzelne Personen, ihre Gefühle/Emotionen bzw. Einblicke in ihre Gedanken etc. —> keine allgemeingültige Aussagen dürfen getroffen werden


Leitfadengestützte Einzelinterviews (mehr Arbeit aber tiefere Einblicke) oder Gruppendiskussion (einfacher und schneller, meist für Gruppen mit jüngeren Teilnehmer:innen gut geeignet)

Auswertung mit der Qualitativen Inhaltsanalyse nach Mayring

Mischung aus einem deduktiven und induktiven Ansatz


Semi-strukturierte Leitfadeninterviews mit Expert*innen aus allen MINT-Disziplinen durchgeführt. Diese qualitative Forschungsmethode einer Interviewstudie eignet sich hierbei besonders gut, da sie es ermöglicht, tiefe Einblicke in die individuellen Erfahrungen, Meinungen und Perspektiven der befragten Personen zu gewinnen.

Der Großteil ähnlicher Arbeiten der letzten Jahre zum Thema MINT-Didaktik verwendete ebenfalls qualitative Ansätze, wie Margot und Kettler (2019) in ihrer Studie herausgefunden hatten.

Es sollen also detaillierte Einblicke in die individuellen Ansichten und Einstellungen von Fachexpert*innen aus allen Disziplinen zum MINT-Unterricht erhoben werden. Es besteht ein offenes und flexibles Setting, bei dem die Leitfragen lediglich einen Rahmen vorgeben sollen. Durch die Verwendung eines Leitfadens werden also bestimmte Themen bzw. Schwerpunkte durch offene Fragen abgedeckt, während gleichzeitig Raum für spontane Antworten und ergänzende Informationen gegeben wird. Die Interviewpartner*innen erleben die Fragen als Erzählaufforderung und werden angeregt zu sprechen und nicht lediglich auf die Fragen mit Ja oder Nein zu antworten (Kapelari, 2023).

Die Auswahl der Befragten ermöglicht es, eine breite Palette von Fachexpertisen und Perspektiven einzubeziehen, um ein umfassendes Verständnis zum MINT-Unterricht zu erlangen. Vor der Durchführung der Interviews werden die Fragen auf der Grundlage relevanter Literatur entwickelt (deduktiv). Dies gewährleistet eine solide theoretische Basis und ermöglicht es, theoriegeleitete Interviews zu führen anhand derer die Forschungsfrage ergründet wird. Neben Fragen zur eigenen Meinung zum Lernen von MINT und zu den bestehenden Forschungsparadigmen, können zusätzlich Fragen nach konkreten Umsetzungsmöglichkeiten, Chancen und Herausforderungen von MINT im Unterricht gestellt werden.

Für die Aufzeichnung und Dokumentation der Interviews wird eine Transkriptionssoftware verwendet. Beispiele für solche Software sind z.B. EasyTranscript, oTranscribe oder F4transkript, welches über die Universität Innsbruck benutzt werden kann. Diese Tools ermöglichen eine effiziente und genaue Transkription der Interviewaufnahmen, wodurch eine präzise Analyse der gesammelten Daten ermöglicht wird. Die Auswertung der Interviews erfolgt mittels der Qualitativen Inhaltsanalyse nach Mayring (2022). Dadurch sollen die gewonnenen Daten systematisch analysiert und Kategorien sowie thematische Muster identifiziert werden. Dabei soll die Kategorie-Bildung sowohl deduktiv, basierend auf vorab festgelegten Kategorien aus der Literatur, als auch induktiv, indem neue Kategorien aus dem Datenmaterial abgeleitet werden, erfolgen. Das Hauptziel der Auswertung besteht darin, die gemeinsamen Meinungen und den Konsens zur MINT-Bildung aus den Interviews herauszufiltern. Dies ermöglicht es, wichtige Erkenntnisse über die verschiedenen Forschungsparadigmen, die Gestaltung eines (ganzheitlichen) MINT-Unterrichts und die Herausforderungen sowie Chancen bei der Umsetzung zu gewinnen.

Hierbei soll erwähnt sein, dass die gesamte Methodik dieser Masterarbeit vor dem Hintergrund des Fragenkatalogs Ethik der Universität Innsbruck geschehen soll, um einer guten wissenschaftlichen Praxis gerecht zu werden.

Die genauen forschungsethischen Aspekte dieser Masterarbeit werden erst bei einer genaueren Spezifizierung des Themas bekannt werden.


Darüber hinaus besteht die Möglichkeit, falls es das Arbeits- und Zeitpensum dieser Masterarbeit zulässt, gemeinsam mit erfahrenen Lehrpersonen Unterrichtsmaterial zu einem bestimmten Thema für einen interdisziplinären MINT-Unterricht in der 3. Klasse Unterstufe zu entwickeln. Dieser praktische Aspekt kann zur Anwendung der gewonnenen Erkenntnisse dienen und eine direkte Umsetzung im schulischen Kontext ermöglichen.

Author

Vivi S.

Information

Last changed