Inwiefern veranschaulichen die Braitenberg-Vehikel grundlegende Ideen der frühen Künstlichen Intelligenz?
Erkläre in dem Zusammenhang den Hintergrund des folgenden Bildes!
Eine einfach gebaute Maschine kann ein scheinbar komplexes Verhalten abbilden.
—> zentrale Idee der frühen KI: Intelligenz muss nicht zwingend auf komplexen inneren Repräsentationen oder Symbolverarbeitung beruhen, die jede Möglichkeit abdecken
sondern kann aus einfachen Mechanismen bestehen
bereits sehr einfache Systeme mit minimalen sensorisch-motorischen Kopplungen ein Verhalten erzeugen können, das von außen als intelligent oder zielgerichtet interpretiert wird (hier Motoren, die direkt mit Lichtsensoren verbunden sind)
Welche Bedeutung hatte die Dartmouth-Konferenz von 1956 für die Geschichte der Künstlichen Intelligenz?
Erstmals der Begriff „Artificial Intelligence“ geprägt und die Annahme formuliert, dass Aspekte menschlicher Intelligenz prinzipiell maschinell modellierbar sind
—>Geburtsstunde der Künstlichen Intelligenz als eigenständige wissenschaftliche Disziplin
Was bezeichnet man als „KI-Winter“ und welche Ursachen hatten diese Phasen?
Zeiträume stark reduzierter Finanzierung und geringeren Forschungsinteresses aufgrund von:
überzogene Erwartungen
begrenzte Rechenleistung
unzureichende Daten
das Scheitern früher KI-Systeme an realen, komplexen Problemen
Was ist der Turing-Test? Warum ist dieser heutztage umstritten?
1950 vom britischen Mathematiker Alan Turing entwickeltes Gedankenexperiment, um festzustellen, ob eine Maschine eine dem Menschen ebenbürtige Intelligenz aufweist
(((Ein menschlicher Prüfer führt über eine Textschnittstelle zeitgleich Gespräche mit einem echten Menschen und einem Computer. Der Test gilt als bestanden, wenn die Maschine den Prüfer so täuscht, dass dieser nicht sicher unterscheiden kann, wer von beiden Mensch und wer Maschine ist)))
misst eher die Fähigkeit zur Täuschung der menschliche Psychologie als echte Intelligenz
—> Programm kann gut darin sein, einen Menschen zu imitieren, ohne wirklich zu verstehen, was es sagt/ tut
Was steckt unter der „Haube“ eines LLM?
Große neuronale Netze (meist Transformer) berechnen, mithilfe parallel ausgeführter Tensoroperationen mit erlernten Gewichten, die Wahrscheinlichkeiten für das nächste Token
Risiken und Probleme mit generativer KI?
Schwierigkeiten beim Errichten von ethischen Schranken, die sich möglichst nicht umgehen lassen
Copyright Probleme: viele Daten wurden ohne Einwilligung fürs Training der KI Modelle genutzt
Lernen des Modells vom Feedback des Nutzers nicht immer vorteilhaft
generierte Bilder meist nicht gekennzeichnet als KI
Risiko von AGI: Signularität
In welche Bereiche lässt sich KI unterteilen?
Last changed4 days ago