Anhang | Größe |
---|---|
![]() | 405.62 KB |
Stand: 04. Jan 1997
AI | Artificial Intelligence |
AL | Artificial Life |
ASI | Austrian Academic Software Initiative |
CAI | Computer Assisted Instruction |
CBT | Computer Based Training |
CUI | Computerunterstützte Instruktion |
CUU | Computerunterstützter Unterricht |
CuL | Computerunterstütztes Lernen |
EASA | European Academic Software Award |
GI | Gesellschaft für Informatik |
GPL | Große Prüfliste für Lernsoftware |
HTML | Hypertext Markup Language |
ID | Instruktionsdesign |
ITS | Intelligente Tutorensysteme |
KI | Künstliche Intelligenz |
KL | Künstliches Leben |
NGS | Numerische Gewichtung und Summierung |
NSF | National Science Foundation of America |
PC | Personal Computer |
PLATO | Programmed Logic for Automatic Teaching Operation |
QGS | Qualitative Gewichtung und Summierung |
TICCIT | Time-shared Interactive Computer Controlled Information Television |
WWW | World Wide Web |
In Wirtschaft, Politik und Wissenschaft wird einhellig davon ausgegangen, daß wir uns auf dem Weg ins Informationszeitalter befinden bzw. es schon längst erreicht haben.[1] Es wird vor allem durch den für jedermann jederzeit freien Zugang zu elektronischen Informationen geprägt sein. Diese Ära wird die Menschen vor vollig neue Anforderungen — bedingt durch das exponentielle Wachstum unseres Wissens — stellen, die eine permanente Weiterbildung erforderlich machen. So kommen einige derzeitige Studien zu dem Schluß, daß das aktuelle Wissen eines Arbeitnehmers eine durchschnittliche Halbwertszeit von drei Jahren hat. Nach Ablauf dieser Zeit ist lediglich die Hälfte seiner Qualifikation für die Ausübung seines Berufes noch von Bedeutung.[2]
Als einen Ausweg aus den oben aufgeführten Problemen werden häufig die sogenannten »Neuen Medien« diskutiert. Begriffe wie Internet, Virtual Reality und Multimedia sind nicht mehr einem kleinen Kreis wissender Experten vorbehalten. Es werden Lernkonzepte, die die Neuen Medien, hier vor allem den sogenannten »Multimedia-PC«, berücksichtigen oder gar zur tragenden Säule avancieren lassen,[3] entwickelt.
Multimedia-Computer sind für Privathaushalte erschwinglich geworden und trotz zum Teil erheblicher Akzeptanz-Probleme der neuen Informationstechnologien[4] finden sie eine immer großere Verbreitung in den Privathaushalten.[5] Es sei in diesem Zusammenhang darauf hingewiesen, daß im Zuge dieser Arbeit nicht auf die Problematik der Einführung einer neuen Technologie eingegangen werden soll. Die vor allem von der Sozialwissenschaft aufgeworfenen Bedenken gegenüber den Folgen der Einführung der Computertechnologie, wie zum Beispiel Vereinsamung, soziale Isolierung oder gar Autismus,[6] sollen und konnen hier nicht besprochen werden.
Mit der Verbreitung der ersten Bildschirmspielgeräte in den 70er Jahren setzte eine kontrovers geführte Diskussion über deren Folgen ein. Es wurden Befürchtungen geäußert, daß Kindern und Jugendlichen ein rein technisches, lineares Denken eigen würde, dagegen aber Phantasie, intuitives und assoziatives Denken verkümmern konnten (allerdings konnten diese Bedenken von Seiten der Wissenschaft nicht bestätigt werden[7]) .[8] Auch heute sind die Neuen Medien gerade im Zusammenhang mit deren Nutzung durch Kinder und Jugendliche umstritten und Eltern wie Pädagogen sind verunsichert, wenn es um Bewertung und Beurteilung von z.B. Computerprogrammen geht.
Mit der vorliegenden Arbeit, die sich vor allem an Veroffentlichungen von Peter Baumgartner und Sabine Payr orientiert, soll ein Überblick über die Moglichkeiten der Herangehensweise an und Beurteilung von Lernsoftware und Edutainment-Titel im außerschulischen Bereich gegeben werden. Es werden nicht allgemeingültige pädagogische Konzepte besprochen oder übertragen, sondern ausschließlich die Eigenheiten einer Wissensvermittlung und -repräsentation durch computergestützte Systeme dargelegt. Relevant sind die vielfältigen Formen der computergerechten Visualisierung, Interaktion sowie Adaptivität. Auf den Begriff »Lernsoftware« wird in Kapitel 2 genauer eingegangen. Zur ersten Orientierung sei erwähnt, daß darunter Anwendungen wie Lernprogramme und Spiele mit erzieherischem Anspruch, sogenannte EdutainmentTitel, für Vorschulkinder bis zu Anwendungen der Erwachsenenbildung, verstanden werden sollen.
Kapitel 2 befaßt sich mit der Bestimmung und Abgrenzung der für diese Arbeit so immanent wichtigen Begriffe wie »Lernsoftware« und »Bildungssoftware« sowie dessen implizierten Teilbereichen. Es wird sich dabei zeigen, das einige bis heute unscharfe Definitionen nicht aufzulosen sind.
Der darauffolgende Abschnitt, Kapitel 3, bietet einen Überblick über die wichtigsten lerntheoretischen Ansätze sowie den Einfluß der verschiedenen psychologischen Schulen auf die Entwicklung von »Lernapparaten« und computergestützten Lernsystemen. Es wird insbesondere das auf den Konstruktivismus, der in letzter Zeit eine wachsende Bedeutung erfährt,[9] zurückzuführende Lernmodell der Brüder Dreyfus hervorgehoben. Daneben sollen zum Abschluß die Grundzüge des Instruktionsgedanken dargelegt werden.
Die Ausführungen in Kapitel 4 greifen vorrangig auf die Arbeiten von Baumgartner und Payr zurück.[10] Es wird ein Schema zur Einordnung von Lernsoftware behandelt, das sich nicht an die häufig vorzufindende Typologie der »technischen Komplexität« hält, sondern sich an rein pädagogischen und didaktischen Maßstäben orientiert.
Eine einfache, praktikable Form der Softwarebewertung kann das Kapitel 5 nicht bieten, jedoch von ersten Ansätzen berichten. Neben herkommlichen Bewertungsverfahren wird eine von Baumgartner vorgeschlagene Herangehensweise zur Beurteilung von Lern- bzw. Bildungssoftware behandelt. Darauf folgt ein Einblick in Evaluationsformen und -ablauf, der sich allerdings auf ein noch unveroffentlichtes Manuskript von Baumgartner stützt. Abschließend wird das Bewertungsverfahren zum European Academic Software Award erläutert.
Bedingt durch das »...pädagogische Desaster...«[1] der frühen behavioristischen Lernmaschinen hat sich die Medienpädagogik dem Thema Computer als Lernmedium nur in einer sehr theoretischen, dem kommunikationswissenschaftlichem Paradigma verpflichteten Sichtweise, genähert. Dies hat zur Folge gehabt, daß eine Vielzahl von Ansätzen, Theorien und Modellen erarbeitet worden sind, die jedoch die durch neue Medien und neue Technologien geschaffenen pädagogischen Moglichkeiten bisweilen stark vernachlässigen oder gar ignorieren.[2]
Ein häufig verwendeter Begriff ist der der »Lernsoftware« bzw. des »Lernprogramms«. Lernsoftware soll hier als Software verstanden werden, die eigens für Lehr- und Lernzwecke programmiert worden ist und hauptsächlich im Bildungsbereich eingesetzt wird.[3] Diesen Anwendungen ist ein didaktisches Konzept mit konkreten Lerninhalten für eine mehr oder weniger definierte Zielgruppe eigen.[4] Hierunter fallen sowohl Programme für die Mitarbeiterweiterbildung eines Unternehmens wie auch Edutainment-Titel, also Programme, die auch als Spiel verstanden werden konnen.
Einen noch weiter greifenden Begriff schlagen Baumgartner und Payr mit dem der »Bildungssoftware« (engl. »educational software«) vor,[5] der jede Art von Software bezeichnet, die sich in irgendeiner Weise für Bildungszwecke verwenden läßt. Neben Lernsoftware kann auch eine Tabellenkalkulation unter diese Terminologie fallen, wenn sie z.B. zur Veranschaulichung eines bestimmten Sachverhalts genutzt wird.
In dieser Arbeit sollen vornehmlich die oben genannten Termini »Lernsoftware« und »Bildungssoftware« verwendet werden, da sie allgemeingültiger Natur und keinem bestimmten Lernparadigma verhaftet sind. Ganz im Gegensatz dazu stehen Begriffe wie Computer Aided Instruction (CAI), Computer Based Training (CBT), Computer Aided Learning (CAL), Computerunterstütztes Lernen (CuL), Computerunterstützte Instruktion (CUI), Courseware, Teachware usw. Daher wird im Verlauf dieser Arbeit auch nicht auf sie näher eingegangen, zumal die Übergänge zwischen den einzelnen Kategorien fließend sind.[6] Jede Software stellt spezifische Mindestanforderungen an die Hardware. Erst im Verbund mit ihr kann man sie qualitativ beurteilen. Von daher ist es sinnvoll, von Systemen zu sprechen wie dies schon bei Instruktionssystemen und Multimedia-Systemen der Fall ist.[7]
Dieser Begriff, der ursprünglich aus der Unterhaltungselektronik stammt, wird vor allem zur Bezeichnung einer bestimmten Technik, die von einer speziellen Hardwareentwicklung geprägt ist, verwendet.[8] Solche Systeme - wie z.B. die Bildplatte oder die CD-I (CD-Interactive) — ermoglichen das wahlfreie (und somit benutzergesteuerte) Abrufen von Videosequenzen. Die Interaktionsformen sind hier nicht besonders ausgeprägt, sie bestehen meist aus traditionellen multiple-choice Auswahlen, mit denen Videosequenzen aufgerufen werden. Eine wirkliche Interaktion mit dem Video, d.h. die Moglichkeit des Nutzers, in die gerade ablaufende Sequenz eingreifen zu konnen, ist bei den meisten Systemen bisher nicht gegeben.[9]
Hypertext und Hypermedia sind in den letzten Jahren zu einem vielbehandelten Thema geworden,[10] das mit der wachsenden Bedeutung des Internets und dessen auf der Hypertext Markup Language (HTML) basierendem World Wide Web (WWW) an Aktualität sogar noch gewonnen hat. Im Gegensatz zu den Hypertext-Systemen bieten Hypermedia zusätzlich die Integration von multimedialen Elementen[11] an.
Der Grundgedanke dieser Systeme ist der eines vernetzten Informationsangebotes,[12] das Informationen in Form von Knoten und Verknüpfungen zwischen Knoten repräsentiert. Diese Struktur ermoglicht es z.B. einem Leser, nichtlinear vorzugehen und flexibel seinen individuellen Bedürfnissen und Wünschen entsprechend eigene Pfade zu erschließen.[13]
Knoten sind die elementaren Einheiten der Informationsspeicherung. Sie enthalten Objekte wie Text, Grafik, Ton, Abbildungen usw., dabei kann der Umfang eines Knoteninhaltes durchaus variieren. Verknüpfungen (engl. »links«) stellen die Beziehungen zwischen den Informationen dar. Dabei gibt es eine Vielzahl von Moglichkeiten zur Strukturisierung und Darstellung der Informationen. Gänzlich unstrukturierten Hypertextbasen liegen lediglich referentielle Verknüpfungen zugrunde, während bei strengeren Organisationsformen auch semantische (hierarchische bzw. konzeptionelle) und pragmatische (z.B. argumentative oder kontextuelle) Prinzipien der Verknüpfungen zum Tragen kommen.[14]
Vor allem die Nichtlinearität der Hypertext- und Hypermedia-Systeme sowie die Benutzersteuerung machen sie für Lernsysteme interessant. Dieser Grundgedanke hat auch längst Einzug in die Lernsoftware gehalten und im wesentlichen sequentiell und starr ablaufende Umgebungen weitgehend er setzt.[15] Da in vielen Typen der Lern- und Bildungssoftware dieser Einfluß zu erkennen ist, konnen Hypertext und Hypermedia nicht als eigenständige Kategorien von Bildungssoftware angesehen werden.[16]
Multimedia ist ein Schlagwort, das großartige Hoffnungen geweckt hat, auch und vor allem in der Wirtschaft. In dem von seinem Bundesministerium herausgegebenen Report »Die Informationsgesellschaft« weist der Bundesminister für Wirtschaft auf die wachsende wirtschaftliche Bedeutung der »Neuen Medien« hin, zu deren Schlüsselbegriffen zweifelsohne »Multimedia« zählt.[17]
Die Frage bleibt, was denn nun Multimedia ist und was es ausmacht. Es sind eine Vielzahl von Definitionen aufgestellt worden, die sich zum Teil recht deutlich unterscheiden; und daß »Multimedia« im Marketing schon eine geradezu inflationäre Verwendung findet, macht eine Spezifizierung nicht trivialer. Vor allem dürfte es sich auch hinsichtlich der rasanten technischen Entwicklung als äußerst problematisch erweisen, notwendige und hinreichende Merkmale zu bestimmen.[18]
Wenn heute von Multimedia die Rede ist, so ist in der Regel eine Technik der Medienverknüpfung gemeint, in dessen Zentrum der PC (engl. Personal Computer)[19] steht.[20] Diese (computergestützten) Multimedia-Systeme integrieren so verschiedene Medien wie Text, Pixelbilder, Grafik, Video, Ton etc. Allerdings ist es notwendig, zwischen zeitabhängigen (z.B. Animation) und zeitunabhängige (diskrete) Medien wie z.B. Text zu unterscheiden.[21] Ein definitorischer Ansatz liegt also in der Beschränkung auf die rein technischen Merkmale, so daß Multimedia durch die Kombination zeitabhängiger (kontinuierlicher) und zeitunabhängiger (diskreter) Medien definiert wird.[22]
Issing und Klimsa bezeichnen Multimedia als eine neue Art und Weise der Mediennutzung in Informations- und Lernprozessen. Diese relativ neue Technik impliziert eine neue Art der individuellen Mediennutzung, sowohl in bezug auf Informationsprozesse wie auf Lernprozesse.[23] Multimedia kann laut Issing und Klimsa auch »...ein Sammelbegriff für solche hybriden Medien, die auf der Übertragungstechnik, Displaytechnik, Mikroprozessortechnik und Speichertechnik basieren und dabei mehrere Darstellungsformen (Text, Video, Audio usw.) verfügbar machen...«,[24] sein.
Neben dem Medienaspekt — der Multimedialität — spielen noch Interaktivität, Multitasking (gemeint ist die gleichzeitige Ausführung mehrerer Prozesse) sowie Parallelität bezüglich der gleichzeitigen Präsentation mehrerer Medien eine wichtige Rolle.[25] Klimsa schlägt daher vor, Multimedia als ein Konzept zu sehen, das zwei Dimensionen integriert, eine technische und eine anwendungsbezogene.[26] Die technische Dimension ist geprägt durch Multimedialität sowie Multimodalität. Mit der Multimodalität ist hier allerdings nicht die psychologische Bedeutung der Informationsaufnahme über mehrere Sinneskanäle gemeint, sondern die Art und Weise der Medienintegration und -präsentation.[27] Die Dimension der Anwendung umfaßt dagegen Kategorien wie Datenbanksysteme, Kommunikationssysteme, Hypermediasysteme sowie spezifische Autorensysteme /-umgebungen und Multimediawerkzeuge.[28] Erst der Aspekt der Anwendungen ermoglicht es, eine kontextbezogene Analyse des Multimediabegriffs durchzuführen. Denn für die wenigsten Anwendungen ist eine beliebige Medienkombination sinnvoll bzw. als »Multi-Media« zu bezeichnen.[29]
Abb. 2.1: Multimedia als ein Konzept, das technische und anwendungsbezogene Dimensionen integriert. Quelle: Klimsa, Paul (1995): Multimedia aus psychologischer und didaktischer Sicht. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 7-24. Psychologie Verlags Union, Weinheim. S. 8
Wie die vorstehenden Ausführungen gezeigt haben, ist der Begriff Multimedia ebenso weit verbreitet wie er auch unscharf und somit für den wissenschaftlichen Diskurs ungeeignet ist.[30] Interaktivität, Asynchronität, Multifunktionalität sind Termini, die sich ohne weiteres der Multimedialität zuordnen lassen, ebenso wie Multicodierung,[31] Adaptivität und Multimodalität.[32] Für die vorliegende Arbeit mag die oben aufgeführte Umschreibung hinreichend sein, einer wissenschaftlichen Betrachtung genügt sie indes nicht.
In der Sozialpsychologie steht dieser Terminus für ein wechselseitiges, aufeinander bezogenes Verhalten von zwei oder mehr Personen. Diese Definition ist jedoch im Kontext von Multimedia nicht anwendbar. Statt dessen läßt sich »Interaktivität« als abgeleiteter Begriff verstehen, der in bezug auf Computersysteme jene Eigenschaft von Software beschreibt, die Eingriffe in den Programmablauf seitens des Nutzers zulassen.[33] Der Nutzer ist nicht mehr bloßer Rezipient eines Mediums, sondern es ist ihm nun moglich, gestaltend in den Kommunikationsprozeß (wie auch in den Lernprozeß) einzugreifen. Diese Eigenschaft ist denn auch der zentrale Wesenszug der sogenannten »Neuen Medien«. Allerdings gibt es kein fundiertes Maß, anhand dessen der Grad der Interaktivität bestimmt werden konnte, obwohl Interaktivität eines der spezifischen Charakteristika und Gütemerkmale eines Lernprogramms ist. »Ein hohes Maß an Interaktivität ist dann gegeben, wenn der Informationsfluß durch eine große Zahl von Zyklen der in [... Abb. 2.2] dargestellten Form gekennzeichnet ist.«[34] Durch ein solches »zyklisches Feedback«[35] ist es überhaupt erst moglich, individualisierte Lernumgebungen zur Verfügung zu stellen, die sich an spezielle Lernbedürfnisse und Interessen anpassen.
Abb. 2.2: Interaktionszyklus. Quelle: Niegemann, Helmut N. (1995): Computergestützte Instruktion in Schule, Aus- und Weiterbildung: theoretische Grundlagen, empirische Befunde und Probleme der Entwicklung von Lehrprogrammen. Peter Lang Verlag, Framkfurt a. M.; Berlin; Bern; New York; Paris; Wien. S. 8.
Realisieren läßt sich Interaktivität durch Implementierung folgender Merkmale:[36]
All diese Charakteristika werfen die Problematik auf, daß eine Evaluation des Lernerfolges von Lernsoftware im klassischen Sinn nicht mehr moglich ist.[37] Die etablierten Evaluationsmodelle sind von den »alten Medien«, d.h. der passiven Wissensvermittlung, geprägt. Lernerfolg wird dementsprechend meist an Reproduktion und/oder Anwendung theoretischen Wissens
gemessen.[38]
»Denkende« Maschinen haben schon früh eine große Faszination auf die Menschheit ausgeübt. Als ein Beispiel aus der Renaissance sei der »schachspielende Türke« von Wolfgang Kempelen genannt, der sogar gegen Napoleon I. antreten durfte und auch gewinnen konnte. Zwar wurde die Maschine später als Fälschung entlarvt, bis dahin hatte sie aber die Menschen in ihren Bann gezogen.[39]
Die Frage der ersten »Lernmaschine« wurde Ende der fünfziger Jahre dieses 8Jahrhunderts in der amerikanischen Zeitschrift »Contemporary Psychology« heftig diskutiert. Schließlich einigte man sich auf die am 20. Februar 1866 patentierte Buchstabiermaschine von Halcyon Skinner.[40] Die eventuell erste Maschine, die von einem Psychologen ersonnen und zum Patent angemeldet wurde, war die Buchstabiermaschine von Herbert Aikins aus dem Jahre 1911. Es handelte sich allerdings um keinen Apparat sondern um eine Rahmenkonstruktion mit Bildern, auf deren Rückseite lediglich die richtigen Buchstaben zu dem Begriff eingesetzt werden konnten.
Jedem Computerprogramm, das Wissen vermitteln soll, liegt — ob nun gewollt oder ungewollt — ein Lernmodell zugrunde.[1] Es macht sich dem Modell entsprechende Methoden und Verfahren zunutze, um der originären Aufgabe, Wissensvermittlung und Wissenserhalt, gerecht zu werden. Einige dieser Techniken, die heute noch Anwendung finden, sind so alt wie die Sprache selbst. Es sind Kulturen bekannt, die aufgrund fehlender Schrift Wissen mittels Geschichten und Sagen aufzeichneten, so daß sie Märchenerzähler hervorgebracht hatten, die bis zu 200.000 Geschichten gekannt haben.[2]
Auch in der Antike fanden Mnemotechniken[3] ihre Anwendung, hier vor allem in der Rhetorik. In Ciceros Dialog »Vom Redner« (De oratore), einem Lehrgespräch über die Rhetorik, werden z.B. unter anderem Fragen wie: Wer ist ein guter Redner? In welchem Umfang ist Fachwissen eine Vorbedingung des Erfolges? erortert. Dort betont z.B. Crassus mit den Worten »...die bekannte Methode mit den Örtern und Bildern...«[4] die Anwendung der sogenannten Loci-Methode[5] als einen wichtiges Hilfsmittel.
Dieser Abschnitt stellt grundsätzliche lerntheoretische Überlegungen dar. Desweiteren wird ein kurzer Überblick zu den im Hinblick auf die Analyse und Beurteilung von Lernsoftware wichtigsten psychologischen Schulen gewährt, die maßgeblich die Erziehungswissenschaften dieses Jahrhunderts beeinflußt haben:[6] Behaviorismus, Kognitivismus und Konstruktivismus.
Wissen und Lernen sind Begriffe, die, wie Baumgartner & Payr betonen, in engem Zusammenhang betrachtet werden müssen. Während Lernen als ein aktiver Prozeß betrachtet werden kann, ist das Wissen eher als dessen Ziel und Ergebnis anzusehen.[7] Wissen darf aber nach Baumgartner & Payr keinesfalls als ein rein statisches Wissen verstanden werden, sondern vielmehr als ein »...komplexes, vernetztes und dynamisches System, dessen Struktur wir erforschen und verstehen müssen«.[8]
Folgt man Gilbert Ryle, so existieren ein deklaratives und ein prozedurales Wissen. Unter ersterem (»knowing that«) wird ein statisches Faktenwissen verstanden, das als Proposition (Inhalt einer sprachlichen Äußerung) oder als bildliche Darstellung repräsentiert wird. Man stellt sich dieses Wissen als ein Netzwerk von Knoten vor, die durch ihre Verbindungen in bestimmten Relationen zueinander stehen.[9] Das prozedurale Wissen (knowing how) steht dagegen für ein dynamisches Wissen, dem Wissen wie ein bestimmtes Ergebnis erreicht werden kann. Es wird im wesentlichen durch die drei Eigenschaften Zielgerichtetheit, Zerlegung eines Gesamtzieles in Teilziele sowie der Wahl und Beschreibung der für die Umsetzung der Teilziele notwendigen Operationen (Handlungen) charakterisiert. Es handelt sich um die Fähigkeit der Problemlosung, einem wesentlichen Aspekt der Intelligenz.[10]
Wie schon eingangs erwähnt, kann Wissen in verschiedener Form repräsentiert sein. Neben dem aussprechbaren (propositionalen) Wissen besitzen wir auch solches, das wir nicht verbal benennen konnen. Dieses implizite Wissen kommt beispielsweise zur Geltung, wenn es um das Erkennen von Gesichtern geht. Zwar kann man Menschen auch nach Jahren wiedererkennen, doch ist es nicht moglich eben jenes Wissen zu benennen, das für die Wiedererkennung verantwortlich ist.
Die Entwicklung von Lernmaschinen und Lernumgebungen ist sehr stark von den behavioristischen Lehrstrategien geprägt worden. Hervorzuheben sind in diesem Zusammenhang die Arbeiten von Edward L. Thorndike und Burrhus F. Skinner, auf die im folgenden noch näher eingegangen werden soll. Die von J.B. Watson im Jahre 1913 begründete Richtung der Psychologie forderte, die Introspektion, also die Beschreibung und Analyse nur innerseelisch beobachtbarer Vorgänge, als unwissenschaftlich aufzugeben und sich ausschließlich mit der Messung des Verhaltens zu befassen.[11] Der menschliche Geist ist aus der Betrachtung herausgenommen worden, indem das Gehirn als eine »black box« aufgefaßt wird, das einen Input (Stimulus S) erhält und darauf deterministisch reagiert (Response R).[12]
Behavioristische Lehrstrategien gehen davon aus, daß der Lehrende genau weiß, welche Inhalte zu vermitteln sind. Lernen wird in diesem Sinne als konditionierter Reflex gesehen, der durch Adaption erworben wird.[13] Obwohl diese auf einfachen Stimulus-Response-Schemata basierenden Theorien in der Wissenschaft lange Zeit vorherrschend waren, erwiesen sie sich im Hinblick auf die Erklärung des menschlichen Lernprozesses dennoch als ungenügend. Gleichwohl wird diesen Ansätzen eine gewisse Daseinsberechtigung zugesprochen, dann nämlich, wenn es um das Üben solcher Fertigkeiten wie das Klavierspiel oder das Sprechenlernen geht.[14]
Thorndike führte im gewissen Sinne Watsons Ansatz des Behaviorismus weiter.[15] Aufgrund seiner Experimente mit Katzen formulierte er das Effektgesetz (Gesetz der Auswirkung: law of effect):
Verhaltensweisen (als S-R-Verbindungen) treten dann mit hoherer Wahrscheinlichkeit auf, wenn sie in der Vergangenheit zu einem befriedigenden Resultat geführt haben.[16]
Danach wird in einer Situation, in der mehrere Reaktionen ausgeführt werden konnen, diejenige Reaktion stärker mit der Situation verbunden, die den befriedigendsten Zustand bewirkt. Eine Umkehrung des Satzes ist ebenfalls gültig, wonach eine Reaktion, die einen unangenehmen Zustand bewirkt, die Verbindung zur Situation abschwächt.[17]
Mit dem »Frequenzgesetz« (Gesetz der Übung: law of exercise) formulierte Thorndike die zweite Säule seiner Lehre:
Unter gleichen Bedingungen wird jede Reaktion auf eine Situation um so stärker mit der Situation verknüpft sein, je häufiger sie mit ihr in Verbindung gebracht wurde und je intensiver und anhaltender diese Verbindungen sind.[18]
Dem Üben durch Wiederholung wurde eine überaus wichtige Rolle zugedacht. Thorndike zog auch, ohne es allerdings zunächst zu erwähnen, den Gedanken der Motivation durch Belohnung bei Erreichen einer geforderten Leistung mit ein.[19]
Skinner griff die Ideen von Pawlow, Thorndike sowie Guthrie auf und führte sie einem System für den praktischen Einsatz zu, ohne prinzipiell neue theoretische Annahmen zu machen.[20] Merkmal seiner Ausführung ist die Unterscheidung in »klassische« Konditionierung (Reiz-Reaktion-Kopplung), deren Reaktion eine ausgeloste Reaktion ist, sowie dessen Gegenstück, dem »Operanten Verhalten«, das durch eine abgegebene Reaktion einen Reiz der Umgebung (z.B. Belohnung) auslost.[21] Aufgrund des Operanten Verhaltens entwickelte Skinner das »Programmierte Lernen« und formulierte dazu 1958 sieben wichtige pädagogische Schritte:[22]
Diese Regeln sind zum Teil heute noch Grundlage vieler Softwareentwicklungen. Niegemann gibt in diesem Zusammenhang zu bedenken, daß trotz der Kritik an Skinners programmiertem Lernen die Bedeutung der oben aufgeführten Punkte für die Entwicklung von Lernsoftware nicht zu unterschätzen sind. Sie genießen noch immer einen gewissen Stellenwert, wenn auch aus anderen Gründen.[23]
Schon in den dreißiger Jahres unseres Jahrhunderts wurde durch verschiedenste Experimente nachgewiesen, daß gelerntes Verhalten nicht zwangsläufig unmittelbar umgesetzt wird.[24] Es kann durchaus im Gedächtnis gespeichert bleiben und zu einem vollig anderem Zeitpunkt angewendet werden. Solche Lernvorgänge, denen kein beobachtbares Verhalten zugesprochen werden kann, konnen von den behavioristischen Theorien nicht beschrieben werden.[25] Da deren Positionen so nicht mehr zu halten waren, wandten sich viele Forscher den kognitiven Lerntheorien zu. Die Kognitionspsychologie sieht das Gehirn nicht mehr als eine »black box« an, bei der nur Input und Output von Interesse sind, statt dessen wird versucht, für die bei den Behavioristen so verponten[26] inneren Denk- und Entscheidungsprozesse ein theoretisches Modell zu entwickeln.[27] Im Gegensatz zum Behaviorismus, der in Weiterführung Thorndikes Ideen eine klassische Konditionierung in der Verbindung von instrumentellem Verhalten mit Belohnung sah, wird in der Kognitionspsychologie angenommen, daß ein innerer Zustand hervorgerufen wird, der dann eine Reaktion auslost.[28]
Es gibt eine ganze Reihe unterschiedlicher Ansätze in der Kognitionspsychologie. Allerdings orientiert sich die überwiegende Mehrheit am Paradigma der Informationsverarbeitung.[29] So gesehen sind auf einer abstrakten Ebene Computer und Gehirn äquivalent, woraus auch eine enge Beziehung zwischen Kognitivismus und dem Forschungsgebiet der »Künstlichen Intelligenz« resultiert.[30]
Lernprozesse werden durch innere Faktoren wie geistiges Fähigkeitsniveau und Erkenntnisprozesse erklärt.[31] Da es dem Menschen nicht vergonnt ist, in das Gehirn hineinzuschauen und die Informationsflüsse direkt zu beobachten, müssen Erklärungen für solche Denkprozesse wie Lernen aufgrund von indirekten Beobachtungen aufgestellt werden. Bei Untersuchungen hat sich der Computer als hilfreiches Medium erwiesen — ein weiteres Indiz seiner Nähe zum Kognitivismus.[32] Dem Gehirn wird, anders als im Behaviorismus, eine eigene Verarbeitungs- und Transformationskapazität zugestanden. Es kann in gewissem Sinne als ein informationsverarbeitendes Gerät, wie es der Computer darstellt, gesehen werden. Problemlosung wird nun nicht mehr als eine, aufgrund eines Stimulus produzierte, Antwort gesehen, sondern es geht viel allgemeiner darum, »... richtige Methoden und Verfahren zur Problemlosung zu lernen, deren Anwendung dann erst die (eine oder mehreren) richtigen Antworten ergeben«.[33]
Die Forschung hat mit der Zeit eine Fülle neuen Lernarten wie Regellernen, Beobachtungslernen, Handlungslernen oder Transferlernen entdeckt. Aus heutiger Sicht ist es nicht mehr sinnvoll, für jede Art der beobachtbaren Wissensaneignung eine eigene Lernart zu definieren. Wichtig ist die Feststellung, daß es sehr vielfältige Formen des einsichtigen Lernens gibt - vom Erlernen einfacher Regeln und Zusammenhänge bis hin zu komplexen Problemlosungen.[34] Allerdings soll hier kurz auf die Lehre des Jean Piaget eingegangen werden, da sie doch großen Einfluß auf die Lernsoftwareentwicklung gehabt hat und auch immer noch hat.
Ein führender Vertreter der Kognitionspsychologie war Jean Piaget. Sein Ansatz hat auf eine ganze Generation von Lehrsystementwicklern einen nachhaltigen Einfluß ausgeübt. Einer der bekanntesten unter ihnen ist Saymour Papert mit der Programmiersprache LOGO.[35]
Piaget führte den Schemabegriff in die Psychologie ein:
Schema ist für Piaget die kleinste Einheit, auf der menschliches (und weitestgehend auch tierisches) Verhalten aufbaut. Es ist entweder, wie der Reflex oder die Instinkthandlung, angeboren oder aufgrund vorangegangener Erfahrungen erworben.[36]
Er machte drei verschiedene Formen aus: sensomotorische Schemata, kognitive Schemata sowie Evaluationsschemata. Die kognitiven Schemata wurden weiter in Klassifikations- und Erklärungsschemata unterschieden.[37]
Piaget ging davon aus, daß ein Individuum in jeder Lebenssituation bemüht ist, ein großtmogliches Gleichgewicht zwischen dem Organismus und seiner Umwelt herzustellen. Es ist bemüht, eine maximale Anpassung (Adaptation) zu erreichen. Entwicklung, wie auch Lernen, ist damit das Fortschreiten von Zuständen labileren Gleichgewichts zu Zuständen stabileren Gleichgewichts.[38] Eine solche Adaptation kann grundsätzlich durch Assimilation erfolgen, d.h. Einfügung einer Umweltinformation in ein bereitstehendes Schema, oder durch Akkommodation, der Veränderung und Abstimmung eines Schemas mit einer Umwelterfahrung.[39]
Als Ergebnis seiner Forschungen stellte Piaget die Stufenlehre der Entwicklung auf. Mit ihr postulierte er eine mit dem Alter wachsende Intelligenz:[40]
Festgemacht sind die Stufen an dem Begriff der Operation als verinnerlichte Handlung mit maximaler Mobilität (Reversibilität und Assoziativität); mit der Hohe der Stufe wächst auch das Abstraktionsvermogen und die Mobilität, mit jeder Handlungseinheit geht ein eigener Lernprozeß einher, der auch zu einem (Wissens-) Transfer auf andere Bereiche führen kann.[41]
In den USA begann man sich während des Zweiten Weltkrieges mit der Kybernetik zu beschäftigen. Es ging dabei um Probleme der Selbstregulierung, Autonomie und Formen der hierarchischer Strukturen,[42] Eigenschaften, die zunächst vor allem das Militär interessierten.[43] Aufgrund der Erfahrungen entstand die konstruktivistische Idee, derzufolge das Lernen als ein aktiver Prozeß gesehen wird, »...bei dem Menschen ihr Wissen in Beziehung zu ihren früheren Erfahrungen (bzw.) Wissen in komplexen realen Lebenssituationen konstruieren.«[44] Der Konstruktivismus lehnt die Gültigkeit einer sogenannten »objektiven« Beschreibung oder Erklärung der Realität ab, er verneint also die Moglichkeit einer unabhängigen Wahrnehmung der Wirklichkeit. Realität wird vielmehr als eine interaktive Konzeption verstanden, in der Beobachter und Beobachtetes gegenseitig und strukturell miteinander gekoppelt sind.[45]
Abb. 3.1: Lernmodell des Konstruktivismus. Quelle: Baumgartner, Peter & Payr, S. (1994): Lernen mit Software. Digitales Lernen. Österreichischer StudienVerlag, Innsbruck. S. 108.
Das Hauptaugenmerk des Kognitivismus liegt im Losen von Problemen. Eine Schwäche dieses Ansatzes liegt indessen gerade im Postulat des definierten Problems, denn wann bietet sich ein sauber definiertes Problem schon an? Meist muß es aus der Situation heraus und entsprechend konstruiert werden:
Die Leistung des Praktikers besteht gerade darin, daß er einer unsicheren, instabilen Situation durch die Konstruktion beziehungsweise Implementierung einer gewissen Sichtweise (=Problemsicht) erst Sinn gibt.[46]
Der menschliche Organismus wird vom Konstruktivismus als ein informationell geschlossenes System betrachtet. Ein solches System ist »...autonom strukturdeterminiert...« und beruht »...auf zirkuläre Kausalität und Selbstreferentialität«.[47] Wie in Abbildung 3.1 dargestellt, führen solche Systeme keinen Informationsaustausch durch, sie stehen lediglich in einer energetischen Austauschbeziehung, in der jedes System selbst jene Informationen erzeugt, die es im Prozeß der eigenen Kognition verarbeitet.[48]
Lernen wird als aktiver und vor allem konstruktiver Prozeß verstanden, in dessen Vordergrund die personliche Erfahrung des Lernenden gestellt wird. Er läuft stets in bestimmten Situationen ab (situativer Lernprozeß) und umfaßt auch soziale Komponenten (sozialer Lernprozeß).[49] Der Lehrende erhält die Rolle eines Trainers oder Coaches, eines Subjekts, das aufgrund seiner Erfahrung Wissen vermittelt. Er ist eine Gestalt, die durchaus Fehler machen kann und darf.[50]
Dreyfus & Dreyfus formulierten 1987 ihr hierarchisches Modell unter dem Gesichtspunkt eines Entwicklungsprozesses.[51] Es besagt, daß sich der Lernende schrittweise ein immer besseres Verständnis einer Sache aneignet. Am Anfang steht lediglich das statische Faktenwissen, am Ende dieses Prozesses steht das Expertentum.[52] Moderne Ansätze zur Lernsoftware-Entwicklung bedienen sich dieses Modells, wie auch Baumgartner & Payr ihre Überlegungen darauf stützen:
Neuling (Novice): Wie schon der Name dieser Stufe verdeutlicht, hat der Lernende mit der Sache noch keine Erfahrungen gemacht. Als Einstieg werden ihm lediglich vom Kontext losgeloste Fakten und Regeln vermittelt bzw. übermittelt. Der Neuling lernt, »objektive« Fakten zu erkennen, zu unterscheiden und wie sie handlungsrelevant einsetzbar sind. Dieses Wissen (knowing that) ist abstrakt und meistens praxis- und realitätsfremd.
Anfängertum (Advanced Beginner): Nach der Rezeption des statischen Faktenwissens folgt das Sammeln von eigenen Erfahrungen mit dem erlernten Wissen. Dies geschieht meist durch Anwendung relevanter Regeln, die allerdings in einem kontextfreien Raum stehen. Statt zu rezitieren werden die erlernten Fakten nun miteinander in Zusammenhang gebracht, aus dem »knowing that« entsteht ein — wenn auch noch rein theoretisches - »knowing how«.
Kompetenz (competence): Der Lernende dieser Stufe wendet erstmals die vorher gelernten Regeln sinnvoll und vor allem zielorientiert an. Je nach Situation wird aus einer Unmenge kontextfreier Regeln eine Auswahl getroffen, modifiziert und hierarchisch strukturiert. Hier wird zum ersten Mal eine aktive Komponente sichtbar, da kompetent Handelnde an einer Situation konstruktiv teilnehmen.
Gewandtheit (proficiency): Während die vorherige Stufe für ein distanziertes, reflektiertes Abwägen von Alternativen steht, zeichnet sich diese Ebene durch eine »...intuitive Fähigkeit, Muster (Patterns) zu benutzen, ohne sie in Komponenten zu zerlegen...«[53] aus. Informationen werden bereits von vornherein aus einer bestimmten Warte betrachtet und subsumiert.[54] Diese Art der Entscheidungsfindung anhand eines Deutungsschemas geschieht weder bewußt reflektiert noch distanziert. Sie basiert lediglich auf mannigfaltige und jahrelange personliche Erfahrungen des kompetenten Handelns.
Expertentum (expertise): Kennzeichen dieser Stufe ist eine korperliche Integration von Fertigkeiten. Die auf der vierten Ebene erworbenen intuitiven Fertigkeiten verwachsen regelrecht mit dem Korper, sie werden zu einem Bestandteil der Person. Interessanterweise erscheinen diese Fertigkeiten nun so, als ob sie gar keinen eigenen kognitiven Charakter hätten, es »passiert« ganz nebenbei. »Wenn keine außergewohnlichen Schwierigkeiten auftauchen, losen Experten weder Probleme noch treffen sie Entscheidungen; sie machen einfach das, was normalerweise funktioniert.«[55] Auf der Expertenstufe fällt es schwer, eine ausgeübte Fertigkeit nachträglich noch analytisch zu zerlegen und distanziert zu betrachten. In den meisten Fällen würde das auch einem augenblicklichen Verlust dieser Fertigkeit gleichkommen.[56]
Ziel von Instruktionsmaßnahmen ist es stets, bei Personen Lernprozesse in Gang zu setzen, aus denen bestimmte neue bzw. veränderte Verhaltensweisen resultieren.[57] Allgemeiner formuliert kann unter »Instruktion« auch »...die geplante Bereitstellung von Lernmoglichkeiten, um es bestimmten Personen zu ermoglichen, mehr oder weniger festgelegte Ziele zu erreichen...«[58] verstanden werden.
Instruktion umfaßt in ihrer Bedeutung vielfältige Begriffe wie Unterricht, Erziehung, Bildung, Lehre, Training, Unterweisung, Fortbildung, Weiterbildung, Personlichkeitsforderung, Personalentwicklung.[59] Da all diese verschiedenen Bezeichnungen mit unterschiedlichsten Assoziationen behaftet sind und je nach Kontext vollig anders verwendet werden konnen, bietet sich Instruktion als Sammelbegriff für die genannten Begriffe an.
Instruktion läßt sich in drei Ebenen unterscheiden.[60] Die erste Ebene bezieht sich auf beobachtbare Instruktionen und Instruktionsmaßnahmen. Dies ist der Fall, wenn z.B. eine Person ein Lernprogramm am Computer abarbeitet.
Die zweite Ebene stellt Regeln und Strategien dar, auf denen die beobachtbaren Instruktionen der ersten Ebene aufgebaut sind. Maßnahmen, die diese Ebene betreffen, werden auch als »Instruktionsdesign« (ID) bezeichnet.
Auf der dritten Ebene sind die theoretischen Konzepte anzutreffen, die den verschiedenen Methoden und Modellen der Gestaltung von Instruktion zugrundeliegen. Eine Theorie, deren Prinzipien für alle Methoden und Modelle gelten soll, wird auch als »Instruktionstheorie« bezeichnet.
Eine Instruktionstheorie beschreibt und erklärt die Beziehungen zwischen Modifikationen in der Lernumgebung und den resultierenden Veränderungen der Kompetenz und Einstellung der Lernenden.[61] Es handelt sich — trotz der Nähe zu den Lerntheorien — um prinzipiell eigenständige Theorien, mit sowohl präskriptiven als auch deskriptiven Komponenten. Das Verhältnis Instruktionstheorie zu Lerntheorie ist durchaus mit dem der Biologie zur Klinischen Medizin vergleichbar. Auf in der Praxis vorkommende Probleme lassen sich schwerlich allgemeingültige nomologische[62] Aussagen anwenden.[63] Daher stellen Instruktionstheorien nicht nur explizit theoretisch formulierte Handlungsanweisungen dar, sie bieten auch als technologische Theorien (Instruktionstechnologie) praxisrelevantes Hintergrundwissen an.[64]
Hiermit wird der gesamte Prozeß der Planung, Entwicklung und Gestaltung von Instruktionssituationen und -verläufen bezeichnet.[65] Es gibt verschiedene Sichtweisen des Instruktionsdesign, die sich vor allem im Umfang der an sie gestellten Aufgaben und Anforderungen unterscheiden. Zu den Aufgaben einer sehr umfassenden Konzeption des ID-Begriffs gehoren:[66]
Um Lern- respektive Bildungssoftware beurteilen und bewerten zu konnen, ist zunächst eine Unterteilung in verschiedene Typen vonnoten. Eine Typologie geht von einem zugrundeliegendem Schema aus, nach dem Software eingeordnet werden kann. Obwohl es aus Sicht der Medienpädagogik eigentlich sinnvoll wäre, eine solche Kategorisierung nach rein pädagogischen Gesichtspunkten vorzunehmen, hat sich dennoch eine Klassifizierung nach überwiegend technischen Merkmalen bzw. der »technischen Komplexität« etabliert. Bisweilen werden selbst so unscharfe Begriffe wie »Interaktives Video« und »Multimedia« zur Kategorisierung herangezogen.[1]
Die hier verwendeten Kategorien werden in der Praxis meist nicht in reiner Form anzutreffen sein. Vielmehr ist es so, daß reale Softwareprodukte ein durchmischtes Set verschiedener der hier beschriebenen Charakteristika kennzeichnet. Im folgenden werden lediglich sogenannte »Idealtypen« beschrieben, die so in der Praxis sicher nicht anzutreffen sind.[2]
Ansonsten stützt sich dieses Kapitel aber vor allem auf die Arbeiten von Baumgartner & Payr. Sie schlagen eine handlungstheoretisch motivierte Typologie vor, die einerseits pädagogische Gesichtspunkte wie Lernziel, Lerninhalt und Lehrstrategien berücksichtigt und andererseits auch eine gewisse Praxistauglichkeit besitzt.[3]
Computergestützte Präsentationsformen sind in Zusammenhang mit den frühen behavioristischen Lernmaschinen in Verruf geraten, da solche Präsentationen in erster Linie aus textgefüllten Bildschirmseiten bestanden. Heutige Anwendungen dieses Typus haben durchaus ihre Berechtigung, z.B.:[4]
Dieser Softwaretypus ist überall dort sinnvoll, wo herkommliche Medien wie z.B. der Papierdruck die Moglichkeiten der Darstellung einschränken.
So führen Baumgartner & Payr als Beispiel ein Lernprogramm auf, daß chemische Moleküle dreidimensional darstellt.[5] Ein weiteres Bespiel kommt aus der Chaos-Forschung, einer Disziplin, die ohne Rechneranlagen erst gar nicht entstanden wäre. Aufgrund der Komplexität und der Datenfülle chaotischer Systeme muß zur Veranschaulichung auf Visualisierungs-Software zurückgegriffen werden.
Baumgartner & Payr betonen die Bedeutung der Visualisierung für die Entwicklung von Vorstellungsbildern und adäquaten mentalen Modellen im Lernprozeß. Präsentation von Inhalten und Informationen ist wohl jeder Bildungssoftware eigen: Die Parameter einer Simulation müssen ebenso dargestellt werden wie das Szenario eines Spiels oder die Objekte einer Mikrowelt. Daher hat die Übereinstimmung von mentalem Modell und Darstellung bzw. Manipulationsmoglichkeiten große Bedeutung für den Aufbau adäquater mentaler Modelle (Baumgartner & Payr sprechen in diesem Zusammenhang auch von WYSIWYG, »What You See Is What You Get«). Was nun allerdings im jeweiligen Fall als adäquat zu gelten hat ist die im Einzelfall zu treffende didaktische Entscheidung.[6]
Ein Charakteristikum des hier behandelten Softwaretypus ist die Beschränkung der Interaktion lediglich auf die Steuerung des Programms. Dagegen findet die didaktische Interaktion, das heißt die inhaltliche Transformation der Darstellung zu kognitiven Modellen, außerhalb der Software statt bzw. wird von anderen Programmodulen übernommen.[7] Dies muß nicht von Nachteil sein, da somit die Software wesentlich flexibler eingesetzt werden kann. Es bleibt dem lernorganisiertem Setting überlassen, wie dieser Softwaretypus eingesetzt wird.[8]
Es ist ersichtlich, daß Präsentationssoftware vor allem der Sammlung von Fakten dient. Somit wird also eine frühe Stufe des Lernmodells nach Dreyfus & Dreyfus angesprochen. Im Gegensatz zum kognitivistischem Lernparadigma ist hier jedoch nicht nur das Merken von (propositionalen) Regelsätzen gemeint, sondern ebenso das Aneignen von Vorstellungen und Modellen der jeweiligen Inhalte.[9]
Mit der digitalen Integration der verschiedensten Datenarten ist es moglich, Inhalte und Situationen auf die vielfältigsten Arten — zum Teil sogar gleichzeitig — zu präsentieren. Dies spielt nicht nur von der Ästhetik und der Abwechslung her eine Rolle, da nun mehr Moglichkeiten gegeben sind, komplexe Situationen verständlicher darzustellen. Gerade komplexe Lernsoftware wie Simulationen, Mikrowelten oder Spiele konnen damit eine breite Variation unterschiedlicher Formen der Darstellung anbieten und somit dem Benutzer ein Verstehen und Überblicken der Situation erleichtern. Allerdings steigt mit der Zahl der Repräsentationsformen auch die Komplexität der Bedienung, die erst erlernt werden muß. Es ist somit ein Mehr an Arbeit, das aber oftmals unumgänglich und wichtig ist, da die Bedienung selbst ein Teillernziel bilden kann (als Beispiel sei das Notensystem genannt, dessen Erlernen zwar nicht garantiert, ein guter Musiker zu werden, andererseits ein guter Musiker wohl das Notensystem beherrschen muß).[10]
Repräsentationssysteme sind systematische Deutungs- und Interpretationsschemata, die einen objektivierenden Charakter haben, d.h sie sind auch allgemeingültig. Sie werden immer dann angewendet, wenn sich bestimmte Sachverhalte mit ihnen besser und exakter darstellen lassen.[11] Oftmals geht mit der Darstellung auch eine »Komplexitätsreduktion« einher. Die Idee ist, daß zum Beispiel einem Anfänger ein Einstieg in eine komplexe Software mit wenigen Einstellungen und Kommandos ermoglicht wird und er sich dann in die umfassende Parameterisierung einarbeiten kann. Es kann auch durchaus sinnvoll sein, den verschiedenen Repräsentationsformen einer Anwendung ein eigenes, begrenztes Set an Einstellungsmoglichkeiten zuzuordnen.[12]
Sinnvoll ist ein Repräsentationssystem, wenn es sowohl aussagekräftig als auch — relativ zur betreffenden Sache — leicht erlernbar ist. Es darf keinesfalls selbst zum Lernobjekt werden, sondern es immer nur repräsentieren.[13]
Der in der Literatur weitaus häufiger verwendete Name für diesen Softwaretyp ist »Drill & Practice«. Doch für Baumgartner und Payr greift der Begriff »Practice« viel zu weit, da er in deren erweitertem handlungsorientierten Ansatz sowohl die Ausübung einer komplexen kognitiven Tätigkeit bedeuten kann wie auch jede Art des mechanischen Einübens von Fertigkeiten. Mit der Bezeichnung Drill- und Testsoftware ist hier jene Form der Bildungssoftware gemeint, die zur Festigung von bereits gelernten Inhalten dienen soll.[14]
Abb. 4.1: Beispiel eines Drill & Test-Programms. Quelle: Eigene.
Typische Programme dieser Gattung sind gekennzeichnet durch Sequenzen des Typs »Übungsaufgabe — Eingabe einer Antwort — Rückmeldung«.[15] Viele der frühen Lernprogramme folgten diesem behavioristischen Ansatz und kamen damit zu zweifelhaftem Ruf. Allerdings darf die Notwendigkeit der Übung nicht übersehen werden, seien es nun korperliche Fertigkeiten wie z.B. das Erlernen des Maschinenschreibens als auch kognitive Fertigkeiten.[16]
Software diesen Typs ist technologisch gesehen relativ leicht zu realisieren und ist daher auch schon lange Zeit verfügbar. Allerdings ist es wohl gerade den Lernumgebungen dieses Typs zu Verdanken, daß die Computertechnologie im pädagogischen Bereich noch keinen Einzug gehalten hat. Leider ist es immer noch so, daß die meisten der derzeit verfügbaren Programme dieser Gattung von minderer Qualität sind.[17]
Daß die überwiegende Zahl der kommerziellen Lernsoftware gerade dieser Kategorie angehort, hat mehr mit der geringen technischen Komplexität denn mit pädagogischen Erwägungen zu tun. Gerade die hier angesprochenen Interaktionsformen sind einfach zu programmieren und es lassen sich darüberhinaus relativ simpel — wenn auch meist fragwürdige — »Erfolgskontrollen« programmieren.[18]
Baumgartner & Payr führen als didaktisch und pädagogisch sinnvolle Beispiele die Programme Fingeralphabet, ein Programm zum Erlernen des internationalen Fingeralphabets, sowie Number Munchers (Grundrechenarten) auf.[19]
Tutorielle Systeme entsprechen idealtypisch der Situation eines einzelnen Schülers mit einem Tutor oder Privatlehrer: Neue Begriffe und Regeln werden verbal bzw. anhand von Beispielen eingeführt und durch Fragen oder Aufgaben wird geprüft, inwieweit der Lerner den Lehrstoff verstanden hat.[20] Der Computer übernimmt also tatsächlich die Rolle eines Tutors, der einem Inhalte vermittelt, einübt und eventuell sogar überprüft. Entscheidend jedoch soll sein, daß dieser Softwaretypus in erster Linie kein Faktenwissen, sondern Regeln und Anwendungen, also prozedurales Wissen, vermittelt.
Von der Konzeption her handelt es sich somit um Software mit einem hohen didaktischen Anspruch.[21] In ihr sind Merkmale der Kategorien Präsentationssoftware sowie Drill- und Testsoftware vertreten. Da die tutoriellen Systeme aber eine große Bedeutung erlangt haben, sind sie hier separat aufgeführt.
Lehrstrategien, die dem Lernenden ein Problem stellen, dessen Lernziel das Verfahren zur Losung dieses Problem ist, sind der prototypische Einsatz für Tutorensysteme.[22] Je umfassender jedoch eine Problemstellung ist, desto komplexer und vielfältiger werden die moglichen Lösungsstrategien. Konventionelle Tutorensysteme mit fest programmierten Regeln und Verfahren sind damit überfordert. In der Mediendidaktik werden daher große Hoffnungen in die Forschung zur »Künstlichen Intelligenz« (KI; engl. artificial intelligence, AI) gesetzt. Sogenannte »Intelligente Tutorensysteme« (ITS), die auf Forschungen der KI aufbauen, müssen nicht nur Wissen zur inhaltlichen Seite der Problemstellung repräsentieren, sondern auch Wissen über Lehren und Lernen. Der Lernende wird vom Programm beobachtet, seine Aktionen aufgezeichnet und ausgewertet, um Wissensstand sowie die Wissenslücken des Lernenden zu ermitteln und entsprechend zu reagieren.[23] Ein idealtypisches Merkmal intelligenter tutorieller Systeme ist also ein nicht eindeutig vorgegebener Lernweg.[24]
Nur die intelligenten tutoriellen Systeme konnen dem hier gemeinten Idealtypus »Tutorensystem« entsprechen. Der Entwicklungsaufwand solcher Systeme ist allerdings enorm hoch, wie auch die Schwierigkeiten zur Formalisierung notwendigen »Lehr-Expertentums«.[25] Daher sind ITS vor allem in der Forschung zu finden.[26] Kommerzielle Produkte wie Lisp Tutor (Einführung in die Programmiersprache LISP) und Geometry Tutor (geometrische Beweise) sind derzeit die Ausnahme.[27]
Mit Simulationsprogrammen wird eine Veranschaulichung komplexer Sachverhalte und Situationen auf z.B. naturwissenschaftlichem, okonomischem, ökologischem oder sozialem Gebiet veranschaulicht.[28] Sie beruhen auf mathematisch definierten und parameterisierten Modellen meist recht hoher Komplexität.
Dem Lernenden stellt sich die Aufgabe, durch gezielte Manipulation von Parametern ein gewünschtes Ergebnis zu erzielen. Da die Parameter des Systems jedoch in Beziehungen zueinander stehen, hat die Maximierung eines Faktors meist auch — unerwünschte — Auswirkungen auf andere Faktoren. Es gilt also, die Wechselwirkungen eines Systems herauszufinden und aufgrund der gemachten Erfahrung situativ optimale Einstellungen zu ermitteln.[29]
Bezeichnend für Simulationen ist die nicht statische und nicht determinierbare Ausgangssituation einer Handlung. Das System ändert sich laufend, was eine schrittweise Handlung nach erlernten Regeln unmoglich macht. Es kommt vielmehr darauf an, die Situation in ihrer Gesamtheit zu erfassen und, wie Baumgartner und Payr betonen, »...sich auf sie motivational einzulassen.«[30] Lernziel ist die Bewältigung komplexer Situationen auf dem Niveau von Gewandtheit oder Expertentum (siehe Kapitel 3.5).[31]
Software diesen Typs ist recht häufig anzutreffen. In der Wirtschaft wird sie ebenso eingesetzt (z.B. Was-wäre-wenn-Analysen) wie auch in der Ausbildung (z.B. Unternehmensplanspiele). Auch haben sich eine Reihe von Spielen auf Simulationsbasis als regelrechte »Klassiker« etabliert. Eines der bekanntesten Simulationsspiele dürfte wohl SimCity bzw. SimCity 2000[32] sein (Sinn des Spiels ist es, eine Stadt aufzubauen). Ein besonders komplexes Spiel stellt SimEarth dar, das Baumgartner und Payr ebenfalls besprechen (der Spieler wird mit der Entwicklung eines ganzen Planeten betreut)[33] sowie SimAnt (ein Ameisenvolk muß einen Garten nebst dazugehorigem Haus für sich gewinnen),[34] das als Paradebeispiel für die Integration der hier vorgestellten Typologien dienen kann.[35]
Ein Problem von Simulationen besteht in ihrer Komplexität. Nutzer einer solchen Software konnen leicht mit der Fülle an einzustellenden Parametern, zu beobachtenden Entwicklungen die ihrerseits eine Reaktion erfordern und der Verfolgung der unterschiedlichsten Wechselwirkungen überfordert sein. Hier bietet sich eine Komplexitätsreduktion anhand von »Szenarien« an, die eine bestimmte Ausgangssituation anbieten. Ihre Parameterisierung ist eingeschränkt, so daß dem Anwender der Einstieg erleichtert wird.[36]
Die Entwicklung einer Simulation bietet unterschiedliche Ansätze: Werden nur wenige Parameter einer Situation modelliert, so ist die Komplexität gering. Sie eignet sich besonders dazu, die Wechselwirkungen einiger Parameter zu ergründen. Eine wesentlich komplexere Modellierung gewährt dagegen Einblicke in eine Situation ohne Vorhersagbarkeit, ohne gesicherte Regeln und Erkenntnisse.[37]
Erwähnt werden soll noch der differenzierte Umgang mit Zielen. Komplexe Systeme erlauben es, einzelne Aspekte auszuklammern oder nur einige wenige Teilaspekte zu beachten. Während einer Simulation konnen positive und negative Ziele verfolgt werden, es konnen globale Ziele gesteckt oder auch ganz spezifische Ergebnisse zu erreichen versucht werden. Weiter werden noch unklare und klare Ziele, einfache und mehrfache Ziele sowie implizite und explizite Ziele unterschieden.[38]
Simulationen wie auch die im folgenden Kapitel noch zu behandelnden Mikrowelten konnen häufig auch als Spiel verstanden werden. Da aber eine Anwendung je nach Kontext als Lernprogramm oder als Spielsoftware verstanden wird, macht es wenig Sinn, noch eine zusätzliche Kategorie »Spielsoftware« einzuführen. Wichtiger ist vielmehr eine Unterscheidung in Play (Spielzeug) und Game (Spiel). Während ein »Spiel« Gewinnsituationen fest definiert, fehlen diese einem »Spielzeug« ganz oder sie sind zumindest nicht eindeutig definiert. Bei Simulationen und Mikrowelten handelt es sich meist um den zweiten Spieltypus; Gewinnsituationen müssen hier oftmals erst konstruiert und ausgehandelt werden, je nach Zielspezifikation kann es durchaus mehr als einen Gewinner geben.[39]
Sozialpsychologisch sind beide Spieltypen für die Entwicklung der Personlichkeitsstruktur in der Kindheit von größter Bedeutung. In der Rollenübernahme auf der »Play«-Stufe wird die signifikante Rolle spezifischer Bezugspersonen gelernt. Kinder konstruieren in diesen Rollenspielen soziale Realität und erlernen den Umgang mit diesen Situationen. Sie erleben sich in verschiedenen Rollen und konnen sich daher in verschiedener Weise sehen.[40]
Gegenüber Simulationen gehen Mikrowelten noch einen Schritt weiter. Anstatt wie in einer Simulation eine bestimmte Situation lediglich zu repräsentieren, wird der Lernende vor die Aufgabe gestellt, eine solche Situation erst einmal erschaffen zu müssen. Desweiteren ist der Anwender gehalten, seine eigenen (Lern-) Ziele zu definieren.[41] In einer solchen »Welt«, die aus veränderbaren Eigenschaften besteht, werden »Experimente« konstruiert, angeordnet und durchgeführt. Allen Objekten sind bestimmte Eigenschaften zugeordnet, die manipulierbar sind. Die Aufgabe besteht nun nicht mehr nur darin, eine komplexe Situation zu bewältigen, sondern sie zu modellieren, das heißt eine Welt zu konstruieren.
Mittlerweile tragen nicht nur die Erkenntnisse aus der KI-Forschung zur Entwicklung von Mikrowelten bei, sondern verstärkt auch Ergebnisse der Forschungsrichtung Künstliches Leben (KL; engl. artificial life, AL). Ein noch recht junges Softwarebeispiel ist das Computerspiel Creatures, das den Nutzer vor die Aufgabe stellt, quasi mit gottlicher Hand in die Entwicklung einer Spezies steuernd einzugreifen.[42]
Die technischen Weiterentwicklungen der »Neuen Medien« machen diese für den privaten Interessenten ebenso attraktiv[1] wie sie auch viele Gesellschaftsbereiche verändern.[2] Die Wirtschaft muß sich ebenfalls längst mit den Moglichkeiten der Neuen Medien befassen, unter anderem verursacht durch einen rapide wachsenden Weiterbildungsbedarf, dem damit einhergehenden Zwang zur Kostenminimierung sowie der Notwendigkeit, innerhalb kürzester Zeit Weiterbildungsmaßnahmen bereitstellen zu müssen.[3]
Zunehmend wird nach Moglichkeiten zur Einbeziehung von Multimedia und Telekommunikation in Aus- und Weiterbildung zur »informellen Bildung«[4] gesucht.[5] Allerdings sind Wirkung bzw. Erfolg solcher Maßnahmen umstritten, da die Verfahren zur Bewertung des Lernerfolgs ebenfalls in der Diskussion stehen. Im folgenden werden diese Moglichkeiten der Bewertung von Lernsoftware dargestellt. Eine besondere Stellung nimmt hier die Evaluation ein, da sie als formative Evaluation ein wichtiges Instrument während der Entwicklungsphase sein kann.[6]
Eines der beliebtesten Verfahren zur Bewertung von Lernsoftware bilden Kriterienkataloge. So hat beispielsweise die Stiftung Warentest in ihrer JuliAusgabe 1996 einen Testbericht über Lernsoftware veroffentlicht, dessen Grundlage ein Kriterienkatalog bestehend aus ca. 500 Indikatoren war.[7] Die Vorteile solcher Kataloge, die meist in Form von Prüf- oder Checklisten vorkommen, liegen auf der Hand:[8]
Die einzelnen Punkte eines Kriterienkatalogs werden meist in Frageform dargestellt. Es werden wie in jeder Software-Evaluation »qualitative« und »quantitative« Daten erhoben. Fragen nach Hersteller, Systemkonfiguration oder Betriebssystem dienen beispielsweise der Abfrage qualitativer Daten. Quantitative Daten werden dagegen meist mittels Rating-Skalen ermittelt. Die Aufgabe des Evaluators besteht vor allem darin, die quantitativen Kriterien innerhalb einer Bewertungsskala einzuordnen.[9]
Kriterienkataloge konnen für den Einstieg durchaus von Vorteil sein, hier vor allem zur Bestimmung qualitativer Daten. Mittels simpler Abfragen lassen sich so die Systemeigenschaften (z.B. Existenz bestimmter Interaktionsformen) leicht klären.[10] Für die pädagogische und didaktische Bewertung jedoch sind sie unzulänglich.
Obwohl z.B. Dorothea Thomé mit ihrer »Großen Prüfliste für Lernsoftware« (GPL), einer Synopse von 23 veroffentlichten Katalogen, immerhin 324 Einzelkriterien aufgestellt hat,[11] kann sich auch ein solcher Katalog nicht dem Verdacht der Unvollständigkeit entziehen.[12] Es ist mehr als nur unsicher, ob jemals Bewertungskriterien dermaßen formalisiert werden konnen, daß sie dem Anspruch der Vollständigkeit und der zeitlich unbegrenzten Reliabilität genügen.
The fact that all components of an instructional situation interact with one another is a central problem for evaluating educational software. The existing interrelations between the components of learning systems, the fact, that the usefulness and effectivity of a particular system type may be dependent on the context of use and the particular educational goals make it impossible to follow a direct checking approach in software ecaluation on the basis of a simple software evaluation criteria list.[13]
Ein weiterer Kritikpunkt liegt in den fehlenden oder strittigen Gewichtungsbzw. Wertungsverfahren. Ein jedes Kriterium einer Prüfliste ist auf bestimmte lerntheoretische Annahmen zurückführbar, ihre Gewichtungen zueinander bleiben indes strittig.[14] Doch gerade die Gliederung und Gewichtung der einzelnen Kriterien ist entscheidend für eine vergleichende Bewertung und Auswahlentscheidung. Meist werden die Wichtungen den subjektiven Ansichten des individuellen Anwenders, Evaluators, Pädagogen etc. überlassen.[15]
Damit eroffnet sich eine weitere Problematik, nämlich die Frage nach der zugrundeliegenden Lerntheorie. Mit der Ausklammerung einer theoretisch fundierten Gewichtung wird die Frage des lerntheoretischen Hintergrundes ausgeklammert, der eigentliche Sinn einer Evaluation somit konterkariert.[16]
Gemeint sind in erster Linie Artikel in Zeitschriften, die eine Software beschreiben und einschätzen, aber auch Ratgeber wie z.B. die Reihe »Computerspiele auf dem Prüfstand« der Bundeszentrale für politische Bildung. Rezensionen bieten kein »objektives« Urteil an, sondern bewerten aufgrund rein subjektiver Wahrnehmungen. Ein genaues und reproduzierbares Ergebnis ist von daher nicht zu erwarten.
Software-Rezensionen sind einfach und billig zu erstellen, wie die Prüflisten setzen sie nicht den Aufbau von realen Lernsituationen voraus und sind daher unabhängig vom Einsatzgebiet. Für eine groben Überblick mogen sie durchaus ihren Sinn haben, wegen ihre Subjektivität und der uneinheitlichen Vorgehensweise ist jedoch eine Vergleichbarkeit nicht gegeben.[17]
Gerade diese Verfahren sind häufig zu Vergleichsgruppenuntersuchungen traditionellen Lehrerunterrichts versus Lernen mit »Neuen Medien« eingesetzt worden. Der methodische Ablauf sieht einen Test zur Ermittlung des Vorwissens bezüglich der Lernziele vor, gefolgt von der eigentlichen Wissensvermittlung und anschließend einen zum Vortest parallelen Nachtest zur Feststellung des Lernstandes. Aus der Differenz zwischen Vor- und Nachtest ergibt sich dann ein Lerngewinn, der mit entsprechenden statistischen Verfahren näher analysiert werden kann.[18]
Baumgartner sieht hier ein methodisches Problem und rät daher von solchen Vergleichstudien ab, »...da selbst bei hoher Vergleichbarkeit der Gruppen in allen wichtigen Variablen wie Alter, Geschlecht, Vorkenntnisse usw. die beiden vergleichenden Lernsituationen durch viele situative Zufälligkeiten verfälscht werden konnen.«[19] Für einen Vergleich unterschiedlicher Lehr- bzw. Lernformen ist eine wesentlich großere Stichprobe von Durchführungen beider Unterrichtsverfahren vonnoten. Hinzu kommt, daß in die Konstruktion der Meßinstrumente theoretische Vorannahmen mit einfließen, die das Untersuchungsergebnis wesentlich beeinflussen. Wird der Lernerfolg beispielsweise anhand der Beantwortung von Faktenfragen gemessen, dann stellt sich die Frage, ob Lernen nicht bereits auf die verbale Reproduktion von Inhalten reduziert worden ist. Baumgartner spricht in diesem Fall vom »operationalisiertem Zirkelschluß«.[20]
Baumgartner & Payr haben immer wieder hervorgehoben, wie ungenügend ihrer Meinung nach eine Beurteilung von Lernsoftware mittels einfacher Erprobung eines Lernerfolges ist. Sie plädieren dagegen für ein »heuristisches Modell«[21], das einer konstruktivistischen Sichtweise folgt.
Abb. 5.1: Ein heuristisches Modell zur Softwarebewertung. Quelle: Baumgartner, Peter (1995): Didaktische Anforderungen an (multimediale) Lernsoftware. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 241-252. Psychologie Verlags Union, Weinheim. S. 248.
Rahmenbedingungen machen meist durch unangenehme Einschränkungen auf sich aufmerksam. Dies konnen zum Beispiel das zur Verfügung stehende Budget, die vorhandene Hardware oder auch das verwendete Betriebssystem sein. Weiter konnen auch abzudeckender Inhalt, Organisationsform (Curriculum, offenes Lernen zu Hause), Eingangsvoraussetzungen usw. dazu gezählt werden.
Anhand des Würfelmodells in Abbildung 5.1 werden die gewünschten Lernbzw. Entwicklungsstufen mit der gewünschten Interaktionsform und dem sozialen Setting (der didaktischen Situation) festgelegt, indem das abstrakte Modell anhand der konkreten inhaltlichen Fragestellung konkretisiert wird.
Anhand der vorangegangenen Fragestellungen konnen schon Einschränkungen bezüglich der zu verwendenden Software getroffen werden. Allerdings ist es recht schwierig, brauchbare Anwendungen zu erkennen. Letztendlich muß diese Vorauswahl aufgrund verfügbarer Informationen getroffen werden. Mogliche Quellen wären Software-Kataloge, Rezensionen, personli-cher Erfahrungsaustausch, Hersteller-Informationen und Demo-Programme zu begutachten.
Baumgartner schlägt als nächsten Schritt vor, an den in die engere Wahl gekommenen Anwendungen eine vergleichende Analyse in Form von generierenden Fragestellungen vorzunehmen. »Generierend« bedeutet in diesem Fall, »...das Problemfeld offnen, auf die Problematik aufmerksam werden und mit anderen Problemlosungen vergleichen.«[22] Es lassen sich fünf grundsätzliche Typen von Fragestellungen unterscheiden:[23]
Diese Fragen verwenden das Moment der Kriterienkataloge bzw. Prüflisten. »Statt aber als operationalisiertes Bewertungsinstrument zu dienen, offnen sie in meinem Vorschlag erst das Feld für eine vergleichende Analyse«.[24]
Der Zweck dieser generierenden Fragen ist es, Fragen zu den dahinterliegenden didaktischen Strategien zu stellen. Da alle Fragestellungen innerhalb einer bestimmten Würfelzelle anzuwenden sind, ergibt sich ein im Gegensatz zu den üblichen Prüflisten überschaubares Set von etwa fünf bis sieben Fragen.[25]
Eine Evaluation dient der Bewertung, in diesem Fall der Bewertung von Lern- bzw. Bildungssoftware. Wichtig ist die Unterscheidung in summative und formative Evaluation. Unter ersterer ist eine abschließende Bewertung wie sie zum Beispiel Verbraucherorganisationen[26] durchführen zu verstehen, während eine formative Evaluation den Entwicklungsprozeß mit dem Ziel begleitet, Informationen zur Verbesserung des Programms zu liefern.[27] Evaluation von Lernsoftware scheint ein schwieriges Feld zu sein. Dies mag an den ungenügenden Definitionsansätzen ebenso liegen wie am recht hohen Aufwand, den eine solche Maßnahme erfordert. So sind Evaluationen bei Entwicklern wie Anwendern (bzw. Anwendervertretungen) — zum Teil bedingt durch fehlendes theoretisches Hintergrundwissen[28] — nicht sehr beliebt.[29]
Für die Evaluation gibt es viele Definitionsansätze, eine allseits anerkannte Evaluationsdefinition gibt es zur Zeit allerdings nicht.[30] Baumgartner führt dies auf das relativ junge Alter des Forschungsbereichs sowie die sich ständig vermehrenden Evaluationsmodelle zurück.[31] Er hat die seiner Meinung nach wichtigsten Definitionsansätze kurz skizziert:[32]
Aufgrund der Vielfalt der Definitionsansätze schlägt Baumgartner daher eine wesentlich weiter gefaßte These zur Begriffsbestimmung der Evaluation vor:
Unter Evaluation sind alle Aktivitäten und/oder Ergebnisse zu verstehen, die die Bedeutung, Verwendbarkeit, (Geld-) Wert, Wichtigkeit Zweckmäßigkeit... einer Sache beurteilen bzw. bewerten. Nur dieses weitgefaßte Verständnis von Evaluation kann sowohl die Charakteristika besonderer Evaluationsfelder berücksichtigen als auch einen adäquaten Betrag zur Theoriebildung leisten.[34]
Auch zu diesem Themenkomplex herrscht in der Wissenschaft immer noch keine Einigkeit. Die folgende Zusammenstellung orientiert sich an Michael Scriven,[35] da »...dessen wissenschaftsphilosophische und -theoretische Arbeiten zur Evaluationslogik großen Einfluß und Verbreitung gefunden haben«:[36]
Als zentrales Modell zur Definition der Wertansprüche soll eine dreistufige Bedürfnisanalyse dienen, mit deren Hilfe die wesentlichen Momente der ersten beiden Phasen der Ablauflogik erreicht werden:[37]
Die vorangegangene Bedürfnisanalyse dient vor allem den ersten zwei Phasen der Ablauflogik einer Evaluation. Daneben fällt ihr ein entscheidendes Moment zur Operationalisierung und Integration der Ergebnisse zu.
An eigentlichen Beurteilungsverfahren (Zuweisung von Werten) lassen sich grundsätzlich vier Methoden unterscheiden, die untereinander frei kombinierbar sind:
Zur Analyse eines Evaluanden bedarf es der Festlegung einer relativen Wertigkeit aller Beurteilungsdimensionen. Es mag inzwischen deutlich geworden sein, welche Schwierigkeiten dieses Unterfangen birgt.
Wenn inhaltliche Zusammenhänge zwischen Funktionsmerkmalen des Evaluanden und den Interessensorientierungen verschiedener Adressaten der Evaluation vorerst ausgeklammert werden, so stellt sich das Definieren von Prioritäten (Gewichtung) zunächst einmal als ein rein methodisches Problem dar. Zur Losung bieten sich prinzipiell zwei Verfahren an: additive (numerische) und qualitative Gewichtungsprozeduren.[38]
Die Numerische Gewichtung und Summierung (NGS) ist in verschiedensten Formen anzutreffen. Sie kann sowohl beschreibend, vorschreibend (normativ, präskreptiv) als auch bewertend eingesetzt werden. Die allgemeine Form ist die »Multi-Attribute Utility Analysis«,[39] in der die einzelnen Dimensionen zunächst gewichtet werden, das heißt ihre relative Wertigkeit wird eingeschätzt. Sodann werden die Leistungen der Prüflinge in den jeweiligen Dimensionen eingeschätzt (rating). Die ermittelten Werte aus Leistungsbewertung und deren Wichtung werden abschließend miteinander multipliziert und die Produkte eines Evaluanden dann summiert. Der Wert eines Evaluanden wird durch eine Zahl angegeben; je großer die Zahl, desto besser das Abschneiden. Sieger ist der Evaluand mit der großten Punktzahl.
Da dieses Verfahren relativ einfach umzusetzen und leicht verständlich ist sowie in jedem Fall zu einem klaren Ergebnis führt, erfreut es sich großer Beliebtheit. Dem stehen allerdings einige gravierende methodische wie intrinsische Mängel gegenüber. Ein mittels der erweiterten NGS-Methode mit Minima losbares Problem stellt der Umstand dar, daß gewisse Dimensionen erst ab einem bestimmten Minimalwert Sinn machen.[40] Darunterliegende Werte dürften eigentlich nicht in die summative Bewertung einfließen. Ein weiteres Problem stellen Bewertungskomponenten dar, die miteinander interagieren und daher nicht unabhängig voneinander bewertet werden dürfen. Zwar ist es grundsätzlich moglich, mittels Definition neuer Kriterien eine Losung anzubieten, allerdings erfordert dies eine enorme Kompetenz und stellt dennoch meist nur eine spezialisierte Einzellosung dar, die nicht verallgemeinert werden kann.[41] Ein grundsätzlicher methodischer Fehler liegt mit der Annahme einer Linearität der Punkteabstände vor. Die NGS-Methode liefert zur Bewertung eine Ordinalskala, die es eigentlich verbietet, Multiplikationen und Summationen durchzuführen. Diese Operationen sind nur mit Intervall- und Ratio-Skalen zulässig.
Als schwerwiegendstes — da kaum losbares — Problem hebt Baumgartner in seinen Ausführungen hervor, daß die Anzahl der Kriterien, die bei einer Evaluation definiert werden, nicht vorhersehbar sind.[42] So gibt es Prüflisten mit zehn bis zwanzig Kriterien und solche mit mehreren hundert. Dadurch kommt es vor, daß entweder einige wichtige Kriterien durch viele triviale Punkte in der Bewertung unterdrückt werden, oder aber einige wenige Faktoren bestimmen das Endergebnis.
Die Mängel der Numerischen Gewichtung und Summierung (NGS) machen die Erfordernis einer anderen Methode deutlich. Die QGS bietet ein qualitatives Bewertungsverfahren mittels paarweisen Vergleichs: »[Qualitative Weight and Sum (QGS),] a method of evaluation that uses only a grading scale for weighting the importance of dimensions of merit and for rating the performance of each evaluand on each dimension.«43[43]
Zunächst werden den einzelnen Dimensionen eines der fünf Gewichte Essential ( E ), Very Valuable ( * ), Valuable ( # ), Marginally Valuable ( + ) und Zero ( 0 ) zugesprochen. Sie werden als Symbole dargestellt, um so eine Verwendung als Ratio- oder Intervall-Skala auszuschließen. Es sei darauf hingewiesen, daß nicht alle fünf Gewichte vergeben werden müssen. Schließlich kann es durchaus vorkommen, daß keine der Dimensionen beispielsweise als #(Valuable) gewichtet wurde.[44]
Die Zero-Dimensionen (0) sind als absolut ohne Gewicht und daher für die Bewertung unbedeutend. Sie konnen also gestrichen werden. Anschließend muß überprüft werden, daß alle Evaluanden den als Minimalerfordernissen gewerteten Dimensionen (Essentials, E) genügen. Die Kandidaten mit negativem Befund werden ausgeschlossen.
Es folgt die Bewertung der einzelnen Kriterien. Der Wert muß im Bereich von Zero (0) bis zur maximalen Wichtung des Kriteriums liegen, das heißt eine als Essential betrachtete Dimension kann ein Wert von 0 bis E zugewiesen werden, einer Very Valuable Dimension nur 0 bis usw. Zu beachten ist hier, daß es sich nicht immer um einen monoton ansteigenden Zweckmäßigkeitsbereich handelt. Es kann durchaus vorkommen, daß das Überschreiten eines bestimmten Niveaus wiederum zur Schwäche wird.
Aufgrund der bisherigen Vorgehensweise ist eine Rangordnung (ranking) der einzelnen Dimensionen entstanden, die mit einer integrierten Schlußbewertung versehen werden kann. So wäre es denkbar, daß nach einer Bewertung der Evaluanden ein zu erfüllendes Minimalkriterium aufgestellt wird.
Fortzufahren ist nun mit der Summierung jener Dimensionen, die mit gleicher Wertigkeit behaftet sind. Als Ergebnis liegen dann pro Evaluanden drei Werte vor: die Summe der *, die Summe der # und die Summe der +. zur Vereinfachung konnen jene Eigenschaften, die alle Evaluanden gleichermaßen aufweisen, ausgeschlossen werden. Dies erleichtert einen eventuellen paarweisen Vergleich. Jeder Evaluand hat nun eine Wichtung in Form n , n# und n+ erfahren, wobei nur für die Anzahl der Gewichte steht.
Es kann geprüft werden, ob sich schon eine eindeutige Rangordnung manifestiert hat.
Evaluand A 3, 4#, 2+
Evaluand B 2, 5#, 2+
Evaluand C 2, 7#, 0+
Hier ist Evaluand A eindeutig besserer als Evaluand B . Es ist jedoch nicht moglich, eine solche Aussage bezüglich A und C zu treffen. Daher müssen beide Kandidaten in einem paarweisen Vergleich genauer untersucht werden. Konnen auf Anhieb keine eindeutigen Ergebnisse geliefert werden, kann im Lichte des paarweisen Vergleiches die Methode als iterative Prozedur solange wiederholt werden, bis ein befriedigendes Resultat vorliegt.
Nachteilig am QGS-Verahren ist seine Komplexität sowie das Fehlen eines definitiven Entscheidungsalgorithmus'.
Baumgartner führt neben echten Evaluationen desweiteren sogenannte »unechte Evaluationen« auf, die auch als Quasi- sowie Pseudo-Evaluationen bezeichnet bzw. stigmatisiert werden.[45] Als Pseudo-Evaluationen gelten jene, die entweder politisch gesteuert oder zur Zementierung einer vorgefaßten Meinung dienen. Quasi-Evaluationen sind zwar methodisch korrekt, bieten aber keine Reflektion ihrer Fragestellung und Wertansprüche an. Echte Evaluationen hingegen stellen dagegen ihre Definition, Begründung und Beurteilung von Wertansprüchen (Zieldefinitionen) in den Mittelpunkt ihrer Analyse.
Jede Form der Evaluation ist interessensgeleitet. Dies manifestiert sich besonders in der Wichtung einzelner Beurteilungsdimensionen. Von daher bietet es sich an, aufgrund unterschiedlicher Interessensorientierungen eine Gruppierung wie in Abbildung 5.2 vorzunehmen.
Abb. 5.2: Interessensorientierungen bei echten Evaluationen. Quelle: Baumgartner, Peter (im Druck): Evaluation vernetzten Lernens. Erscheint in: Simon, Hartmut (Hg.): Virtueller Campus. StudienVerlag, Innsbruck.
Diese Form der Evaluation dient häufig als Modell zur Entscheidungsfindung. Hervorzuheben ist besonders das CIPP-Modell (Context, Input, Process and Product Evaluation) von Stufflebeam, ein Modell, das vor allem wegen seines Bezugs auf Entscheidungsträger (Management) in der Betriebswirtschaft sehr beliebt ist. Die Evaluation erfolgt hier in vier Schritten.
Die hierunter fallenden Modelle sind der Öffentlichkeit nicht gänzlich unbekannt, da sie häufig z.B. von Konsumentenvereinigungen zur Bewertung bestimmter Produkte angewendet werden. Grundlage dieser Modelle ist die Betrachtung der Evaluanden als Produkte . Damit ist eine gewisse Marktorientierung gegeben. Unter »educational product« kann vom Lehrbuch über Lernsoftware bis hin zu Workshops, Diensten und Methoden wie Checklisten, Reviews oder Reports verstanden werden.
Evaluations-Modelle eines konsumentenorientierten Ansatzes werden häufig auch als Produkt-Evaluationen bezeichnet. Es sind meist summative (=abschießende) Evaluationen und sind somit den Check- und Prüflistenverfahren methodologisch.
Dies sind wohl die allgemein bekanntesten und auch ältesten Evaluationsansätze. Beispiele für Expertenorientierungen sind: Kommissionen zur Antragsprüfung, Karriere (Habilkommission), Beglaubigungskorperschaften bzw. Vergabe von Qualitätssiegel, Peer-Reviews bei wissenschaftlichen Zeitschriften, Preisverleihungen etc. Im Gegensatz zu den anderen Modellen der Evaluation wird in den Experten-orientierten Ansätzen kein Problem in der Subjektivität der Werturteile gesehen, sondern ganz im Gegenteil ganz bewußt auf professionelle subjektive Werturteile aufgebaut.
Dies sind Modelle, die in der Öffentlichkeit die unterschiedlichen Sichtweisen in einer Gesamtevaluation kontrovers zu Wort kommen lassen. Sie sehen keine Ursachenanalyse vor und taugen daher lediglich zur summativen Evaluation. Bekannt sind z.B. die Gegnerschafts-orientierten Ansätze (adversary approrach oder advocate-adversary approach, die in zwei verschiedenen Teams jeweils die Vor- bzw. Nachteile des Evaluanden untersuchen. Eine besondere Erweiterung, die weit über ein einfaches pro und contra hinausgeht, stellt der judicial-approach dar, der in Anlehnung an die Justiz in einem »Prozeß vor Gericht« zu einem Werturteil kommt.
Hierunter werden jene Ansätze verstanden, die nicht nach einem präskriptiven Muster vorgehen. Es wird nicht von starr vorgefaßten Zielen ausgegangen, sondern auf Bedürfnisse und Interessen aller Beteiligten eingegangen. Es werden häufig Methoden aus der Anthropologie verwendet, so daß sie Ähnlichkeiten zu ethnographischen Studien besitzen.
Mit Einbeziehung subjektiver Präferenzen und Interessen der Beteiligten widersprechen diese Methoden dem traditionellen Wissenschaftsparadigma. Es wird von einem Weltbild multipler Realitäten und individueller Perspektiven ausgegangen statt von einer objektiven Realität. Daher liegt die Betonung auf deduktiven Vorgehensweisen, die auf Verstehen statt auf statistische Zusammenhänge ausgerichtete sind.
Als abschließendes Beispiel soll kurz auf den 2. European Academic Software Award 1996 (EASA) eingegangen werden.[46] Mit ihm sollen »akademische« Programme ausgezeichnet werden , also Anwendungen, die vornehmlich für Forschung und Lehre im Hochschulbereich entwickelt worden sind. Der Evaluationsprozeß orientierte sich stark an Scriven (siehe Kapitel 5.3.1), eine Besonderheit besteht in der Nutzung des Internets respektive World Wide Webs während der gesamten Evaluation.
Der Ablauf der Evaluation erfolgte in drei Phasen. Juroren mußten sich im ersten Schritt einen Überblick über die gemeldeten Anwendungen verschaffen und grob nach Gesichtspunkten vorher festgelegten Kriterien wie Innovation, Design, landesspezifische Anpassung, Zielgruppen usw. klassifizieren.
Im zweiten Abschnitt sind die Programme von »Experten«, deren Fachgebiet eine Anwendung zugeordnet ist, getestet und evaluiert worden. Die Vorgehensweise war vorher festgelegt worden und für alle Anwendungen einheitlich. Die Evaluatoren mußten in dieser Phase Fragen zur Software beantworten (Kriterienkatalog bzw. Checkliste) und abschließend eine schriftliche Beurteilung verfassen. Handelte es sich um Lehrsoftware, mußten zusätzlich Studenten als weitere Evaluatoren herangezogen werden. Auf Basis dieser Beurteilungen wurden schließlich 35 Programme ausgewählt, die an der abschließende Bewertung teilnehmen durften.
Die Finalisten schließlich wurden einem komplizierten Verfahren, das sich an der Qualitativen Gewichtung und Summierung orientierte (siehe Kapitel 5.3.1.3), ausgesetzt um die jeweiligen Sieger der unterschiedlichen Programmkategorien zu bestimmen.
Aus diesen Finalisten sind dann die jeweiligen Sieger ihrer Kategorie ermittelt worden.
Die Qualität eines computergestützten Lernprogramms steht und fällt mit dem didaktischem Konzept und der zugrundeliegenden Lerntheorie. Neben diesen fundamentalen Voraussetzungen sind das Interfacedesign und — als vollig neue Dimensionen — Multimedialität sowie Interaktivität die tragenden Elemente computergestützter Lernsysteme.
Neben der Schwierigkeit den Grad der Interaktivität einer Anwendung zu bestimmen, machen sich vor allem technische Einschränkungen wie zum Beispiel die Mensch-Maschine-Schnittstelle unangenehm bemerkbar. Seit Einführung des grafikfähigen Monitors und der Computer-Mouse hat es trotz technischer Verfügbarkeit von Geräten wie Lichtgriffel und Touch-Screen keine gravierenden Veränderungen gegeben. Doch nun scheint sich auch hier eine Losung anzubieten, denn seit kurzem ist eine vollig neue Form der Mensch-Maschine-Kommunikation verfügbar geworden: die Spracheingabe. Zur Zeit wird ein Betriebssystem (OS/2 Warp Version 4) ausgeliefert, das sich vollständig verbal bedienen läßt und zudem eine funktionierende Spracherkennung bietet. Für andere Systemplattformen sind ebenfalls Erweiterungen ähnlicher Funktionalität erhältlich.
Die Qualität der kommerziell erhältlichen Lernprogramme bot lange Zeit Anlaß zur Sorge. Glücklicherweise hat sich dies inzwischen nachhaltig geändert, haben doch selbst klassische Schulbuchverlage diesen Markt entdeckt. Auch im Hochschulbereich tut sich einiges, Einrichtungen wie die Fernuniversität Hagen setzen zum Teil Lernprogramme erfolgreich ein. Hier greift man auch oft auf Erkenntnisse aus der Forschung zur Künstlichen Intelligenz zurück. In diesem Bereich wie auch aus den Forschungen zum Künstlichen Leben sind in den nächsten Jahren weitere Impulse zu erwarten.
Als schwerwiegend dürften immer noch die Probleme zur Evaluation des Lernerfolges von Lernsoftware betrachtet werden. Aufgrund der besonderen Merkmale interaktiver Medien und den hinzugekommenen internationalen Netzwerken (vor allem das Internet) ergeben sich für den Lernprozeß neue Moglichkeiten, aber auch neue Herausforderungen. Es ist keineswegs mehr eindeutig, was unter Lernerfolg zu verstehen ist. Die bisherige Sichtweise, die den Lernerfolg an der Reproduktion von Wissen bzw. der Anwendung theoretischen Wissens gemessen hat, ist geprägt durch die »alten«, klassischen Medien wie es z.B. das Buch darstellt. Sie geht jedoch nicht auf die durch die Neuen Medien geschaffenen neuen Lernparadigmen ein. Diese kognitivistisch orientierte Sichtweise versteht unter Lernerfolg meist sprachlich formulierbares Wissen. Sie geht aber in keinster Weise auf die durch die Interaktivität angestoßenen Lernprozesse ein, zumal diese sich meist nicht sprachlich formulieren lassen. Baumgartner umschreibt diese Situation mit einem Zitat der berühmten Tänzerin Isadore Duncan, die nach einer gelungenen Performance auf die Frage nach den Sinn ihres Tanzes antwortete: »Welchen Sinn hätte es zu tanzen, wenn ich es auch in Worte ausdrücken konnte?«[1]
Neben den durch den Multimedia-Boom hervorgerufenen Umwälzungen bestimmt zur Zeit die weltweite Vernetzung mittels Internet die Diskussion. Es ist noch nicht abzusehen, wie tiefgreifend der Einfluß dieser Technologie auf die Gesellschaft sein wird. Allerdings ist dieser schon heute so groß, daß selbst institutionelle Bildungseinrichtungen wie Schulen sich diesem nicht entziehen konnen. Bemerkenswert ist, daß die Vernetzung deutscher Schulen aufgrund der von der Wirtschaft geforderten Initiative »Schulen ans Netz« der Gesellschaft für Informatik (GI) vonstatten geht. Bundesbildungsminister Rüttgers tritt lediglich als Schirmherr auf.[2]
In anderen Ländern ist die Vernetzung der Schulen schon wesentlich weiter vorangeschritten. Während in Deutschland schätzungsweise zwei Prozent aller Schulen mit einem Internet-Zugang aufwarten konnen, sind es in Großbritannien beispielsweise schon 15 Prozent und in den skandinavischen Ländern gar 66 Prozent.[3] Aufgrund des (Weiter-) Bildungsbedarfs moderner Gesellschaften dürften Vernetzung und Bereitstellung von digitalen Informationen zu den essentiellen Zielen gehoren (die USA werden in den kommenden fünf Jahren allein für die Initiative »The Technology Literacy Challenge« zwei Milliarden Dollar zur Verfügung stellen). Wenn die klassischen Bildungseinrichtungen Schule und Hochschule Konzepte wie »Virtual Classroom«[4] und »Virtual Campus« nicht annehmen, konnten sie auf lange Sicht ihr Bildungsmonopol verlieren. Schon jetzt ist ein Trend weg von der institutionellen Bildung hin zur informellen Bildung und selbstgesteuertem Lernen festzustellen.
[1]Baumgartner, Peter (1995): Didaktische Anforderungen an (multimediale) Lernsoftware. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 241-252. Psychologie Verlags Union, Weinheim.
[2]Baumgartner, Peter (im Druck): Evaluation vernetzten Lernens. Erscheint In: Simon, Hartmut (Hg.): Virtueller Campus. StudienVerlag, Innsbruck.
[3]Baumgartner, Peter & Payr, S. (1994): Lernen mit Software. Digitales Lernen. Österreichischer StudienVerlag, Innsbruck.
[4]Bundesministerium für Wirtschaft (Hg.) (1995): Die Informationsgesellschaft: Fakten Analysen Trends. BMWI Report. Zeitbild-Verlag, Bonn.
[5]Dittler, Ullrich & Mandl, Heinz (1994): Computerspiele aus pädagogisch-psychologischer Perspektive. In: Hartwagner, G.; Iglehaut, S. & Kotzer (Hg.), Künstliche Spiele, S. 50-78. Boer-Verlag, München.
[6]Dreyfus, Hubert L. & Dreyfus, Stuart E. (1987): Künstliche Intelligenz: Von den Grenzen der Denkmaschine und dem Wert der Intuition. Rowohlt Verlag, Reinbek bei Hamburg.
[7]EASA (1996): European Academic Software Award 1996: Final Report. Internes Papier.
[8]Fehr, Wolfgang & Fritz, Jürgen (1992): Computerspiele auf dem Prüfstand: SimAnt. Rezension 12, Bundeßentrale für politische Bildung, Bonn.
[9]Fehr, Wolfgang & Fritz, Jürgen (1994): Computerspiele auf dem Prüfstand: SimCity 2000. Rezension 39, Bundeßentrale für politische Bildung, Bonn.
[10]Fortmüller, Richard (1991): Lernpsychologie: Grundkonzeption, Theorien, Forschungsergebnisse. MANZ Verlag, Wien, erste Auflage.
[11]Geyken, Alexander; Mandl, Heinz & Reiter, Wilfried (1996): Qualität in der Weiterbildung: Steigerung von Effizienz und Effektivität in der Weiterbildung. Internes Papier, Siemens AG, München.
[12]Glowalla, Ulrich & Schoop, E. (Hg.) (1992): Hypertext und Multimedia: Neue Wege in der computerunterstützten Aus- und Weiterbildung. Informatik aktuell, Berlin; Heidelberg; New York. Springer Verlag. GI Symposium Schloß Ruischholzhausen 28.-30.04.1992.
[13]Haack, Johannes (1995): Interaktivität als Kennzeichen von Multimedia und Hypermedia. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 151-166. Psychologie Verlags Union, Weinheim.
[14]Hasebrook, Joachim (1995): Multimedia-Psychologie: eine neue Perspektive menschlicher Kommunikation. Spektrum Akademischer Verlag, Heidelberg; Berlin; Oxford.
[15]Hiltz, Starr Roxanne (1994): The Virtual Classroom: Learning Without Limits via Computer Networks. Human/computer interaction. Ablex Publishing Corp., Noorwood.
[16]Hoelscher, Gerald R. (1994): Kind und Computer. Springer Verlag, Berlin; Heidelberg.
[17]Huchthausen, Liselot (Hg.) (1989): Cicero: Werke. Band 2. AufbauVerlag, Berlin; Weimar, erste Auflage.
[18]Issing, Ludwig J. & Klimsa, Paul (Hg.) (1995a): Information und Lernen mit Multimedia. Psychologie Verlags Union, Weinheim.
[19]Issing, Ludwig J. & Klimsa, Paul (1995b): Multimedia - Eine Chance für Information und Lernen. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 1-3. Psychologie Verlags Union, Weinheim.
[20]Joerger, Konrad (1984): Einführung in die Lernpsychologie: Mit Anwendungsbeispielen, Kontrollaufgaben und weiterführenden Literaturhinweisen. Band 9043 von Herderbücherei Pädagogik. Verlag Herder, Freiburg im Breisgau, 10. Auflage.
[21]Kerres, Michael (1995): Technische Aspekte multimedialer LehrLernmedien. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 25-45. Psychologie Verlags Union, Weinheim.
[22]Klimsa, Paul (1993): Neue Medien und Weiterbildung: Anwendung und Nutzung in Lernprozessen der Weiterbildung. Deutscher Studien-Verlag, Weinheim.
[23]Klimsa, Paul (1995): Multimedia aus psychologischer und didaktischer Sicht. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 7-24. Psychologie Verlags Union, Weinheim.
[24]LEU (1995): Der Computer als Übungsmedium and der Forderschule: Grundsätze und Erfahrungen. Technischer Bericht, Landesinstitut für Erziehung und Unterricht (LEU), Stuttgart.
[25]Lück, Willi van (1994): Gestaltung von Hypermedia-Arbeitsumgebungen: Lernen in Sach- und Sinnzusammenhängen. Forschungsbericht, Landesinstitut für Schule und Weiterbildung, Soest.
[26]Mandl, Heinz (1995): Bildung im Informationßeitalter. Politische Studien 46(341):68-83.
[27]Niegemann, Helmut N. (1995): Computergestützte Instruktion in Schule, Aus- und Weiterbildung: theoretische Grundlagen, empirische Befunde und Probleme der Entwicklung von Lehrprogrammen. Peter Lang Verlag, Framkfurt a. M.; Berlin; Bern; New York; Paris; Wien.
[28]Opaschowski, Horst W. (1995): Das Multimedia-Zeitalter läßt auf sich warten. Akzeptanz-Probleme der neuen Informationstechnologien. In: Bundesministerium für Wirtschaft (Hg.), Die Informationsgesellschaft: Fakten Analysen Trends, S. 46-47. Zeitbild-Verlag, Bonn.
[29]O'Shea, T. & Self, J. (1986): Lernen und Lehren mit Computern: Künstliche Intelligenz im Untericht. Birkhäuser, Basel.
[30]Papert, Saymor (1994): Revolution des Lernens: Kinder, Computer, Schule in einer digitalen Welt. Heise Verlag, Hannover.
[31]Petzold, Matthias (1995): Kinder, Computer und familiäre Interaktion mit neuen Medien. Medien und Erziehung 39(2):276-282.
[32]Pitzer, Sissi (1996): Wir haben viele Wege, aber kein klar formuliertes Ziel: Zu einer Konferenz der Bertelsmann- und der Nixdorf-Stiftung in Bonn über den Einsatz von Computer, Internet und PC in Schule und Ausbildung. Frankfurter Rundschau 48(278):11.
[33]Poppe, Christoph (1996): Mathematische Unterhaltungen: Künstliches Leben im PC. Spektrum der Wissenschaft 1996(10):14-19.
[34]Reinmann-Rothmeier, Gabi & Mandl, Heinz (1996): Lernen auf Basis des Konstruktivismus: Wie Lernen aktiver und anwendungsorientierter wird. Computer und Unterricht 1996(23):41-44.
[35]Sarnow, Karl (1996): Schulen ans Netz: Initiative fordert InternetZugänge für Schulen. c't magazin für computertechnik 1996(4):80-85.
[36]Schenkel, Peter & Holz, Heinz (Hg.) (1995): Evaluation multimedialer Lernprogramme und Lernkonzepte: Berichte aus der Berufsbildungspraxis. Multimediales Lernen in der Berufsbildung. BW Bildung und Wissen Verlag und Software, Nürnberg.
[37]Schmidbauer, Wolfgang (1991): Psychologie: Lexikon der Grundbegriffe. rororo Handbuch. Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg.
[38]Schott, Franz; Kernter, Steffi & Seidl, Petrica (1995): Instruktionstheoretische Aspekte zur Gestaltung von multimedialen Lernumgebungen. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 179-192. Psychologie Verlags Union, Weinheim.
[39]Scriven, Michael (1992): Evaluation thesaurus. Sage Publ., Newbury Park, vierte Auflage.
[40]Stiftung Warentest (1996): Lerprogramme für Schüler: Klassenziel nicht erreicht. test 96(7):34-39.
[41]Tangens, Rena & Glaser, Peter (1996): Die Zuvielisation. Spiegel special 3:110-114.
[42]Tergan, Sigmar-Olaf (1995): Hypertext und Hypermedia: Konzeption, Lernmoglichkeiten, Lernprobleme. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 123-137. Psychologie Verlags Union, Weinheim.
[43]Tergan, Sigmar-Olaf (1996): Evaluation of software for computer-based lerning. In: Wedekind, J. (Hg.), Staff training in media use for learning and teaching., S. 37-50. Deutsches Institut für Fernstudienforschung, Tübingen.
[44]Thomé, Dorothea (1989): Kriterien zur Bewertung von Lernsoftware: mit einer exemplarischen Beurteilung von Deutsch-Lernprogrammen. Band 12 von Hochschultexte Informatik. Dr. Alfred Hüthig Verlag, Heidelberg.
[45]Tully, Claus J. (1994): Lernen in der Informationsgesellschaft: informelle Bildung durch Computer und Medien. Westdeutscher Verlag, Opladen.
[46]Tully, Claus J. (1996): Lernen und Bildung im Wandel. medien praktisch 1:41-44.
[47]Weidenmann, Bernd (1995): Multicodierung und Multimodalität im Lernprozeß. In: Issing, Ludwig J. & Klimsa, Paul (Hg.), Information und Lernen mit Multimedia, S. 65-84. Psychologie Verlags Union, Weinheim.
[48]Weidenmann, Bernd (1994): Lernen mit Bildmedien. Beltz Verlag, Weinheim; Basel, zweite Auflage.
[49]Weiss, Sholom M. & Kulikowski, Casimir (1991): Computer Systems That Learn. Morgan Kaufmann Publishers, Inc., San Mateo, CA.