Hajo Diekmannshenke (Institut für Germanistik der
Universität Koblenz-Landau, Abt. Koblenz) „Bloß keine Fehler
machen!"
Linguistische
Betrachtungen zu Rechtschreibfehlern und ihrer Analyse Noch immer herrscht weitgehend die Meinung, daß Fehler etwas
Negatives seien. Zwar hat die gesellschaftliche Toleranz in den
letzten Jahrzehnten auch gegenüber Fehlern deutlich zugenommen, doch
noch immer besteht ein öffentlicher Konsens darüber, daß Fehler
zwar entschuldbar und nicht mehr das Maß aller Dinge, sie aber
möglichst zu vermeiden oder wenigstens zu vermindern seien. Dies gilt
neben Fehlern ‚im Leben‘ umso mehr für Fehler in Schule, Beruf
oder Wissenschaft und immer noch ganz besonders auf dem Gebiet der
Rechtschreibung. Das (unerklärte) Ziel des Deutsch- und besonders des
Rechtschreibunterrichts ist die (tendenziell absolute)
Fehlervermeidung. So werden Fehler angestrichen (meist noch mit der
Signalfarbe Rot, bis zum Jahr 2005 korrekte Schreibungen nach alter
Rechtschreibnorm, die gemessen an der neuen Normen jedoch falsch sind,
dagegen in ‚milderem‘ Grün), müssen korrigiert und sollten in
Zukunft vermieden werden. Außerdem schlagen sie sich in der Benotung
nieder und erhalten dadurch einen negativen Stellenwert.
Zeichentheoretisch gesprochen enthält das Lexem ‚Fehler‘ eine
negative Bewertungskomponente sowie die deontische Komponente, daß
‚Fehler‘ unbedingt vermieden werden müssen. Derart stigmatisierte
Fehler stellen im Schulalltag eine nicht unerhebliche Belastung der
Kinder und Jugendlichen dar und wirken sich häufig negativ auf deren
Motivation aus (Schönweiss 1997: 62f.). Im Vergleich zum Prozeß des primären Spracherwerbs mutet die oben
präsentierte Auffassung in ihrer Absolutheit außerordentlich seltsam
an. Allein wissenschaftsgeschichtlich betrachtet spielen Fehler im
Rahmen dieses Prozesses eine bedeutende Rolle. Als Noam Chomsky (1959)
Ende der 50er Jahre das Erklärungsparadigma des Behaviorismus zum
Spracherwerb so nachhaltig erschütterte, daß dieser sich davon bis
heute kaum erholen konnte, spielten auch Fehler, die Kinder quasi
systematisch im Verlauf des Spracherwerbs begehen, eine wichtige
Rolle. So verwenden Kinder in einer bestimmten Phase z.B. die
Flexionsmorpheme des Präteritums der schwachen Konjugation zeitweise
auch für die Flexion der starken Verben. Daß solche Fehler nicht auf
Nachahmung oder einem simplen Reiz-Reaktions-Schema als Grundlage des
Lernprozesses beruhen können, ist offensichtlich. Die moderne
Spracherwerbsforschung (Pinker 1996: 41f.) erkennt seit langem
einerseits den diagnostischen Wert solcher Fehler und erklärt sie
andererseits als notwendiges Stadium innerhalb dieses Prozesses,
welcher sich jedoch individuell unterschiedlich gestaltet hinsichtlich
Dauer und Intensität. So zeigen in dieser Phase ‚Belehrungsversuche‘
gegenüber ‚fehlerhaftem‘ Sprachgebrauch bei Kindern in aller
Regel keinen ‚Lernerfolg‘ (in elterlicher Sichtweise), wie das
folgende Beispiel überzeugend demonstriert: Kind:
want other one spoon, daddy Vater:
you mean, you want the other spoon Kind:
yes, i want other one spoon, please daddy Vater:
can you say ‚the other spoon‘? Kind:
other ... one ... spoon Vater:
say ‚other‘ Kind:
other Vater:
‚spoon‘ Kind:
spoon Vater:
‚other spoon‘ Kind:
other ... spoon. now give me other one spoon (zit.n.
Aitchison 1998: 70) Solche Fehler sind allerdings nur bei einer oberflächlichen
Betrachtung Ausweis eines Defizites. Bei näherer Beschäftigung
zeugen sie vor allem von einem offensichtlich vorhandenen Regelwissen.
Da in diesem Alter das bloße Experimentieren mit Lauten und
Lautketten als hauptsächliche Form sprachlicher Äußerungen bereits
überwunden ist, müssen die jeweiligen Bildungen auf ein vorhandenes
‚Regelwissen‘, welches jedoch nicht als Regelbewußtsein
verstanden werden darf, zurückzuführen sein. Sie geben also in einer
wissenschaftlichen Analyse Auskunft über den Status des jeweiligen
Entwicklungsprozesses, nicht weil sie ihn als noch defizitär
ausweisen, sondern weil sie in erster Linie das bereits Erreichte
belegen. Diese sogenannten Defizite rühren weniger von einem Fehlen
von Regeln her, sondern beruhen auf der unkorrekten Anwendung oder
unzureichenden Spezifikation der vorhandenen Regelkenntnisse. Zu
fragen ist also weniger, was Kinder in einzelnen Phasen noch nicht
können, als vielmehr, was sie bereits an Regelwissen besitzen. Aus
diesem Grunde hat die Sprachdidaktik seit Anfang der 80er Jahre eine
Neubewertung der Kategorie ‚Fehler‘ vorgenommen. So ist von ‚klugen
Fehlern‘ die Rede ( Vieluf/Vieluf 1981, Erichson 1987), sind Fehler
für die Kinder selbst wichtig (Kochan 1987), fordert Marenbach (1989:
112) gar: „Lerner brauchen Fehler!" Dennoch finden sich selbst
in den als reformorientiert sich ausweisenden „Beiträge[n] zur
Reform der Grundschule" (Naegele/Valtin 1994) noch immer Relikte
wissenschaftlich überholter Auffassungen wie Odenbachs „Allgemeine
Übungsgesetze" aus den frühen 60er Jahren, in denen u.a.
folgendes gefordert wird: Schleichen sich mit
der Übung Fehler ein, ohne sofort korrigiert zu werden, so werden sie
im Verlauf des weiteren Übens bestärkt und beeinträchtigen den
Lernerfolg oder heben ihn auf. (Bartnitzky/Valtin 1994: 52) Hier wird immer noch kritiklos und offenbar unhinterfragt ein
behavioristisches Lernmodell propagiert, in dem ‚Fehler‘ auf der
Stelle korrigiert werden müssen, da sie sich angeblich sofort
einprägen würden. Nur eine sofortige Korrektur des Fehlers führe
zur normgerechten Schreibung, so die dahinterstehende Annahme. Diese
ist jedoch weder empirisch belegt, noch hat sie Überzeugungskraft,
wie Balhorn (1994: 38) im selben Band hingegen überzeugend darlegt. Warum sollte der „einprägungswert"
von fehlern größer sein als der von richtigen schreibversionen? Wenn
aber verschiedene schreibversionen nur gleich starke modellwirkung
haben, wie wäre die besondere wirkung von fehlern gegenüber den
quantitativ weit häufigeren richtigen vorgaben in texten und in
selbstgeschriebenem zu erklären? Allerdings – und dies sei hier nicht nur angemerkt, sondern
betont – vollzieht sich der Prozeß des Schriftspracherwerbs nicht
deckungsgleich zum Prozeß des Erstspracherwerbs. Die wesentlichen
Unterschiede und deren Gründe sind in der einschlägigen Literatur
wiederholt herausgearbeitet worden und sollen hier nur gestreift
werden (Maas 1992). So ist der Schrifterwerbsprozeß ein sekundärer
Erwerbsprozeß, da bereits das System der Erstsprache erworben wurde.
Zudem befindet sich die Schriftsprache in einem besonderen ‚Spannungsverhältnis‘
zur bis dahin nur mündlich realisierten Erstsprache, wobei die ‚Umsetzung‘
von Lauten in Schriftzeichen eine qualitativ andere Beziehung der
beiden Sprachebenen darstellt als z.B. der Erwerb einer Fremdsprache
in Bezug auf die bereits vorhandene Erstsprache. Untersuchungen zum
mündlichen Sprachgebrauch haben besonders in den beiden letzten
Jahrzehnten zeigen können, daß sich die beiden Ebenen auch
hinsichtlich ihrer syntaktischen Regeln deutlich unterscheiden. Beiden
Prozessen gemeinsam ist jedoch, daß Fehler notwendige Bestandteile
diese Prozesse sind und deswegen auch als Durchgangs- und
Entwicklungsphasen eingestuft werden müssen. Der in der folgenden
(von Utz Maas erarbeiteten) Graphik dargestellte Erwerb des ‚orthographischen
Monitors‘ (Maas 1992) zur Kontrolle einer regelgeleiteten Schreibung
baut auf dem ‚phonologischen Monitor‘ auf und entwickelt sich in
Abhängigkeit von und in Relation zu diesem.
Bezeichnenderweise setzt der Schrifterwerb zu einem Zeitpunkt
ein, an dem die wesentlichen Komponenten der Erstsprache entwickelt
und stabilisiert sind, jedoch noch vor dem Ende der (allerdings
umstrittenen) sog. ‚sensiblen Phase‘ (Lenneberg 1977). Zeitlich
treffen also Elemente des ungesteuerten Erst- und eines gesteuerten
Fremd- oder Zweitspracherwerbs zusammen. Dies mag auch erklären,
warum die meisten Menschen orthographische Kenntnisse in ihrer
Erstsprache eher als intuitiv vorhanden empfinden, was bei der
Fremdsprachschreibung jedoch kaum zu beobachten ist. Aus
didaktischer Sicht könnte man sich damit durchaus zufrieden geben,
da ja auch die mündlichen Fähigkeiten der einzelnen Menschen von
unterschiedlicher Ausprägung sind, wobei von Fehlerhaftigkeit
normalerweise nur bei eklatanten Verstößen (auf der Systemebene)
gesprochen wird, sofern diese den kommunikativen Austausch bemerkbar
behindern oder gar unmöglich machen. Allein die individuell
unterschiedliche Aussprache von Lauten, Wörtern oder ganzen
Äußerungen belegt die vergleichsweise hohe Toleranz sogar auf der
Ebene der Standardsprache bei der akustisch-perzeptionellen
Sprachwahrnehmung, sofern die Sinnentnahme prinzipiell gelingt. Auch innerhalb literarischer Diskurse können orthographische
Normen in nicht unerheblichem Umfang suspendiert und als kreativer
Umgang mit Sprache und ihren Möglichkeiten gewertet werden. Weniger
die scheinbar lautgetreue Umsetzung von Dialektsprechen in
Schriftlichkeit, wie es z.B. in Gerhard Hauptmanns naturalistischen
Theaterstücken der Fall ist, ist hier gemeint, als die bewußte
Gestaltung des Schriftlichen im Spannungsverhältnis zur
Norm-Orthographie, wie sie in Arno Schmidts (1987) KAFF auch MARE
CRISIUM zu beobachten ist: Sie faßte
inzwischen – d. h. während ich weenich=nutzich <dachte> -
die Torfschtücke an; mit 1 Papier; (Tempo=Taschen=Tuch ? – Schon
mööklich). Warf sie ungeschickt in den prottestierenden Ofen. Und
schloß das Eiserne Thor. (Woraufhin das Feuer natürlich, und
reeletief prommt, ausgink. Sie zuckte nur die Axeln.) / Schmidt 1987: 133 Für den eigenwilligen Schriftsteller gelten orthographische
Normen nicht, er macht keine Rechtschreibfehler, er zeichnet sich
durch einen kreativen Umgang mit geltenden Normen aus. Doch wie
verhält es sich im Fall des folgenden Gedichts, welches eher als
Produkt eines Menschen mit großen orthographischen Problemen denn
als ‚Literatur‘ erscheint? Mein Fahrrad Mein Fahrrad hat glinkel (Rüdiger
Rosenthal; zit. n. Wolf 1992: 27) Würde es sich um den Text einer Schülerin oder eines Schülers
handeln, so würde das allgemeine (und auch das spezielle
DeutschlehrerIn-) Urteil hinsichtlich der Rechtschreibkenntnisse
sicher vernichtend ausfallen. Warum aber werden an Schriftlichkeit
im Alltag soviel strengere Maßstäbe als an Mündlichkeit (und als
an literarische Produkte) gelegt? Und ist diese Strenge
gerechtfertigt? Ginge es allein um das Gelingen des kommunikativen
Austausches, dann wäre dieses Insistieren auf einer absoluten Norm
wohl kaum zu rechtfertigen. Schließlich existierten in der
Geschichte der deutschen Sprache bis zum Beginn des 20. Jahrhunderts
immer unterschiedliche Schreibweisen (im Sinne unterschiedlich
empfundener Orthographien) nebeneinander, ohne daß der
kommunikative Austausch verhindert oder nachhaltig gestört worden
wäre. So finden sich selbst in (originalen) Goethe-Texten
unterschiedliche Schreibweisen eines Wortes in ein und demselben
Text. Erst das 19. Jahrhundert forderte nicht nur das schöne,
flüssige und lesbare, sondern auch erstmals das ‚richtige‘
Schreiben (Polenz 1999: 43). Und selbst nach der Normierung der
deutschen Orthographie durch die 2. Orthographiekonferenz 1901 und
deren gelegentlichen Reformierungen existieren heute verschiedene
Schreibweisen nebeneinander (Friseur, Frisör; Delphin, Delfin), bei
denen sich der Status der korrekten Schreibung im Laufe der Jahre
verändert hat, in den genannten Beispielen zur Toleranz gegenüber
der 2. Schreibweise, die im Falle von Frisör nur die Akzeptanz
eines bereits erfolgten Usus darstellt, im Falle von Delfin dagegen
sogar die Einführung einer im allgemeinen nicht existierenden
Schreibweise, die bislang als eindeutig fehlerhaft eingestuft worden
wäre, beinhaltet. Könnte man in diesen Fällen von einer
größeren Toleranz bei der Schreibung von (eingedeutschten)
Fremdwörtern sprechen, so läßt sich bei weiteren Wortschreibungen
etwas anderes beobachten, die Umkehrung von Recht- und
Falschschreibung. So stellt nach der Reform rau die korrekte
Schreibweise dar, das alte rauh hingegen wird in absehbarer Zukunft
ein Fehler sein. Die Argumentation der Reformbefürworter ist in
diesem Fall aufschlußreich. Da die alte Schreibung rauh einen
Einzelfall darstelle und dadurch ein fehlerfreies Schreiben
erschwere, wird nun rau gleich analog lautenden Wörtern
geschrieben: blau, schlau, grau (Adjektive) ebenso wie Frau, Bau,
Pfau (Nomina) oder trau (dich), schau (hin), hau (drauf) (Verben).
Damit werden synchrone Systematizität sowie leichte Lernbarkeit
(basierend auf Erfahrungen aus der Unterrichtspraxis) als
wesentliche Begründungen angeführt. Man könnte auch etwas anders
argumentieren: Da das Kind rau analog zu den genannten anderen
Wörtern ohne –h schreibt und dies zudem der Regelfall (auf -au-
folgt bei einfachen Wörtern kein -h) ist, sollte diese Schreibung
korrekt sein. Damit wird jedoch das eigentliche Dilemma von Recht-
und Falschschreibung offensichtlich. Der Schreibusus unterliegt
einerseits vielfältigen Einflüssen, die manchmal historische
Schreibweisen konservieren, manchmal aber auch solche historischen
Schreibweisen verändern und/oder modifizieren, was besonders bei in
der Inkorporation von Fremdwörtern der Fall ist. Zudem ‚kollidieren‘
gelegentlich verschiedene orthographische Prinzipien miteinander, so
z.B. das phonographische und das morphologische Prinzip (Eisenberg
1995). Andererseits orientieren sich Schreiberinnen und Schreiber an
intuitiven orthographischen Regelhaftigkeiten, schreiben also nicht
wahllos, sondern greifen auf eine vermutete Regelhaftigkeit zurück,
die dann in einen Konflikt mit der usuellen Norm und im Fall von
hochgradig normierten Schriftsystemen wie dem Deutschen auch mit
dessen kodifizierter Norm geraten können. Falschschreibungen sind
damit meistens nicht Ausdruck von Regeldefiziten, sondern der
Anwendung anderer, eben nicht kodifizierter Schreibegeln. Dabei darf
nicht vergessen werden, daß auch die oben als Begründung
herangezogene Systematizität von Sprache bzw. ihrer Schreibung
selbst eine Abstraktion darstellt, die sich im Sprachgebrauch nur
mittelbar zeigt und letztlich eine wissenschaftliche Interpretation
darstellt. Ferdinand de Saussure (1967) prägte hierfür die
Beziehung langue – parole, die für den Schreibprozeß analog um
eine Art ‚ecrirage‘ erweitert werden könnte. So finden wir im
konkreten Einzelfall immer eine individuelle schriftliche
Realisationsformen des abstrakten Systems schriftlicher Sprache.
Während die Kodifizierung des mündlichen Sprachgebrauchs als
Orthoepie oder ‚Hochlautung‘ außer für den Bereich von
Bühnen- oder Mediensprache (besonders für Nachrichtensendungen in
Radio und Fernsehen), wobei beide Bereiche inzwischen wesentlich ‚weichere‘
Normen als noch vor einigen Jahrzehnten aufweisen, weniger streng
erscheint, eröffnen die ‚Richtlinien‘ für Schriftlichkeit
deutlich weniger Spielräume, orthographische Varianten sind nur in
sehr wenigen Fällen zugelassen und betreffen meist die
Fremdwortschreibung. So werden innerhalb der mündlichen
Kommunikation eher syntaktische Abweichungen denn phonetische als
Fehler angesehen, während in Schriftlichkeit beide Ebenen (wobei
hier die orthographische an die Stelle der phonetischen tritt)
praktisch gleichwertig nebeneinander stehen. Fehler und ihr Stellenwert innerhalb der Orthographie und deren
Entwicklung Unsere Orthographie stellt sich als ein historisch gewachsenes
Produkt miteinander konkurrierender Schreibpraxen dar (Maas 1991,
1992) und ist keineswegs undurchschaubar oder in weiten Teilen
annähernd regellos (Bartnitzky/Valtin 1994: 52). Während dieser
Prozeß von den Anfängen deutschsprachiger Schriftlichkeit in
althochdeutscher Zeit bis zum Beginn des 20. Jahrhunderts quasi ‚naturwüchsig‘
verläuft (was meint, daß keine außerhalb dieses Prozesses
situierte Norminstanz existiert), legt seit der 2.
Orthographiekonferenz der ‚Duden‘ die jeweils gültige Norm
fest, wobei diese Norm nicht deskriptiv ‚nachgeschrieben‘ wird,
also den jeweiligen Usus dokumentiert, sondern in diesen aktiv
gestaltend eingreift, damit deskriptiven Charakter erhält. Wie Utz
Maas (1991) zeigen konnte, bedeutet ‚naturwüchsig‘ aber
keineswegs regellos, sondern steht für eine Art Aushandlungs- und
Ausgleichsprozeß unterschiedlicher Interessen und Entwürfe, wie er
für Sprachwandelprozesse allgemein kennzeichnend ist (Keller 1990).
So finden wir schon um das Jahr 1000 bei Notker dem Deutschen
Versuche, jene abstrakte phonologische Systematik der
alt(hoch)deutschen Mündlichkeit in der entstehenden Schriftlichkeit
zu spiegeln, wobei sich von Anfang an eine medienspezifisch
differrierende Ausprägung der jeweiligen Subsystemnormen beobachten
läßt. Schriftliche Normen und Konventionen zeugen von Anfang an
von mehr als nur einer bloßen Verschriftlichung der gesprochenen
Sprache, sie dokumentieren auch eine funktionale Differenzierung der
geschriebenen Sprache (Nerius 1987: 834). Der Prozeß der
Ausprägung einer einheitlichen deutschen Schriftlichkeit (‚Norm
der deutschen Schriftsprache‘) ist einerseits gekennzeichnet als
Versuch einer überregional immer stärkeren Annäherung jener ‚ecrirage‘
an eine Schriftlichkeits-‚langue‘, andererseits als stetiges
Konkurrieren diverser konkreter Realisierungsmodelle in der
jeweiligen Schreibpraxis. Insofern erscheint es außerordentlich
problematisch, den Begriff des ‚Fehlers‘ auf diese Phase der
deutschsprachigen Schriftlichkeit anwenden zu wollen.
Bezeichnenderweise verzichtet die moderne Editionswissenschaft
inzwischen darauf, z.B. mittelhochdeutsche Texte wie noch vor
wenigen Jahrzehnten generell üblich und heute bei den meisten
Textausgaben immer noch der Regelfall, Originaltexte zu ‚normalisieren‘,
‚offensichtliche Fehlschreibungen‘ zu korrigieren oder gar ‚das‘
Original rekonstruieren zu wollen. Was sollte hier der Maßstab sein
und was sind eigentlich offensichtliche Verschreibungen? In der
Praxis ist diese Frage in Einzelfällen meist einfach zu
beantworten, grundsätzlich scheint dies jedoch nicht möglich zu
sein. Erst mit dem Erscheinen (und besonders der weiten Verbreitung)
der Lutherbibel und der ersten deutschsprachigen Wörterbücher
werden die überregionalen Ausgleichstendenzen zwischen den
verschiedenen Schreibpraxen deutlicher und führen zu einer immer
stärkeren Vereinheitlichung der Schriftsprache, ohne daß
allerdings Schreibvarianten inkriminiert würden oder daß eine
solche Handhabung als Ziel erkennbar wäre. Orthographie als Hilfe
für LeserInnen zur Sinnentnahme aus Texten fließt zusammen mit
einer Tendenz zur Standardisierung des Schreibusus im gesamten
deutschen Sprachgebiet, welche damit als Garant von Eindeutigkeit im
Rahmen der Schreibung angesehen werden kann. Ob diese
Standardisierung aber praktisch keinerlei Toleranz zulassen darf
oder nicht verschiedene Alternativschreibweisen zulassen könnte,
wäre noch zu diskutieren. Bislang noch nicht systematisch
untersucht wurde dabei, inwieweit ‚Fehlschreibungen‘ (z.B. bei
der Übernahme aus andern Sprachen) den orthographische Wandel
wesentlich mitbeeinflußt haben. Das in allen Sprachen weit
verbreitete Phänomen der ‚Volksetymologie‘ scheint jedoch eine
solche Annahme zu stützen. Konsequenzen für den Rechtschreibunterricht Ein moderner Rechtschreibunterricht, verstanden als Bestandteil
eines umfassenderen Grammatikunterrichts, der als Langzeitprojekt
die gesamte ‚Schullaufbahn‘ eines Kindes/Jugendlichen umfaßt,
muß einerseits ein anderes Verständnis von ‚Fehlern‘ (im Sinne
von notwendigen Durchgangsphasen und als Indikatoren regelgeleiteter
Schreibstrategien) entwickeln, andererseits muß eine linguistisch
fundierte Analyse der jeweiligen Schreibungen durch Lehrerinnen und
Lehrer einen wesentlichen Stellenwert innerhalb des Unterrichts und
der konkreten Arbeit mit den Kindern erhalten. Voraussetzung für
einen solchen Unterricht ist jedoch eine entsprechende Qualifikation
während des Studiums und in anschließenden
Weiterbildungsmaßnahmen. Besonders deutlich wird dies, wenn man
berücksichtigt, welche Fortschritte das Wissen um den Prozeß des
Schriftspracherwerbs seit den 70er Jahren beachtlich gemacht hat. Im
folgenden soll an konkreten Beispielen aus dem Deutschunterricht
gezeigt werden, welcher Art diese linguistischen Kenntnisse sein
müssen, welche Erkenntnisse aus den ‚Fehlern‘ gezogen und wie
besonders die Neuen Medien für eine Verbesserung der derzeitigen
Situation genutzt werden können. Die folgenden Ausführungen beziehen sich auf Erfahrungen mit
ausgewählten Schülern einer dritten bzw. vierten Grundschulklasse
sowie auf Unterrichtsergebnisse, die im Rahmen eines Praktikums in
einer 5. Klasse einer Koblenzer Hauptschule erhoben wurden. In
beiden Fällen wurde mit dem Test- und Auswertungsinstrumentarium
des nordrheinwestfälischen Modellversuchs „Aus Fehlern lernen –
Ermittlung des Rechtschreib-Förderbedarfs und die Möglichkeiten
netzbasierter Bildungsförderung" gearbeitet, welcher von
Friedrich Schönweiss und seinem Team an der Westfälischen
Wilhelms-Universität in Münster entwickelt wurde (http://www.digite.net/):
Während sich auf der einen Seite
die Unzufriedenheit eines großen Teils der ‚Nachfrager’ nach
Bildung über massive Defizite von Schulabgängern immer offener
Luft macht (der Schule wird vorgehalten, ihr gelänge es nicht,
Kinder insbesondere die Kernfächer wie die eigene Sprache oder
Mathematik effektiv zu vermitteln), wird gleichzeitig in einer
technologischen Aufrüstung des Bildungswesens im Anschluss an die
computerisierte ‚Global Society’ ein Ausweg aus der
Bildungsmisere gesucht. Die mit den neuen Technologien
gebotenen Möglichkeiten drohen jedoch dann verspielt zu werden,
wenn es nicht gelingt, eine Verknüpfung der neuen Medien und ihren
vielfältigen Optionen mit der konkreten Bildungsbiographie jedes
einzelnen Kindes bzw. Jugendlichen zu bewirken. [...] Um ein Stück dazu beizutragen,
dass sich die Schere zwischen aktuellem Bildungs- und
Qualifikationsbedarf einerseits und den Ergebnissen der
institutionellen Bildung nicht weiter öffnet, werden im Rahmen von
Digite.net flexible, netzbasierte Bildungs-Angebote konzipiert und
(fort-) entwickelt. Dies freilich nicht einfach nur im
Elfenbeinturm, sondern im Austausch mit allen Interessierten.
Gleichzeitig wollen wir Kindern wie Eltern und Lehrkräfte dabei
unterstützen, den Computer ganz grundsätzlich als
Bildungs-Werkzeug entdecken, schätzen und engagiert nutzen zu
lernen. (aus dem Programm von Digite.net) Im Rahmen des Koblenzer Projektes wurde dabei teilweise das
Alfons-Diagnostik-Programm eingesetzt, wobei auch die Möglichkeiten
und die Grenzen moderner Software für solche Vorfahren deutlich
wurden. Dieses spezielle Programm ist ursprünglich als
Rechtschreibtest mit anschließender automatisierter
Fehlerauswertung konzipiert worden. Eine neue Internetversion, bei
der u.a. die Erfahrungen des Projekts und die hier vorgelegten
Überlegungen berücksichtigt werden, befinden sich in der
Testphase. Der Grundgedanke besteht darin, individuelle
Wissensdefizite in einem standardisierten Testverfahren zu ermitteln
und über eine automatische Fehleranalyse Hinweise für eine
weitergehende, vor allem individuell ausgerichtete Förderung zu
geben (Schönweiss 1997). Die beiden folgenden Protokolle dokumentieren die
computergestützte Terstauswertung.
Fehlerprotokolle aus dem Programm Alfons Diagnostikprogramm Deutsch Name: Philipp
Datum: 08.03.98 Test: Standardtest
Klasse: 4 Anzahl Wörter: 23 richtig: 5 trampelte,
unfassbar, erschrak, eigentlich, prall falsch: 18 Lehrerinen, bliess, emfielt,
entfliht, Verliehrer, unentberliches. Entgültig, Zereissprobe,
Supfpflanzen, Werme, Seule, winckent, vergass, Wacks, Kaputzen,
aussteuern, sosstigem, wollhabensten Fehlerarten: 1. Wahrnehmungsfehler: 2
|
© by >> Neue Technologien im Bildungs- und Sozialwesen/Medienpädagogik << (Prof. Dr. F. Schönweiss + Team) |