Lesetipps zur Medienarchäologie

Was ist eigentlich der Zweck meines Software Museums? Langfristig möchte ich darin typische Beispiele von Lernsoftware (Courseware) im zeitlichen Kontext vorstellen. Damit sollen Eindrücke vermittelt werden, welche technischen, lerntheoretischen Grundlagen und methodische Überlegungen die praktische Umsetzung verschiedener Nutzungsformen digitaler Medien im Lehr-/Lernkontext bestimmt haben. Materielle Grundlage dafür bildet meine seit ca. 1980 angelegte umfangreiche Courseware-Sammlung (gespeichert auf Disketten unterschiedlicher Formate und CD-ROMs), ergänzt von einem Hardware-Fundus (mit 8 Bit-Rechnern und frühen PCs), der den Zugriff auf die Programme überhaupt erst ermöglichen soll. Weil die in die Jahre gekommenen Gerätschaften nicht mehr immer auf Anhieb betriebsbereit sind, befasse ich mich zunehmend mit der Technik dieser alten Computer, der Datensicherung bzw. Datenübertragung von alten auf neue Datenträger (Langzeitarchivierung) und mit Emulatoren (Retrocomputing).

Inzwischen habe ich herausgefunden, dass ich meine Aktivitäten sogar fachlich verorten kann: Ich betreibe damit Medienarchäologie. Es handelt sich dabei um eine ziemlich neue Fachrichtung (nicht einmal Wikipedia kennt einen Eintrag dazu); insofern gibt es bisher keine klare Definition (dafür aber bereits sogar ein eigenes Institut; dazu eine knappe Einführung und eine umfangreiche Linkliste). Ich verweise deshalb hier auf den Versuch von Jussi Parikka (2010), sie treffend zu umschreiben.

Damit bin ich endlich bei meinen eigentlich Lesetipps. Ich habe nämlich mit großem Vergnügen zwei neu erschienene Bücher gelesen, die die Breite dieses Themenkomplexes aufspannen.

(1) Stefan Höltges (Hg.) (2014). SHIFT-RESTORE-ESCAPE. Retrocomputing und Computerarchäologie. Winnenden: CSW-Verlag.

HoeltgenDer Band dokumentiert eine Vorlesungsreihe, die 2013 vom Fachgebiet Medienwissenschaft der HU Berlin organisiert und durchgeführt wurde (ergänzend dazu finden sich die Vortragsaufzeichnungen bei YouTube). Mir ist die theoretische Einordnung – beschränkt auf das Vorwort des Herausgebers, die Podiumsdiskussion und den Epilog „Zeitfluchten“ von Wolfgang Ernst – eigentlich zu knapp ausgefallen. Dennoch habe ich den Band mit Gewinn durchgeackert. Die Beiträge, die zum Teil sehr technisch auf Einzelaspekte eingehen, wie etwa die Klangästhetik von Computerspielen und Spielautomaten oder die Programmierung von 8-Bit-Spielen, die Digitalisierung alter Betriebssysteme wie das SymbOS für Z80-basierte Computer oder das RISC OS des BBC-Computers auf dem Raspberry Pi, lassen nicht nur Erinnerungen an Software-Klassiker bei mir wieder aufleben. Sie zeigen durchaus auch Perspektiven, sie ganz konkret zum Laufen zu bringen.

Wer an solchen Zugängen zur Computer-Geschichte Interesse hat, dem ist dieser Band als Fundgrube dringend zu empfehlen.

(2) Jens-Martin Loebel (2014). Lost in Translation. Leistungsfähigkeit, Einsatz und Grenzen von Emulatoren bei der Langzeitbewahrung digitaler multimedialer Objekte am Beispiel von Computerspielen. Glückstadt: vwh Verlag Werner Hülsbusch.

LoebelDer Untertitel dieses Bandes beschreibt bereits treffend ein Hauptproblem der Medienarchäologie, die Langzeitbewahrung digitaler Objekte. Der Autor konzentriert sich auf die Emulation, den wohl einzigen Weg zur Bewahrung der interaktiven Eigenschaften komplexer dynamischer Objekte, verglichen mit der analogen Sicherung oder der musealen Präsentation (S. 39 ff.). Loebel analysiert in seinem Buch die Emulation als Erhaltungsstrategie insgesamt. Im Mittelpunkt seiner technischen Analyse stehen Full-System-Emulatoren (die auf der Ebene der Hardware ansetzen), weil diese u.a. ein gewisses Maß an Zukunftssicherheit bieten – denn natürlich unterliegen auch die Emulatoren selbst der Problematik der Langzeitbewahrung.

Auf der Basis der Analyse von 41 Emulatoren (für frühe Großrechner bis zu Spielekonsolen und mobile Geräte) führt Loebel den Begriff der Translation Gap ein als Maß für die Authentizität bzw. Abweichungen bei der Reproduktion eines dynamischen Objekts. Für Gedächtnisorganisationen ist es allerdings ein Problem, dass sie selber i.d.R. weder technisches Know-how noch Personalkapazitäten zur Erstellung bzw. Pflege entsprechender Emulatoren besitzen und deshalb auf extern erstellte Software-Emulatoren angewiesen sind.

Als langjähriger Apple-Nutzer ist mir das Prinzip der Emulation wohl bekannt. Der Wechsel bei den Macintosh–Rechnern von den ursprünglichen Motorola 68000er-Prozessoren zur IBM PowerPC-Architektur und schließlich zu den heute verwendeten Intel CPUs wurde uns Anwendern jeweils durch die (zumindest übergangsweise) verfügbaren Emulatoren vereinfacht. Mit ihrer Hilfe kann ich bis heute noch Programme aus denen 80er und 90er Jahren ablaufen lassen (jedenfalls mit gewissen Einschränkungen).

Auch wer sich nicht für die letzten technischen Details der Software-Emulation interessiert, kann das Buch mit Gewinn lesen. Es verdeutlicht die Probleme, die bei der Langzeitarchivierung komplexer digitaler Objekte auftreten und unterstreicht gleichzeitig die Notwendigkeit, die Emulationsstrategie weiter zu entwickeln, wenn wir nicht den dauerhaften Verlust großer Anteile der heute bereits historischen und entsprechend zukünftig der heutigen digitalen Kulturgüter riskieren wollen.

Schreibe einen Kommentar