6. Zusammenfassung der Ergebnisse und Ausblick

Seite

In diesem Kapitel werden die in den vorangegangen Kapiteln festgestellten Abweichungen und Verluste der Authentizität beim Einsatz von Emulation zusammengefasst und eine Prognose für die Zukunft gegeben.

6.1 Ergebnisse und Fazit

Die Emulationsstrategie ist als einzige in der Lage, die Anforderungen an die authentische Bewahrung komplexer dynamischer Objekte größtenteils zu erfüllen. Andere gängige Bewahrungsstrategien wie Migration oder analoge Sicherung zerstören Kernaspekte des konzeptuellen Objekts. Interaktion und Rezeptionsumgebung lassen sich mit ihnen nicht abbilden.

Dennoch ist auch die Emulationsstrategie Grenzen und impliziten Annahmen unterworfen, und kann die konzeptuelle Ebene nicht vollständig erhalten. Es kommt zu Veränderungen und langfristig gesehen zu Verlusten der Immersion und Interaktion mit dem Objekt. Innerhalb der Emulationsstrategie haben sich Software-Emulatoren, die alle Hardwarekomponenten des Systems nachahmen (sogenannte Full-System-Emulatoren) aus ökonomischen und pragmatischen Gründen als de facto Standard etabliert. Darüber hinaus ermöglicht die Kontrolle der Nachahmung aller Systemkomponenten theoretisch den höchsten Grad an authentischer Reproduktion der Systemumgebung. Eine technische Aufschlüsselung und Analyse der möglichen Abstraktionsgrade bei der Implementierung des Systemverhaltens bzw. der Systemspezifikation zeigte, dass nur die Datenbus-Genauigkeit interne Systemzustände korrekt wiedergeben kann. Jede höhere Abstraktionsstufe führt zu Abweichungen, die Auswirkungen beispielsweise bei systemnah programmierten Spielen auf konzeptueller Ebene haben oder einen Verlust der Abspielbarkeit bedeuten können. Aus pragmatischen Gründen wird Datenbus-Genauigkeit jedoch nicht implementiert, da die Komplexität der Software drastisch erhöht würde. In gleichem Maß sinkt die Ausführungsgeschwindigkeit des Emulators, was der Abstraktionsgenauigkeit eine weitere praktische Grenzen setzt.

Eine Analyse von 41 derzeit im Kontext der Langzeitarchivierung diskutierten Emulatoren ergab, dass bei keinem Emulator Datenbus-Genauigkeit implementiert ist und zudem bei zwei Drittel der Emulatoren Instruktionsgenauigkeit bzw. dynamische Rekompilierung zum Einsatz kommen. Dieser Abstraktionsgrad ist jedoch nicht ausreichend, die komplexen internen Zeitabhängigkeiten von Rechnersystemen abzubilden. Diese Klasse von Emulatoren kann komplexe Artefakte wie Computerspiele unter Umständen nur sehr eingeschränkt oder überhaupt nicht wiedergeben. Hier entsteht eine faktische Bewahrungsgrenze aufgrund technischer und ökonomischer Machbarkeit.

Um Entstehungsfaktoren und Abweichungen klassifizieren zu können, wurde der Begriff der Translation Gap eingeführt. Anhand von Untersuchungen zu Artefakten der Computerkunst konnten weitere Problemkreise identifiziert werden.

Dabei bildet das Translationsproblem der Schnittstellenmigration durch den Emulator auf die Hardware des Hostsystems eine prinzipbedingte Schranke. Je weiter sich die signifikanten Eigenschaften der Komponenten des Original- und Hostsystems unterscheiden, desto mehr führt dies zu einer veränderten Interaktion mit dem Objekt, die in einigen Fällen die intendierte Rezeption unmöglich machen kann. Künftige Ein- und Ausgabeschnittstellen und ihre physischen Ausprägungen können nur sehr bedingt antizipiert werden. Hier droht langfristig ein Verlust einer sinnvollen Interaktion bzw. eine Entkontextualisierung des konzeptuellen Objekts. Durch die Verwendung komplexer digitaler Filter zur Erzeugung von Skeuomorphismen und Hardwarenachbauten können diese Effekte zum Teil abgemildert werden. Aber auch hier entsteht ein Spannungsfeld zwischen erzielbarer Authentizität und ökonomischer bzw. technischer Machbarkeit. Langfristig gesehen, wird das Bewahrungsziel nicht beibehalten werden können.

Gleichzeitig kristallisiert sich eine neue Anforderung für Emulatoren in der Langzeitbewahrung heraus. Diese müssen in der Lage sein, alle derzeit gängigen Techniken der Minimierung des Migrationsproblems von Schnittstellen zu unterstützen, um das höchst mögliche Maß an Authentizität bei der Wiedergabe des Artefakts zu bieten. Anforderungskataloge und Richtlinien müssen überarbeitet werden und dieses Kriterium einschließen.

Die Analyse der Stichprobe von Emulatoren offenbarte drei Gruppen von Akteuren, die maßgeblich an der programmatischen Erstellung von Software-Emulatoren beteiligt sind. Neben kommerziellen Emulatoren und einem Forschungsemulator mit dem primären Ziel des Einsatzes als Langzeitbewahrungswerkzeug stammt die überwiegende Mehrheit der von Gedächtnisorganisationen wie Archiven, Bibliotheken und Museen eingesetzten Emulatoren aus der Retro-Gaming- bzw. Retro-Computing-Community.

Da Gedächtnisorganisationen in der Regel das technische Know-how und die personellen Ressourcen fehlen, selbst Emulatoren zu erstellen und zu pflegen, müssen diese von externen Quellen zur Verfügung gestellt werden. Emulatoren werden dabei weiter nach pragmatischen und sozio-ökonomischen Gesichtspunkten ausgewählt, technische Kriterien wie der Abstraktionsgrad werden nicht betrachtet. Die freie Verfügbarkeit von Community-Emulatoren führt zu breiter Verwendung in Forschungs- und Bewahrungsprojekten. Es kommt dadurch faktisch zu einer Verschiebung der Entscheidungsgewalt über das zu bewahrende Archivgut, da durch die technischen Parameter des Emulators implizit die Menge der von diesem Emulator unterstützter Objekte festgelegt wird. Diese Abhängigkeit ist bedenklich, da die dauerhafte technische Realisierbarkeit des Emulationsansatzes in der Realität faktisch von einer kleinen Gruppe Hobbyprogrammierer abhängt. Hier müssen Abhängigkeiten aufgelöst und eine gemeinsame Basis geschaffen werden. Sollte mittelfristig eine Zusammenarbeit mit der Community angestrebt werden, so muss dieser Zugang zu detaillierten Hardwarespezifikationen der Systemhersteller erhalten. Dies ist jedoch in der Regel aus urheber- und patentrechtlichen Gründen derzeit nicht möglich.

Eine detaillierte Quellcodeanalyse zeigte zudem die Komplexität von Emulatoren anhand der einfachen Messgröße der Anzahl der Quellcodezeilen. Über eine erste statistische Analyse und Recherche auf den jeweiligen Webseiten der Entwickler konnte diese Zahl im Verhältnis zu von Nutzern gemeldeten Implementierungsfehlern betrachtet werden. Jeder Implementierungsfehler führt zu Abweichungen von der Systemspezifikation, welche sich auch auf konzeptueller Objektebene niederschlagen können. Dies ist ein inhärentes Problem jeder Softwareentwicklung, welches besonders bei komplexen Programmen nicht vermieden werden kann. Auch intensive Tests können nicht die Korrektheit des Programms beweisen. Zudem sind Gedächtnisorganisationen bei der Meldung von Fehlern auf ihre Nutzer/-innen und bei der Behebung auf die Ersteller bzw. Hersteller des Emulators angewiesen. Softwarefehler bilden eine weitere prinzipbedingte Schranke der Korrektheit eines Emulators, mit Implikationen für die Erhaltung des Emulatorprogramms selbst.

Defizite bei der Wiedergabe eines Objekts in einer Emulationsumgebung konnten benannt und daraus Anforderungen an Emulatoren abgeleitet werden. Wo prinzipbedingte Schranken vorhanden sind wurden diese benannt, um Alternativen entwickeln oder den Nutzer über die Abweichung informieren zu können.

Als Fazit der Untersuchungen kann festgehalten werden, dass die Emulationsstrategie komplexen sozio-ökonomischen und pragmatischen Einflussfaktoren bzw. Prozessen unterworfen ist und derzeit die dauerhafte Bereitstellung und Wartung von Software-Emulatoren für Gedächtnisorganisationen nicht gesichert ist. Die Emulationsstrategie bleibt jedoch die bisher einzig bekannte Bewahrungsstrategie, die in der Lage ist, den Kontext und die Interaktion mit komplexen dynamischen Objekten zu einem Großteil zu erhalten. Dennoch existieren auch hier Abweichungen, die sich über die Zeit summieren bzw. verstärken. Nur durch die genaue Benennung von Einflussfaktoren und Abweichungen wird es möglich sein, Gegenmaßnahmen zu entwickeln.

6.2 Ausblick

Die Emulationsstrategie basiert auf zwei impliziten Annahmen: Ein digitales Artefakt ist in sich geschlossen und kann durch eine Menge logischer Objekte definiert werden. Bestehende Emulatoren sind system- und objektzentrisch ausgelegt. Die Software-Emulation kann zudem nur solange funktionieren, wie das Hostsystem signifikant mehr Rechenleistung als das Originalsystem aufweist. Sollte das sogenannte „Mooresche Gesetz“ keinen Bestand mehr haben, wird es auch nicht möglich sein, Emulatoren zu entwickeln, die entsprechende Systeme mit adäquater Ausführungsgeschwindigkeit ausführen können.

Zudem ist weitere Forschung, insbesondere zur Bewahrung des Emulators selbst notwendig. Keine der derzeit diskutierten Strategien ist mittel- bis langfristig tragbar, da sie eine mit der Zeit steigende Komplexität aufweisen. Es müssen tragbare Lösungen gefunden werden, die skalierbar und mit vertretbarem ökonomischen Aufwand implementierbar sind. Aufgrund der oben aufgeführten pragmatischen, technischen und ökonomischen Grenzen kann derzeit nicht von einer authentischen Erhaltung komplexer digitaler Objekte über einen Zeithorizont von 50 oder sogar 100 Jahren ausgegangen werden. Zu den einzelnen Teilaspekten ist weitere Forschungsarbeit notwendig.

→ Weitere Infos und Links