Let’s Play beendet „What Remains of Edith Finch“

What Remains of Edith Finch is a first-person narrative adventure video game for Microsoft Windows and PlayStation 4. As Edith, players travel back to the Finch family home in Washington to explore her ancestral history after recent family events drive her to learn more about herself and the Finches. Edith explores the house through regular doors and secret passageways, as well as the individual rooms of deceased family members who have been preserved like frozen moments in time. Players experience varied stories related to particular family members, with thematic and gameplay elements that change from story to story.“ (Quelle)

In sieben Folgen begleiten die GameTube-LetsPlayer Edith auf ihrem Weg durch ein Haus…oder…ist es eher eine Mischung aus Seelenreise und Bewußtseinserweiterung? Es war auf jeden Fall eine feine Sache, mitgenommen zu werden. Gediegen, sehr gediegen.

No. Man’s. Sky.

Auf No Man’s Sky habe ich lange gewartet. Allerdings nicht in einem pathologischen Zustand – die Tatsache, dass besonders gestrickte Zeitgenossen sich ereiferten, Todesdrohungen an das Entwicklerteam zu senden, da dieses den ursprünglichen Releasetermin nicht halten konnte, beschämt mich zutiefst und lässt mich immer wieder davor zurückschrecken, offen und ehrlich zu sagen: Ich zähle mich zu dieser SpielerInnen-Gemeinschaft hinzu. Nein, mit solchen Subjekten möchte ich nicht in einen Topf geworfen oder gemein gemacht werden.

Machen das – um einen Vergleich zu finden – eigentlich Hörer klassischer Musik auch? Zum Beispiel, wenn Jonas Kaufmann verlautbaren lässt, dass es knapp wird mit Nessun Dorma? „Ey, isch töte Disch und Dyne Famili! Isch steck Disch durch Klawirsyte!!!“ Zu dreist? Zu plakativ? Nein, liebe SpielerInnen, macht die Augen auf, DAS sind nach wie vor die Assoziationen, die geweckt werden, wenn „Gamer“ plötzlich zu Aktivisten werden und dabei moralisch schneller verkümmern als Bonobo-Affen vor sich hin rammeln.

Ich habe also lange auf den SciFi-Titel gewartet. Gut, das machen andere auch. Manche wiederum warteten zum Beispiel lange auf Suicid Squad oder Batman v Superman und fühlen sich nun doppelt betrogen: Wo ist dieser Synder und was kann ich ihm antun? Der Mensch, so scheint es offenkundig, ist kein Tier. Dazu fehlt ihm der Geist. Unnachgiebig ereifern sich die Legionen von Moccacino-Aktivisten, Bartöl-Weltbürger und Minisegway-Dozenten.

Sie fühlen sich um ihre eskapistische Erlebniswelt betrogen und merken nicht, dass sie schon längst in ihrem eigenen Sarkasmus zu ersaufen drohen, den Industrie und Marketing nur für sie eigens konzipiert, angerührt und wie dickflüssigen Kot über sie ergosssen hat. Und sie wälzen sich allzu gerne darin und lieben die kleinen Bröckchen, die sie finden, welche sie für den kulturellen Trüffel halten, den sie durch ihre drittklassige Pop-Hermeneutik glauben, freigelegt zu haben. Ich habe lange auf  No Man’s Sky gewartet.

Unaufgeregt, allerdings nicht ohne eine geweise Heiligkeit im Tun, legte ich schließlich die Disc ein, installierte die Updates und begann meine Geschichte, die nicht sonderlich von der Normans abweicht. Und Normans Geschichte dürfte – mit der Macht der großen Zahl gesprochen – wiederum nicht sonderlich von vielen anderen galaktischen Ausflügen abweichen. Isolation. Einsamkeit. Ein Aufsichselbstgeworfenwerden. Ein Zurückgelassenwordensein.

Trotz der Schiffe, die immer wieder am Horizont herumkreisen und gerade deshalb – wie ein paar Scheibenwischer in Aktion – sich nie näherkommen, sich gerade weit genug entfernt voneinander befinden, um durch das Gebrüll des Seins und der Sterne nicht zu verstehen, was der jeweils andere möchte, wohin er will und was er sich davon erhofft. Irgendwann, so meine ich, wird der Sprit ausgehen, das Raumschiff an einem Bergrücken zerschellen. Irgendwo erlischt in den Rechnerketten eine 1 oder eine 0. Wer erinnert sich an diesen Raumfahrer? Ich. Ich sah ihn.

No Man’s Sky benötigt kein No Man’s. Es ist Sky. Es ist das, was man Ende übrig bleibt. Das, was man selbst daraus macht. Der horror vacui ist nicht da draußen. Nicht in diesem Spiel. Er ist in uns selbst. Und er ist viel schrecklicher als wir dachten.

Gedanken zum Personal Computer

Heutzutage kann man sich kein Büro mehr auf der Welt vorstellen, in dem nicht ein Personal Computer, kurz PC, steht. Doch nicht nur das. Auch für den Privatanwender ist der digitale Begleiter mittlerweile eine Selbstverständlichkeit. Nicht nur erledigt er mit der beliebten Office-Software verschiedene Alltagsaufgaben, sondern der PC bietet durch seine Technik noch ganz andere Möglichkeiten. Der Rechner übernimmt heutzutage Multimedia-Aufgaben: Egal ob Spiele, Internet, Film oder Fernsehen – der PC ist zum Technikmittelpunkt der Wohnwelt geworden. Die Anfänge dieser globalen Powermaschine liegen nun gut ein Vierteljahrhundert zurück.

Die Geschichte des IBM-PC ist eine Erfolgsgeschichte. Eigentlich ist es sogar eine doppelte Erfolgsgeschichte, wenn man an Microsoft Windows denkt. Doch wir wollen nicht das Pferd von hinten aufzäumen. Werfen wir einen Blick zurück in das Jahr 1977. Die beiden jungen Hardware-Bastler Steve Wozniak und Steve Jobs erfinden den ersten „Personal Computer“. Es handelt sich, untypisch für die damalige Zeit, nicht um einen Bausatz, sondern ein komplett fertig montiertes Stück  Hardware in einem für den damaligen Zeitpunkt modischen Gehäuse. Der Preis ohne Monitor und Laufwerk: 1.300 Dollar. Der Name der Erfindung, die sich stolze fünf Millionen Mal bis 1991 verkauft: Apple II.

Der IBM-PC kann nun durchaus als Antwort auf den Erfolg des Apple II verstanden werden.

Wirft man einen Blick auf die Firmengeschichte von IBM, so wird klar, dass das Unternehmen mit Heimcomputern eigentlich zunächst recht wenig zu tun hat. IBM wendet sich in den späten 1950ern und frühen 1960ern der Herstellung von Großrechnern zu. Zuvor hatte man sich auf Lochkartensysteme und deren Auswertung spezialisiert und ein weltweites Monopol erreicht. Der Misserfolg eines ersten kleineren Rechners (IBM 5100) im Jahre 1975 lässt IBM mit der Einführung eines so genannten Mikrocomputers bis 1981 warten. Zu diesem Zeitpunkt hatte man natürlich mitbekommen, welch erstaunlichen Erfolg Apple mit seinem Apple II einfahren konnte. Wie der Konkurrent auch, entscheidet man sich bei IBM dafür, ein Steckkartensystem zu benutzen, um den Rechner zu einem späteren Zeitpunkt erweitern zu können. Außerdem ist die Struktur des Geräts derart einfach, dass es bereits 1983 zu Nachbauten in Fernost kommt – auch wenn jene natürlich seitens der Industrie nicht wünschenswert sind, so kann sich doch dadurch erstaunlich schnell eine Art inoffizieller Industriestandard entwickeln. Der Begriff IBM-PC sollte zu diesem Zeitpunkt schnell zum Pseudonym für PC im Allgemeinen werden. Ab Mitte der 1980er Jahre sind PCs, die nicht IBM-kompatibel sind, außer im Heimcomputersektor schlicht unverkäuflich.

Der aus frei erhältlichen Standardkomponenten entwickelte IBM-PC ist aber zugleich der Startpunkt für eine zweite Erfolgsgeschichte: Microsoft.

IBM gibt im Jahr 1979 ein Betriebssystem für ihre PCs bei der Firma Seattle Computer Products in Auftrag. Microsoft kauft jedoch nur wenig Zeit später die Rechte ab und legt damit den Grundstein für ihren gigantischen Erfolg, der bis heute unvermindert anhält. Das mittlerweile legendäre Betriebssystem MS-DOS 1.0 (Microsoft-Disc Operating System) nimmt ab dem 12. August 1981 seinen Dienst auf und wird daraufhin immer weiter entwickelt. Die Ablösung für das erfolgreiche MS-DOS erscheint in der Form von Microsoft Windows. Die frühen Versionen von Microsoft Windows basieren ursprünglich vollständig auf MS-DOS und benutzten es für alle Systemzugriffe. Microsoft Windows stellt lediglich eine Erweiterung in Form einer grafischen Benutzeroberfläche dar, was viele von frenetischen „Apple-Jüngern“ zu der Schlussfolgerung führt, man habe diese Oberfläche einfach dreist von Apple bzw. seinem Betriebssystem Lisa OS kopiert.

Etwa 90 % aller PC-Systeme weltweit arbeiten heute mit Windows, wobei mittlerweile auch Alternativen existieren und auf dem Vormarsch sind. Das beste Beispiel heißt Linux.

Ab Mitte der 1990er verliert IBM zunehmend seine Marktführerschaft bei PC-Systemen. Andere Hersteller, wie etwa Compaq, setzen auf billigere Preise. Die Konsequenz: IBM verkauft seine PC-Sparte, von seinem Festplattengeschäft hatte man sich zuvor schon verabschiedet. Doch das System „PC“ hatte sich als solches zu diesem Zeitpunkt schon weltweit durchgesetzt. Das liegt vor allem an drei Punkten.

Anfang der 1990er-Jahre erscheint das erste Office-Paket. Während in der so genannten kreativen Branche durchaus Apple zu finden ist (übrigens schmücken sich auch Hollywood-Produktionen zumeist mit Apple-Rechnern), ist es gerade diese Bürosoftware, die heute in fast jedem Arbeitsplatz der Welt zum Einsatz kommt. Die Produktpalette reicht vom Schreibprogramm über Präsentationssoftware hin zur Tabellenkalkulation oder Datenbankerstellung. Die Anzahl der Volkshochschul-Office-Kurse und Büroschulungen ist vermutlich astronomisch hoch.

Ein zweiter Grund ist sicherlich im Bereich der Computerspiele zu suchen, wo es IBM zunächst schwer hat, da zahlreiche Konkurrenten auf dem Markt existieren: der Apple II, der Atari ST, sowie der Commodore 64 oder Amiga 500. Gerade unter Jugendlichen werden erbitterte Grabenkämpfe ausgetragen, welche Plattform denn nun die beste sei – so erreichen die Rechenmaschinen oftmals den Status von Kultobjekten. Erst Ende der 1980er-Jahre allerdings, als die so genannte Generation der 286er- und 386-Rechner von IBM heraus gebracht werden, können PC-Nutzer endgültig grafisch zu den Konkurrenten aufschließen. In Europa erweist sich Deutschland als PC-Spielehochburg, direkt vor England. Zweifelsohne profitiert der PC auch von der Tatsache, dass er ein bestimmtes Spielgenre bietet, das die immer populärer werdenden Videospiel-Konsolen von Sega und Nintendo (und später Sony und Microsoft) nicht sonderlich unterstützen. Es sind dies in Deutschland extrem beliebten und gut verkauften Strategie- und Aufbauspiele.

Der dritte Punkt ist der Beginn der viel zitierten Multimedia-Anwendungen. Mit der gelungenen Einführung von CD-Laufwerken Mitte der 1990er-Jahre lässt das Zeitalter der PC-Konkurrenten langsam, aber sicher zu Neige gehen. Der PC erfährt eine Wandlung hin zum medialen Alleskönner – es ist möglich, Musik zu hören, Filme zu sehen bzw. selbst zu schneiden, Fotos zu betrachten. Kurzum, die technisch immer weiter hoch gezüchteten Maschinen werden zum technologischen Mittelpunkt des Lebens in vielen Teilen der Erde. Gleichzeitig markiert er den endgültigen Übergang in ein postindustrielles Zeitalter und eine Vertiefung des Grabens zwischen Nord und Süd, denn nur vereinzelt schafft es diese Geräte in größerer Stückanzahl in ärmere Länder. Auch ist der PC, oder vielmehr der Computer Sinnbild für einen Bruch zwischen den Generationen. Junge Menschen, „digital natives“ entwickeln einen anderen Umgang mit Technologie, da sie von Geburt an mit Computern zu tun haben, die Generation vor ihnen, oder noch eine weiter, die „digital immigrants“ tun sich oftmals noch schwer, Bereiche ihres Lebens der Technologie zu überantworten oder sie allzu selbstverständlich in ihr alltägliches Leben mit einzubinden. Auch Schulen, Universitäten und andere Bildungs- bzw. Erziehungseinrichtungen kommen heute um den PC nicht mehr herum. Er ist längst Hilfs- und Lehrmittel zu gleichen Teilen geworden. Ein anderes Beispiel für Wandel erleben wir momentan in der Unterhaltungsindustrie – durch Digitalisierung zieht der PC, wenn auch ein wenig verkleidet, von den Arbeitszimmern in die Wohnzimmer ein; man denke nur an die immer beliebter werdenden Festplattenrecorder.

Ein Anwendungsbereich, den man unmittelbar mit dem PC heute verbindet, ist das Internet. Das Internet entspringt dem 1969 entstandenen ARPANET, einem Projekt US-Verteidigungsministeriums. Es wird zunächst zur Vernetzung von Universitäten und Forschungseinrichtungen verwendet. Ziel des Projekts ist es, die begrenzten Rechenkapazitäten sinnvoll zu nutzen. Schnellen Auftrieb erhält das Internet seit 1993 durch das World Wide Web, kurz WWW, als der erste grafikfähige Webbrowser veröffentlicht und zum kostenfreien Download angeboten wird. Nun ist es auch  Laien möglich, im Netz zu „surfen“, welches auch zu einem Mehr an Kommerz im Internet führt. Dabei sollte man stets im Auge behalten, dass dieser Beginn der „digitalen Revolution“ nur einem kleinen Teil der Weltbevölkerung zugänglich ist – Schätzungen belaufen sich auf eine Zahl von zwei Prozent. Auch wenn Kritiker des digitalen Zeitalters gerne spotten, dass der Internethype eigentlich nichts außer eine Menge unverständlichen Fachjargons hervor gebracht hat (Blog, Vlog, Web 2.0, peer2peer etc.), ist doch nicht von der Hand zu weisen, dass sich Alltagskommunikation nachweislich durch E-Mails oder Chatrooms verändert hat.

Angelehnt an den Begriff der „industriellen Revolution“, bezeichnet man den Wandel von der Industriegesellschaft hin zur postindustriellen Wissensgesellschaft seit Mitte der 1970er-Jahre als „digitale Revolution“, welche unmittelbar mit elektronischer Datenverarbeitung durch PCs verbunden ist. Automatisierung und Computerisierung und die dadurch entstehenden Kommunikations-Netzwerke sind für eine globale Wirtschaft lebensnotwendig geworden. Ein Zusammenbruch dieser PC-basierten Welt, der Fachjargon spricht von einer „D-Katastrophe (datennetzbezogene Katastrophe)“ hätte für alle Lebensbereiche schwerwiegende Konsequenzen. Die soziale Komponente dieses Wandels hin zur Informationsgesellschaft ist kaum abzuschätzen und noch schwieriger zu bewerten. Lullt die elektronische PC-Welt den Menschen ein oder schärft sie sein Bewusstsein im Sinne einer Demokratisierung von analogen, nicht-digitalen Machtstrukturen? Wie wird sich das digitale Phänomen auf die Arbeitswelt auswirken? Die Entwicklung ist fortlaufend, rasant und angesichts komplexer Strukturen, die verzweigter denn je erscheinen und sich ihren Weg in einen Großteil der heutigen und zukünftigen Lebensentwürfe und –welten bahnen, nur mit Mühe überschaubar.

QUELLE und LITERATUR

Geert Lovink: Dark Fiber. Cambridge / London, 2001.

Winnie Forster: Spielkonsolen und Heimcomputer. 256 Geräte von 1972 – 2002. Utting, 2002.

Steven L. Kent: The Ultimate History of Video Games. Roseville, 2001.

Don Tapscott: Die digitale Revolution. Wiesbaden, 2002.

Wolfgang Coy: Geschichte des Computers. Frankfurt a.M., 2006.

Patrick Kräuter: Die Geschichte des Computers. München, 2003.