Florian Cramer on Fri, 23 May 2003 14:45:29 +0200 (CEST)


[Date Prev] [Date Next] [Thread Prev] [Thread Next] [Date Index] [Thread Index]

[rohrpost] Peer-to-Peer-Dienste:=?iso-8859-15?q?Entgrenzungen_des_Archivs_=28und_seiner_=DCbel=3F=29?=


[Der folgende Text wurde für den Katalog der Ausstellung "adonnaM.mp3
- Filesharing, die versteckte Revolution im Internet" des Projekts
digitalcraft im Museum für Angewandte Kunst Frankfurt geschrieben
(Erscheinungsjahr 2003, S. 26-33). Es geht darin um peer-to-peer-Dienste
wie Napster und Gnutella als Kulturarchive und mögliche konzeptuelle
Veränderungen des Archivs durch ihre Technologie.

In die rohrpost gelangt dieser Text mit der freundlichen
Zustimmung von digitalcraft-Leiterin Franziska Nori. Alle weiteren
Katalogtexte von "adonnaM.mp3" finden sich auf
<http://www.digitalcraft.org> -F]



Peer-to-Peer-Dienste: Entgrenzungen des Archivs (und seiner Übel?)

Florian Cramer

20.11.2002



Auf den Höhepunkten ihrer Popularität, und kurz bevor sie per Richterspruch
abgeschaltet wurden, waren Napster und Audio Galaxy vermutlich die
umfangreichsten öffentlichen Musikarchive aller Zeiten. Napster, die erste
populäre Inkarnation der peer-to-peer Dateitausch-Dienste im Internet, war das
erste globale Archiv, das aus nichts als einer Gesamtmenge temporär angedockter
Privatarchive bestand, das keinen festen, sondern einen sekündlich wechselnden
Bestand besaß und seinen Katalog synchron dazu aktualisierte und umschrieb.
Während ältere Internet-Dienste wie das World Wide Web die konventionelle
Topologie der Archive und Bibliotheken als Orte (,,sites``) mit jeweils eigenen
Organisationsschemata und Zugangscodes schlicht nachbildeten, vollzog sich in
peer-to-peer-Diensten, was Jacques Derridas Aufsatz ,,Mal d'Archive`` bereits
im Mai 1994 mit einem prophetischen Scharfsinn voraussah, der späteres
Medientheorie-Geschwätz über das Internet alt aussehen ließ:

    ,,Aber ich räume dem Beispiel E-Mail aus einem wichtigeren und
    offensichtlicheren Grund besondere Bedeutung ein: weil die elektronische
    Post heute, mehr noch als das Fax, im Begriff ist, den gesamten
    öffentlichen und privaten Raum der Menschheit umzuformen, und zwar zuerst
    die Grenze zwischen dem Privaten, dem (privaten oder öffentlichen)
    Geheimnis und der Öffentlichkeit oder dem Phänomenalen. Dies ist nicht nur
    eine Technik im gängigen und begrenzten Sinne des Begriffs: In einem
    ungekannten Rhythmus, auf quasi-augenblickliche Weise, muß diese
    instrumentale Möglichkeit der Produktion, des Drucks, der Bewahrung und der
    Zerstörung des Archivs unweigerlich rechtliche und damit politische
    Veränderungen mit sich ziehen. Diese betreffen nichts geringeres als das
    Eigentumsrecht und die Rechte von Publikation und Reproduktion.``{1}

Mehr noch als E-Mail zeigen heute peer-to-peer-Netze wie Napster, Gnutella,
Kazaa und Freenet auf, wie radikal das Archiv sich durch digitale Übertragung
und Speicherung von Daten transformiert. Die flüchtige und individuelle
Punkt-zu-Punkt-Datenübertragung der E-Mail verbindet sich in ihnen mit der
großvolumigen und global abrufbaren Datenaufbewahrung von FTP-Servern und dem
World Wide Web. Den tradierten Ort und die tradierte Architektur des Archivs
stellt dies so radikal in Frage wie keine andere Informationstechnologie zuvor,
Ted Nelsons letztlich zentralistisches Konzept des ,,Hypertext``
eingeschlossen.{2}

Klassischerweise definiert sich das Archiv als ein Ort, an dem nach
institutionell definierten Kriterien Artefakte und Dokumente aus einem externen
Angebot selektiert, intern angeordnet und zueinander in Beziehung gesetzt
werden. In anderen Worten: Jedes Archiv verwaltet erstens archivierte Daten und
zweitens die Meta-Daten der Archivierung, etwa in der Form eines Katalogs. Weil
die Daten in der Regel selbst schon Metadaten (bzw. Paratexte) enthalten,
Bücher etwa Inhaltsverzeichnisse und Indizes, Bilder Signaturen, digitale Texte
Markup-Codes und Header-Zeilen, weisen sie in sich bereits Mikrostrukturen der
Archivierung auf, die wiederum in die Metadaten des Archivs integriert werden
müssen. So sind die Metadaten der Archivierung potentiell grenzenlos komplex
und in ihrer Schachtelung grenzenlos steigerbar, als endlose Kette der
Metadaten von Metadaten von Metadaten, in Gestalt von Gesamtkatalogen,
Konkordanzen, Suchmaschinen und Meta-Suchmaschinen. Wie jeder weiß, der einmal
Datenbanken und Softwareschnittstellen programmiert hat, wächst die Komplexion
der Metadaten und ihrer Codierung exponentiell, je perfekter, skalierbarer und
vermeintlich benutzerfreundlicher der Datenzugriff sein soll. So wird die
Archivierung zu einem zweiten Text, der das Archivierte zu überschreiben droht
und die Differenz von Objekt- und Metadaten potentiell auslöscht. Jorge Luis
Borges' ,,Bibliothek von Babel`` enthält, laut der Spekulation ihres
Ich-Erzählers, innerhalb eines kombinatorischen Rasters alle Bücher, somit auch
alle ihre Deskriptionen und Kataloge, aber ebenso Gegenentwürfe und
Widerlegungen dieser Deskriptionen und Kataloge; auch in der bloß imaginären
Totalität bricht die Ordnung des Wissens zusammen. An Borges' Erzählung lehnt
sich Simon Biggs' Software-Kunstwerk ,,Babel`` an, das die angloamerikanische
Dewey-Signaturenklassifikation zu einem kartographischen Web-Browsingsystem
umprogrammiert und dadurch, wie der amerikanische Netzkunstkurator Steve Dietz
schreibt, zu einer ,,conflation of cataloging and navigation - of metadata (the
cataloging information) and data (the website itself)`` wird.{3} - Die Poetik
und Ästhetik sich verselbstständigender Metadaten thematisierte ferner das
,,Periodical Journal of Bibliography``, das in den frühen 1990er Jahren von
Grant Covell in Cambridge/Massachusetts herausgegeben wurde und ausschließlich
fiktive Bücher verzeichnete.

Neben seinen Daten und Metadaten muß ein Archiv auch die Spielregeln seiner
Nutzung festlegen. Es verschreibt sich Zugangscodes: Öffnungszeiten,
Benutzerausweise und -kennungen, Hausordnungen, architektonische Grenzen und
Schranken, im Internet auch Paßwortsicherungen, Bandbreiten-Begrenzer,
Lizenzen. Mit der Migration der Zugänge in Datennetze verlagert sich die
Codierung von Hausregeln und klassischer Architektur in die
maschinenschriftliche Kontrollstruktur von Software-Algorithmen. Natürlich ist
der verwehrte und verheimlichte Zugang zu einem Archiv ein solcher Zugangscode,
ebenso wie der radikal offene. So löschte zum Beispiel die
Anticopyright-Appropriation des abgeschotteten Netzkunst-Servers hell.com durch
die Netzkunst-Plagiatoren 0100101110101101.org Zugangscodes nicht aus, sondern
ersetzte nur sichtbare durch unoffensichtlichere Barrieren.

Also ist jedes Archiv mindestens dreifach codiert, erstens in seinen
archivierten Daten, zweitens in seinen Metadaten und drittens in seinen
Zugangsregeln. Derrida fragt nach den Schöpfern dieser Codes wenn er gleich zu
Beginn von ,,Mal d'Archive`` feststellt, daß dem Archiv ,,seine Bedeutung,
seine einzige Bedeutung, durch das griechische ,arkheion` zukommt: ursprünglich
ein Haus, ein Wohnsitz, eine Adresse, der Sitz der obersten Magistraten, der
Archonten, jener, welche die Befehle gaben.``{4} Er denkt also das Archiv nur
als offiziöse Institution und übersieht dabei seine inoffiziellen Filiationen:
das Privatarchiv als Ort gesammelter privater Obsessionen, aber auch
Grenzgebiete des Offiziellen und Privaten wie das ,,Museum der Obsessionen``
Harald Szeemanns, das ihm zufolge zwar ,,keine Institution`` ist, sondern
,,eine Lebensaufgabe``, andererseits schon durch Szeemanns homonymen Merve-Band
institutionalisiert wird.{5} Im Gegensatz zu Derridas Archonten-Archiv verbirgt
erstens das Privatarchiv seinen Ort und seinen Diskurs und definiert zweitens
das Museum der Obsession Ort und Diskurs zugleich negativ und widersprüchlich
durch seinen Diskurs der Dikursverweigerung.{6} Es scheint aber auf alle Typen
des Archivs zuzutreffen, daß, wie Derrida behauptet, im Archiv Dokumente nur
,,vermöge einer privilegierten Topologie verwahrt und klassifiziert`` werden;
{7} das Privatarchiv privilegiert seine Topologie schon dadurch, daß es seine
Daten und Metadaten der Öffentlichkeit entzieht, und das Museum der Obsessionen
trägt, da es nicht Obsessionen sammelt, sondern obsessiv sammelt, seine
privilegierte Topologie schon im Titel.

Auch die Geschichte des Internets ließe sich als Geschichte von
Archivierungs-Topologien erzählen, und einer Verschiebung von Privilegien, mit
der die Grenzen des Offiziellen, Privaten und Obsessiven stets neu gezogen
worden sind. Zunächst sind alle Client-Server-Architekturen des Internets
privilegierte Topologien im Sinne von Derridas Analyse des klassischen Archivs.
Ihre Archonten heißen Systemadministratoren und, in der Führungsetage,
Standardisierungsgremien wie die ,,Internet Engineering Taskforce`` (IETF), die
,,Internet Corporation for Assigned Names and Numbers`` (ICANN), das ,,World
Wide Web Consortium`` (W3C) und das ,,Institute of Electrical and Electronics
Engineers, Inc.`` (IEEE).{8} Die Infrastruktur der Netzwerkprotokolle des
Internets, vor allem des Basisprotokolls TCP/IP, wäre nicht funktionsfähig ohne
die zentrale Vergabe und Kontrolle von Netzwerk-Adreßblöcken durch die ICANN
und die zentrale Administration hierarchisch organisierter Datenbanken wie jene
des Domain Name Systems (DNS), die z.B. den Namen ,,www.google.com`` der
IP-Adresse 216.239.39.101 zuordnet. Das primäre Archiv des Internets ist somit
das seiner selbst. Liest man IP-Adressen und Domain-Namen als primäre und
sekundäre Titelsignaturen, so genügen sich diese Signaturen als ihre eigenen
Objekt- und Metadaten selbst. Das Archivierungssystem präexistiert also als
Selbstinhalt das, was vermeintlich in ihm abgelegt wird. Es ist den
gespeicherten Daten gegenüber agnostisch, als es wiederum beliebige
Zusatz-Transportschichten und Zugriffstopologien oberhalb der
Basisinfrastruktur erlaubt. Zu diesen Schichten gehören E-Mail, Telnet, FTP,
World Wide Web und erst neuerdings für PCs konzipierte peer-to-peer-Dienste.{9}

Zu den ältesten Diensten des Internets überhaupt gehören Telnet und FTP, mit
deren Hilfe man Servercomputer per Terminal-Eingabe benutzen bzw. sich von
ihnen Dateien herunterladen kann.{10} Beide funktionieren nach der Logik des
archontischen Archivs, denn sie werden von von Systemadministratoren zentral
kontrolliert, besetzen mit ihren Netzadressen auch physisch lokalisierbare
privilegierte Orte, ordnen Daten und Metadaten gemäß der hierarchischen
Struktur von Dateisystemen an und verfügen über Nutzungscodes in Gestalt von
Kennungen, Paßwörtern und Datei-Zugriffsrechten. Das World Wide Web ist in
dieser Hinsicht nicht anders strukturiert als FTP-Server, schafft aber auf der
Ebene seines (zentral normierten) Dokumentformats und des
URL-Adressierungsschemas eine dritte Abstraktionsebene oberhalb von TCP/IP und
Dienst-Protokollzugriff, die dem Leser eine dezentrale Archivierung suggeriert,
faktisch aber nur eine Meta-Indizierung in sich geschlossener Archivorte -
,,sites`` - schafft. Durch den administrativ kontrollierten Speicherort des
Servers und die Tatsache, daß Dokumente in ihm normalerweise nur lesbar, nicht
schreibbar abgelegt werden, kennt auch das World Wide Web eine topologische
Unterscheidung von privatem Datenbesitz von öffentlicher Datenfreigabe. Sie
manifestiert sich an der Grenze zwischen PC- und Serverfestplatte.
0100101110101101.org, die Künstler der systematischen Erkundung von Archiven
und Grenzen des Privatem und Öffentlichem im Internet, machen auf dieses Limit
durch Umstülpung bewußt, wenn sie in ihrer Arbeit ,,life_sharing`` alle ihre
privaten Daten, einschließlich eingehender E-Mail, auf ihren öffentlichen
Webserver verlagern.

Zwar definieren sich peer-to-peer-Netze in der Theorie als Gegenmodell von
Client-Server-Architekturen, faktisch jedoch setzen alle peer-to-peer-Dienste
im Internet erstens auf die TCP/IP-Routingtabellen voraus, der Zentralarchiv
der von der ICANN betriebene ,,Root Server A`` ist und sind zweitens oft selbst
auch Server-basiert. Die ältesten Beispiele sind das Usenet, das seit 1986 auf
seiner eigenen Protokollschicht Diskussionsforen wie alt.artcom oder
de.comp.os.unix anbietet und, seit 1988, der Chat-Dienst IRC.{11} Sowohl im
Usenet, als auch im IRC besitzen eingespeiste Daten keinen fixierten
Speicherort, sondern wandern im Eimerkettenverfahren von Server zu Server.
Nutzer docken mit ihrer Client-Software - Newsreadern, IRC-Programmen - an
einen dieser Server an, nehmen aber somit nur indirekt am
peer-to-peer-Datentausch teil. Schon in den frühen 1990er Jahren zirkulierten
über die Server des IRC und des Usenet Daten, die zehn Jahre später auch den
Datenaustausch der peer-to-peer-Clients prägen sollten: pornographische Bilder
und illegal kopierte Software.{12} Die Expansion solcher privater Sammlungen
der Obsessionen zu öffentlichen Archive verhinderte jedoch die Architektur des
Usenets, die temporÄare Datenübertragung von lokalen Speicherungen enkoppelte
und Server-Administratoren weitreichende Kontrollrechte ließ, zum Beispiel die
Sperrung einzelner Bereiche, Nutzercodes für den Zugang zum Server und die
nachträgliche Löschung von Nutzern eingespeister Daten.

Erst Napster, der erste für Einwahl-PCs konzipierte peer-to-peer-Dienst im
Internet, änderte die Spielregeln. Napster machte Nutzern bewußt, daß jeder ins
Netz eingewählte Heim-PC nicht bloß ein Web- und Mail-Terminal, sondern auch
ein potentieller Server ist, denn Napster-Downloads nahmen nicht den Umweg über
einen Server, sondern spielten sich direkt zwischen zwei Nutzer-PCs ab. Die
Medienutopien Brechts und Enzensbergers, daß die Empfangsapparate gefälligst
auch Sendeapparate werden sollten,{13} wurden durch Napster Realität. Doch auch
Napster lag noch eine Client-Server-Architektur zugrunde. Alle von Nutzer-PCs
ins Netz gestellten Dateien wurden auf einem zentralen Server indiziert. So
bestand zwar das Napster-Archiv nur aus temporär angeschlossenen
Privatarchiven, jedoch waren seine Daten und Metadaten entkoppelt, und der
Katalog verblieb am symbolischen wie physischen Ort der Institution
napster.com. Aus diesem Grund zeigt sich an Napsters Geschichte auch
beispielhaft, weshalb die Kontrolle des Archivs nicht in der Kontrolle der
Daten selbst besteht, sondern in der Kontrolle von Metadaten und Topologien.
Von Beginn an war Napsters Download-Angebot eingeschränkt, daß der
Katalog-Server von den eingestellten Dateien der Nutzer nur Audiodateien im
mp3-Format berücksichtigte. Indem also der Katalog seine Metadaten künstlich
auf die Dateiendung ,,.mp3`` restringierte, strich er alles, was in ihm nicht
verzeichnet war, auch faktisch aus dem Netz. Durch Gerichtsverfahren, die man
als Änderungen an Napsters Softwarecode durch Rückgriff auf einen
übergeordneten Code des Gesetzes interpretieren kann,{14} setzte die Musik- und
Rechteindustrie zuerst durch, daß Copyright-geschützte Musiktitel aus Napsters
Index von gelöscht wurden, und kurz darauf die Abschaltung des Katalogs selbst,
die somit die Abschaltung des Netzdiensts Napster bedeutete.

Gnutella wurde zum nächsten erfolgreichen Internet-basierten
peer-to-peer-Dienst nach Napster, wohl auch, weil in ihm Zentralserver radikal
abgeschafft und die Unterscheidung von Client und Server aufgegeben wurden.
Zwischen angeschlossenen Nutzer-PCs zirkulierten nun nicht mehr nur Daten,
sondern auch Metadaten. Index- bzw. Katalog-Abfragen wurden nach dem Prinzip
der Telefonkette zwischen allen eingewählten Rechnern weitergereicht und
beantwortet. Gnutella kennt somit keinen ,,single point of failure`` mehr und
kann nicht, wie Napster, zentral abgeschaltet werden. Diesen taktischen Vorteil
erkauft sich die Gnutella-Softwarearchitektur allerdings durch die großen
Datenmengen, die allein durch die Suchanfragen zwischen den verbundenen
Rechnern entstehen. Mit Gnutella entfiel schließlich auch die Beschränkung des
peer-to-peer-Dateiaustauschs auf mp3-Tonkonserven. Eine kurze, zufällige
Stichprobe laufender Gnutella-Suchanfragen im November 2002 ergab folgendes:

    chasey lain fuck on the beach.mpeg
    it.mpeg'
    all leisure suit larry games.zip
    n64 emulator with 11 games.zip
    hiphop - dead prez - hip hop'.mp3'
    hiphop - das efx - real hip hop.mp3
    cypress hill - insane in the brain.mp3
    addict mp3
    neon genesis evangelion - episode 05 - 06 avi
    beach candy sextravaganza part 1.mpg
    kama_sutra_lesson_2.mpg
    leann rimes - life goes on (1)
    perl 5 by example - ebook.pdf
    animal passion avi
    jackass the movie avi
    formula51 - samuel l. jackson
    sex pistols anarchy in the uk 1 mp3
    harry potter 2 chamber of secrets avi

Auch wenn dies eine Zufallsaufnahme ist, deckt es sich mit dem öffentlichen
Image von Gnutella, daß sechs der achtzehn Suchanfragen sich auf Popsongs im
mp3-Format bezogen, vier auf Porno-Videos, zwei auf in Videodateien
umgewandelte Hollywood Mainstream-Filme, zwei auf Fernsehserien, zwei auf
Computerspiele und eine auf ein Programmierhandbuch. Ordnet man die Hauptwörter
der Liste alphabetisch - ,,addict anarchy animal beach brain candy chamber dead
evangelion formula51 fuck games genesis hiphop insane jackass kama_sutra
leisure life neon passion pistols real secrets sex sextravaganza`` -, ergibt
sich ein Wörterbuch der Gnutella-Gemeinplätze, das zugleich eine kleine
Alltagspoetik der Obsessionen ist. Und so bezieht die Software ,,minitasking``,
{15} die Gnutella-Netzknoten, -Suchanfragen und -ergebnisse auf dem
Computerbildschirm visualisiert, ihre (wohl unfreiwillige) pataphysische Ironie
aus ihrer Echtzeittopographie obsessiver Suchwörter. Das globale Museum der
Obsessionen, das Gnutella durch seine Vereinigung der Privatarchive schafft,
mag zwar auf den ersten Blick trivial anmuten. Doch entscheidet sich seine
Trivialität weniger am Angebot, als am Zugriff. Im Sommer 2002 brachten
Gnutella-Suchwortkombinationen zum Beispiel auch digitale Raubkopien von Jorge
Luis Borges' ,,Ficciones`` und von Romanen Vladimir Nabokovs und Thomas
Pynchons zum Vorschein, nebst Tonaufnahmen der Musik von Stockhausen und
LaMonte Young, die es schon seit langem nicht mehr im Handel gibt. Obsessiv
sind aber auch die in Gnutella eingestellten Privatarchive der Obsessionen
jenseits von Hochkultur einerseits und Pop-, Kino-, TV- und Porno-Mainstream
andererseits, die erst durch Dateisuchen sichtbar werden, die nicht nach
Inhalten, sondern agnostisch nur nach Dateiformaten fragen. Die Suchkombination
,,DSC [und] MVC [und] jpg`` zum Beispiel, die schlicht Dateien an den Tag
bringt, die von Sony-Kameras erzeugt und nicht umbenannt wurden, führt in ein
oft surreales Gesamtarchiv digitaler Amateurphotographie, dessen ästhetische
Spannbreite von Walker Evans bis Nobuyoshi Araki reicht. Gerade seine
Obszönitäten sind überraschend unlangweilig und unpornographisch, wenn zum
Beispiel, wie im reproduzierten anonymen Digitalbild ,,dsc010015.jpg``, ein
Körper durch optische Entschärfung sexuell verschärft wird. Wenn aber die
Einheit kleiner Archive der Obsessionen nicht mehr durch den individuellen
Sammler und die Topologie der Sammlung gestiftet wird, sondern eine
Momentaufnahme ist, die über zufällige Korrespondenzen von Suchwörtern und
Dateinamen zustandekommt, so zeigt sich abermals die Türhüterfunktion der
Metadaten für peer-to-peer-Archive.{16}

Daß solch ein Zugriff auf digitale Codes - gleich ob sie später als Schrift,
Töne, Bilder ausgegeben oder als Algorithmen ausgeführt werden - eigene
Kunstformen hervorbringen kann, zeigt das Musikgenre des ,,Bastard Pop``, ein
Name, der sich für anonym produzierte digitale Verschneidungen von
Mainstream-Popsongs eingebürgert hat. Charakteristisch für den Bastard Pop ist
eine Ästhetik gezielter Panscherei und Verbindung von Gegensätzen, wie etwa in
der Kombination von Whitney Houstons Singstimme mit dem Elektropop von
Kraftwerk in ,,I wanna dance with numbers`` von Girls On Top. Daß Bastard Pops
zeitgleich mit Internet-peer-to-peer-Diensten entstand, ist nicht zufällig;
tatsächlich beziehen die anonymen Remixer ihr Tonmaterial, und übrigens auch
ihre Musiksoftware, zu einem großen Teil aus Gnutella und Co. So ist Bastard
Pop die erste populäre Musikform, die aus dem Internet und globalisierten
Privatarchiven entstand, und deren Herkunft aus diesen Archiven sich reziprok
in ihre Ästhetik des Plagiats einschreibt.

Am ,,Bastard Pop`` zeigt sich aber auch die politische Dialektik der Umrüstung
der Empfangs- zu Sendeapparaten. Denn juristisch gesehen, sind
Peer-to-peer-Archivare keine Privatleute mehr, sondern Verleger, und ihre
Datensammlungen keine Privatobsessionen mehr, sondern eine massenmediale
Verbreitung urheberrechtlich geschützter Inhalte. Nicht nur juristisch, sondern
auch technisch kollabiert in vernetzten Computern der Unterschied zwischen dem
Akt des Speicherns und Hervorholens einerseits und massenmedialer Übertragung
andererseits, es sei denn, man macht ihn willkürlich an Kabellängen fest.
Derrida attestiert auch dem klassischen, örtlich noch klar umrissenen und von
der klar definierten Autoritäten kontrollierten Archiv einen ,,institutionellen
Übergang vom Privaten ins Öffentliche``,{17} bei den peer-to-peer-Archiven
erweist er sich recht als ein Problem, das zunehmend schon auf der Ebene der
algorithmischen Codierung von Softwarearchitekturen und Zugangstopologien
reflektiert wird.

Die vielleicht nächste, zur Zeit noch experimentelle Evolutionsstufe
Internet-basierter peer-to-peer-Dienste sind anonymisierte Architekturen wie
Freenet und GNUnet, die ihre Nutzer anonymisieren und ihren Datenverkehr mit
starker Kryptographie verschlüsseln. Darüber hinaus verschieben sie nicht nur,
wie Gnutella, die Metadaten der Suchanfragen, sondern auch die eingestellten
Daten selbst automatisch zwischen allen angeschlossenen Computern. So
verflüssigt sich nicht nur das Archiv als Einheit eingestellter Daten und
selbsterzeugter Metadaten, sondern auch die Speicherorte der Daten. Die
Ausschaltung von Überwachung und Kontrolle durch Dritte ist dabei erklärte
Absicht der Entwickler. Auf der Homepage von Freenet heißt es: ,,Freenet is
free software designed to ensure true freedom of communication over the
Internet. It allows anybody to publish and read information with complete
anonymity. Nobody controls Freenet, not even its creators, meaning that the
system is not vulnerable to manipulation or shutdown`` {18}, und die
GNUnet-Entwickler definieren ihr Projekt als ,,anonymous censorship-resistant
file-sharing``. {19} Lokale Provider-Administratoren können diese Dienste zwar
sperren, indem sie ihre TCP/IP-Kanäle blockieren, doch selbst dies läßt sich
mit Geschick umgehen, indem man den Freenet- oder Gnunet-Datenverkehr durch
andere Netzprotkolle - etwa Webseiten-Aufrufe oder E-Mail-Transfers -
steganographisch ,,tunnelt``.

Ist dies das Ende aller privilegierten Topologien des Archivs? Gewiß nicht.
Zunächst privilegieren alle peer-to-peer-Archive bestimmte Information und
Nutzungen dadurch, daß sie die klassische Synchronie des Archiv durch eine
Diachronie ablösen, seine dem Ideal nach zeitlose Verräumlichung temporär
aufgelesener Artefakte also durch eine radikale Momenthaftigkeit und
Instabilität des Archivs ersetzen. Die Einheit individueller Museen der
Obsessionen verflüchtigt sich im momentanen Zustand und in den
Suchwortbenachbarungen des Netzwerks. Und auch neuere
peer-to-peer-Architekturen ändern nichts an der Privilegierung der Metadaten -
also: Dateinamen - als einzigem und zudem unzuverlässigem Zugriffsregister des
Archivs. Die Versuche der Musik- und Rechteindustrie, peer-to-peer-Archive
durch taktisch falsch benannte Müll-Dateien zu sabotieren, liefert einen
Vorgeschmack auf künftige Probleme. Und schließlich bleibt die Architektur der
Archive ein Privileg von Programmierer-Archonten, selbst dann, wenn sie (wie
Freenet und GNUnet) Freie Software unter dem GNU-Copyleft ist. Die Aussage
,,nobody controls Freenet, not even its creators`` ist deshalb ebenso naiv wie
jede Annahme, bloß durch kryptographische ,,privacy`` eine Anonymität zu
erzielen, die jedes Privatphoto wieder unterminiert, das versehentlich ins Netz
gestellt wurde.

So migriert die faktische Grenzen des Öffentlichen und Privaten letztlich auf
die Ebene der Dateisysteme von Personal Computern, genauer: die Grenze des
Verzeichnisses (bzw. Dateiordners), dessen Inhalt mitsamt allen
Unterverzeichnissen für peer-to-peer-Downloads freigeschaltet wird. Diese
Grenze wird je prekärer, je mehr Aufzeichnungs- und Gedächtnissysteme - vom
Kalender, Fotoalbum bis zur Korrespondenz - der Computer in sich absorbiert,
als Software neucodiert und verfeinert, und je mehr Aufzeichnungen dank des
Wachstums von Speicherkapazität (dem gegenüber der Beschleunigung der
Recheneinheiten nach Moore's Law bisher zuwenig Aufmerksamkeit geschenkt worden
ist) auf ein Speichermedium vereint werden können. Der PC wird dadurch
zunehmend nicht nur zu einem Ablageort biographischer Spuren, sondern zur
Biographie selbst im wörtlichen Sinne der Niederschrift eines Lebens.
Festplatten werden zu Identitätsprotokollen, ihre Daten zu intimen Erzählungen.
Aus Roberta Flacks Soul-Versen von 1973, ,,Telling my whole life with his
words, / Killing me softly with his song``, könnte man heute nicht minder
überzeugend, wenn auch unschöner ,,Telling my whole life with my files /
Killing me softly with my hard disk`` dichten. Es ist absehbar, daß keine
Künstler-Werkausgabe und -Biographie mehr möglich sein wird ohne einen
Festplatten-,,dump``, eine Bit-für-Bit-Kopie ihres Inhalts, wenn nicht defekt
gewordene Speichertechnik und das Versäumnis von Sicherheitskopien Spuren
zwischenzeitlich vernichtet und Teilbiographien sanft getötet hat. Daß solch
ein ,,headcrash`` ein mnemotechnischer Super-GAU ist, oft auch ein
ökonomischer, mag sich herumgesprochen haben; daß er zum kulturellen Super-GAU
wird, bislang weniger. Doch wo Dateisicherungssystematik scheitert, könnten
Filesharing-Netze gerade wegen der Unsystematik ihrer Datentransfers die
künftigen Backup-Medien und der Underground des kulturellen Gedächtnisses
werden.

(Für Gert Mattenklott)




Literatur

[Bre32]
    Brecht, Bertolt: Der Rundfunk als Kommunikationsapparat. In: Werke .
    Frankfurt:Suhrkamp, 1992 (1932), S. 552-557
[Der95]
    Derrida, Jacques: Mal d'Archive . Paris : Éditions Galilée, 1995
[Enz70]
    Enzensberger, Hans M.: Baukasten zu einer Theorie der Medien. In: Kursbuch
    20 (1970), S. 159-186
[Hof00]
    Hofmann, Jeanette: Und wer regiert das Internet? In: Kubicek, Herbert
    (Hrsg.) ; Braczyk, Hans-Joachim (Hrsg.) ; Klumpp, Dieter (Hrsg.) ;
    Roßnagel, Alexander (Hrsg.): Global @home. Jahrbuch Telekommunikation und
    Gesellschaft 2000 . Heidelberg : Hüthig, 2000, S. 67-78
[Les00]
    Lessig, Lawrence: Code and Other Laws of Cyberspace . New York : Basic
    Books, 2000
[Sze81]
    Szeemann, Harald: Museum der Obsessionen . Berlin : Merve, 1981


Fußnoten

{1} Derrida, Mal d'Archive [Der95], S.35, meine Übersetzung. Im Original:
,,Mais je privilégie aissi l'indice du E mail pour une raison plus important et
plus évidente: parce que le courrier électronique est aujourd'hui, plus encore
que le Fax, en passe de transformer tout l'espace public et privé de
l'humanité, et d'abord la limite entre le privé, le secret (privé ou public) et
le public ou le phénoménal. Ce n'est pas seulement une technique, au sens
courant et limité du terme: à un rhythme inédit, de façon quasi instantanée,
cette possibilité instrumentale de production, d'impression, de conservation et
de destruction de l'archive ne peut pas ne pas s'accompagner de transformations
juridiques et donc politiques. Celles-ci affectent, rien de moins, le droit de
propriété, le droit de publier et de reproduire.``

{2} Zentralistisch qua seiner Vorstellung eines zentral genormten Dokument- und
Metadatenformats und eines zentral kontrollierten ,,Transcopyright`` sowie
einer zentralen Gebührenstelle.

{3} Steve Dietz, Reverse Engineering the Library, Simon Biggs' Babel, "http://
hosted.simonbiggs.easynet.co.uk/babel/intro.htm"

{4} [Der95], S.12f., meine Übersetzung. Im Original: ,,le sens de ,archive`,
son seul sens, lui vient de l'arkheîon grec: d'abord une maison, un domicile,
une adresse, la demeure des magistrats supérieurs, les archontes, ceux qui
commandaient.``

{5} [Sze81], S.125

{6} a.a.O. S.127 und S.136

{7} [Der95], S.13, meine Übersetzung. Im Original: ,,[...] les documents, qui
ne sont pas toujours des écritures discursives, ne sont gardés et classés au
titre de l'archive qu'en vertu d'une topologie privilégiée``

{8} Eine genauere Analyse der politischen Steuerung des Internet schreibt die
Politologin Jeanette Hofmann in [Hof00]

{9} die man fälschlich für eigene Netze hält, weil ihre Netzprotokollschichten
und Nutzerprogramme von der Topologie der darunterliegenden TCP/
IP-Protokollschicht abstrahieren

{10} Die Telnet-Spezifikation RFC 318 stammt von 1973, die FTP-Spezifikation
RFC 454 von 1973

{11} Die Spezifikation des Usenet-Protokolls NNTP findet sich in RFC 977, das
IRC-Protokoll wurde erst 1993 in RFC 1459 spezifiziert

{12} Ein frühes Dokument darüber ist Ursula Otts Artikel über Pornographie in
Hochschulnetzen in der Zeitschrift ,,Emma`` vom Dezember 1991

{13} S. [Enz70] und [Bre32]

{14} Zur Analogie von Software-Code und Gesetzgebung siehe [Les00]

{15} "http://www.minitasking.com";

{16} Im Gegensatz dazu kennt etwas das World Wide Web keinen Echtzeitindex,
seine Suchmaschinen versuchen durch ihre Volltextindizierung aber, den
Unterschied von indizierten Daten und indizierenden Metadaten zu verwischen,
indem letztere die ersteren eins zu eins abbilden.

{17} ,,La demeure, ce lieu où elles restent à demeure, marque ce passage
institutionnel du privé au public``;[Der95], S.13

{18} "http://www.freenetproject.org";

{19} "http://www.gnu.org/software/GNUnet/";

-- 
http://userpage.fu-berlin.de/~cantsin/homepage/
http://www.complit.fu-berlin.de/institut/lehrpersonal/cramer.html
GnuPG/PGP public key ID 3200C7BA, finger cantsin@mail.zedat.fu-berlin.de
-------------------------------------------------------
rohrpost - deutschsprachige Liste zur Kultur digitaler Medien und Netze
Archiv: http://www.nettime.org/rohrpost http://post.openoffice.de/pipermail/rohrpost/
Ent/Subskribieren: http://post.openoffice.de/cgi-bin/mailman/listinfo/rohrpost/