Kapitalismustheorie

Eigentum, Macht und Governance im Cyberspace

von Jürgen Leibiger
Juni 2019

„Ein Gespenst geht um im multinationalen Kapitalismus – das Gespenst der freien Information.” Mit diesen Worten beginnt Eben Moglen, einer der bekanntesten Anwälte der Freien-Software-Bewegung, sein dotCommunist Manifesto von 2003.[1] In der digitalen Gesellschaft erweise sich die freie der proprietären Information als überlegen; damit beginne „das Ende des Eigentums“. Auch andere Autoren vermuten, dass dem Kapitalismus im Informationszeitalter die Totenglocken läuten, weil sich die Daten, „das Öl des 21. Jahrhunderts“ und der Cyberspace, die Sphäre, in der sie in digitaler Form zirkulieren, dem privaten Eigentum und der Marktsteuerung mehr und mehr entziehen würden. Es bildeten sich „Nischen und Hohlräume des Marktsystems“ (Paul Mason) oder „Räume und Risse“ (Eric O. Wright) heraus, in denen die Erosion des Kapitalismus beginne.[2] Gemeineigentum und kollaborative Praxen würden die Oberhand gewinnen und mit dem Verschwinden des Profits in einer „Null-Grenzkosten-Gesellschaft“ komme es zum „Rückzug des Kapitalismus“ (Jeremy Rifkin).[3] Was ist dran an diesen Thesen? Entwickeln sich die im Cyberspace herrschenden Eigentumsverhältnisse, die Verfügungs- und Aneignungsmacht sowie die Governance in und über diesen Raum tatsächlich in diese Richtung?

Der Cyberspace

Die Entstehung des Kapitalismus vollzog sich – neben der Transformation des feudalen in kapitalistisches Grundeigentum durch feudale Grundeigentümer selbst oder mittels ihres Ausverkaufs – auch in Form zweier großer Landnahmen. Die eine bestand in der gewaltsamen, durch Bauernlegen und Einhegungen betriebenen Enteignung bäuerlichen Grund und Bodens. Die unmittelbaren Arbeiter wurden von ihrem Land – soweit sie selbst individuelle oder kollektive Eigentümer waren – als hauptsächlichem Produktionsmittel jener Zeit getrennt und in Lohnarbeiter verwandelt. Die zweite bestand in der Eroberung und Kolonisierung fremder, meist überseeischer Territorien und der Enteignung, häufig sogar Ausrottung der dort lebenden Bevölkerung. Diese Landnahme war gegen Ende des 19. Jahrhunderts nahezu abgeschlossen; die Welt schien unter wenige imperialistische Hauptmächte weitgehend aufgeteilt zu sein und der Kampf um eine Neuaufteilung hatte begonnen.

Aber schon damals konnte von einem Abschluss der Aufteilung verwertbarer Räume keine Rede sein; viele harrten noch ihrer Erschließung: der Meeresgrund, die Polkappen, der Luftraum oder der Weltraum. Ein Raum, der heute immer stärker in den Focus gerät, ist der Cyberspace, die Sphäre, in der Daten zirkulieren und die Kommunikation über das Internet erfolgt. Keine andere Innovation hat je so schnell fast die gesamte Welt erobert. Nach den wenigen Jahrzehnten seit ihrer Entstehung nutzen sie heute bereits 55 Prozent der Weltbevölkerung (Afrika 36 Prozent, Nord-Amerika 95 Prozent)[4]; die Geschwindigkeit der Verbreitung von Buchdruck, Dampfmaschine oder Elektrizität war dagegen Schneckentempo. Diese Sphäre ist in ihren Eigenschaften so verschieden von anderen Räumen, dass die Verwendung des Raum-Begriffs eher metaphorisch möglich scheint. Manchmal wird er als virtueller oder immaterieller, jenseits des Materiellen existierender Raum gekennzeichnet. Michael Betancourt schreibt von einer „Geisterhaftigkeit“ des Digitalen, was zu einer „spezifischen Illusion“ führe, nämlich dem „Schein, dass ihm eine substanzielle, materielle Verbindung zur Wirklichkeit fehlt.“[5] Es hängt mit dieser Illusion zusammen, wenn vermutet wird, dieser Raum und das Digitale seien durch Eigenschaften gekennzeichnet, die im Widerspruch zur Kapitalverwertung stünden und diese letztlich zusammenbrechen lasse. Tatsächlich jedoch handelt es sich um einen sehr realen Raum, in dem sich das gar nicht geisterhafte „Digitale“ bewegt, das ohne Bindung an das Materielle, und seien es auch nur elektrische, optische oder elektromagnetische Zustände, nicht existieren kann. Neben den digitalen Daten umfasst er das physische Kommunikationsnetz und die Geräte und Objekte, die sein Funktionieren ermöglichen. Zu ihm gehören auch die Verfahren und Programme zur Realisierung der Netzfunktionen, die Schalt- und Übertragungsgeräte und die Endgeräte zur Verarbeitung und Speicherung von Daten. Dazu zählen die Algorithmen und Programme zur Auswertung und Verarbeitung geistiger Güter und Daten und schließlich die Plattformen, auf denen digitale Dienstleistungen und Daten via Internet angeboten werden. Im Internet der Dinge überlappt sich inzwischen der Cyberspace mit den anderen Sphären von Produktion und Konsumtion. Der geschätzte Umsatz aller Bereiche der Internetwirtschaft stieg in Deutschland von knapp 50 Milliarden (2012) auf erwartete 114 Milliarden Euro 2019, etwa 2 Prozent des Umsatzes aller Unternehmen in Deutschland.[6] Dieses vergleichsweise geringe Volumen spiegelt allerdings nicht annähernd die gesellschaftliche Bedeutung des Cyberspace wider. Die Wirtschaftsleistung und Bedeutung beruhen auf der materiell-technischen und algorithmischen Infrastruktur des Internets und den hier bewegten Daten, die allesamt Objekte von Eigentumsbeziehungen, also Beziehungen von Menschen zueinander bezüglich dieser Objekte sind. In diesen Beziehungen geht es um die Verteilung von Verfügungs- und Aneignungsmacht unter den Beteiligten.

Die Kommunikationsnetze

„Kein Netz!“. Wer ist mit diesem verzweifelten Ruf nicht schon einmal konfrontiert worden. „Kein Netz“ bedeutet den Ausschluss von modernen Formen der Kommunikation, vom Internet, vom Zugang zu globalen öffentlichen Wissensbeständen, zu „Apps“, den Internetanwendungen, die im Alltagsleben fast unverzichtbar geworden sind, aber auch – noch schlimmer – zu allen möglichen, nur mittels des Internets realisierbaren wirtschaftlichen und geschäftlichen Aktivitäten. Der Ruf „Kein Netz!“ erinnert daran, dass der Cyberspace materieller Natur ist und ohne das Rückgrat des physischen Netzes aus Kabeln und Funkverbindungen nicht existent wäre.

Dieses Netz wurde seit der zweiten Hälfte des neunzehnten Jahrhunderts geschaffen. Es war ein technisch erzeugtes Neuland; hier gab es keine bäuerliche oder indigene Bevölkerung, die enteignet, vertrieben oder vernichtet werden musste, um es sich anzueignen. Seine Erschließung mittels kabelgebundener und drahtloser Telegrafie war mit dem raschen Aufschwung eines neuen Industriezweiges verbunden, in dem ein harter Konkurrenzkampf der neuen Unternehmen um die Nutzung dieser Sphäre geführt wurde. Der Versuch der britischen Marconi Company, die drahtlose Telegrafie zu monopolisieren, stieß auf heftigste Gegenwehr konkurrierender Unternehmen und Staaten. Auf der Internationalen Funktelegrafenkonferenz in Berlin wurde deshalb 1906, wie schon 1865 bezüglich der drahtgebundenen Telegrafie, eine internationale Vereinbarung über den Funkverkehr und damit über die Nutzung des elektromagnetischen Wellenspektrums getroffen. Mit dieser Vereinbarung wurde dieses Spektrum zwar wie ein globales öffentliches Gut behandelt (ein Begriff, der damals noch nicht verwendet wurde), andererseits wurde es einer freien Nutzung entzogen, um seine private Verwertung zu regeln und chaotische, im Verkehrswesen sogar lebensgefährdende Verhältnisse zu vermeiden. Da eine räumliche Einhegung elektromagnetischer Wellen nicht oder nur mit sehr kostspieligen Mitteln möglich schien[7], wurde die Verfügung mittels der Weltfunkverträge „nur“ rechtlich abgesichert. Die Staaten haben sich damit aufgrund ihrer Macht und unter Androhung gewaltförmiger Rechtsmittel die Governance über dieses Netz gesichert. „Unbefugte“ wie zum Beispiel Piratensender werden ausfindig gemacht und geschlossen, die Betreiber werden bestraft. Diese Form der rechtlichen Einhegung trägt also keineswegs „virtuellen“ oder „symbolischen“ Charakter; sie ist sehr real und mittels materieller Gewalt untersetzt. Sie ähnelt dabei anderen räumlichen Einhegungen; statt einem Abfangjäger wie beim Schutz der Lufthoheit oder einem Trupp Cowboys an privaten Weidegrenzen im amerikanischen Westen wird hier eine Polizeipatrouille mit Handschellen in Marsch gesetzt.

Die jeweiligen Staaten überlassen ihre Macht über das drahtlose Netz per Vertrag zeitweilig privaten Nutzern einer bestimmten Funkfrequenz und behalten sich nur wenige Verfügungsrechte in Form der Netzregulierung und der Vergabe neuer Lizenzen vor. Diese Lizenzen werden in Deutschland von der staatlichen Bundesnetzagentur vergeben. Im Fall der Mobilfunknetze werden sie zeitlich auf 10 Jahre befristet und per Auktion verkauft, was 2010 insgesamt 4,4 Milliarden Euro von nur drei Netzbetreibern erbrachte. Netzbetreiber sind also Besitzer, nicht Eigentümer dieser Netze. Die Auktion für die nächste Dekade und das 5G-Netz findet dieses Frühjahr unter Beteiligung von vier Bietern statt. Der Staat erfüllt mit der Regulierung und Lizenzvergabe eine hoheitliche Aufgabe, die ihm per Gesetz durch die Legislative erteilt und völkerrechtlich abgesichert ist. Vom juristischen Standpunkt aus befindet sich das Wellenspektrum so wie die Luft und das Licht zwar eher im Gemein- als im Staatseigentum, aber de facto übt der Staat Eigentümerfunktionen auf der Grundlage seiner Hoheitsrechte aus.[8] Das gilt für die drahtgebundene Kommunikation nicht im gleichen Maße. Obwohl das Verlegen ober- und unterirdische Kabel und der erforderlichen Bauwerke genehmigungspflichtig ist und der Zustimmung der betroffenen Grundeigentümer bedarf, sind sie Eigentum der jeweiligen Kabelbetreiber.

Die Eigentümer der Kabel (DSL und Breitband), die Besitzer der Frequenzen und die Betreiber von Kommunikationssatelliten sind Unternehmen, die eine reale Verfügungs- und Aneignungsmacht über das Netz ausüben. Sie sind natürliche Monopolisten, weil das Frequenzspektrum wie auch die Räume für ober- und unterirdische Nachrichtenkabel eine Begrenzung aufweisen. Deshalb ist ihre ökonomische Macht über das Netz trotz bestimmter Regulierungen und Schranken ziemlich weitgehend. Sie können ihre Tarife für Anschluss und Datentransport frei aushandeln und bislang existiert auch keine umfassende, gesetzlich durchgesetzte Verpflichtung zur Netzneutralität, das heißt, zur Gewährleistung eines ungehinderten und gleichberechtigten Datentransports für alle Endkunden. In der Ausschreibung der Bundesnetzagentur für die neuen 5G-Mobilfunknetze für 2019 ist der Erwerb dieser Lizenzen zwar an eine Reihe von Bedingungen geknüpft, die Verpflichtung zur Öffnung der Frequenzen für andere Mobilfunkanbieter (nationales Roaming) ist von den Netzanbietern und ihrer Lobby jedoch verhindert worden. In Deutschland befinden sich die drahtlosen Netze des Mobilfunks bislang in den Händen von nur drei Oligopolisten, der Deutschen Telekom (an der auch der Bund beteiligt ist), Vodafone Deutschland und Telefonica, die den Markt zu etwa je einem Drittel beherrschen.[9] Zwar existiert eine Vielzahl weiterer Anbieter, diese verfügen aber über keine eigenen Netze, sondern kaufen sich in die der Hauptanbieter ein.

Da die für das moderne Internet erforderlichen Festnetze großer Bandbreite in vielen Territorien neu geschaffen werden müssen, tummeln sich auf diesem Gebiet neben den alten auch eine Vielzahl neuer Unternehmen, die als regionale Anbieter ein Stück vom Kuchen abbekommen möchten. Letztlich sind aber auch sie von den kaum ein Dutzend großen, überregionalen Festnetzbetreibern abhängig. Im Breitbandbereich liegen die Marktanteile allein von Telekom und Vodafone bei nahezu zwei Dritteln. Das übrige Drittel teilen sich 1 & 1, Unitymedia, O2 und sonstige Kleinanbieter.[10] Noch sind diese Märkte heftig in Bewegung, aber auch hier zeichnen sich die weitere Verschmelzung verschiedener Marktsegmente und Marktbereinigungen ab. Die Konzentration wird nicht nur durch die in allen Industrien wirkenden Skaleneffekte, sondern auch durch eine Besonderheit von Kommunikationsnetzen begünstigt. Die Kunden drängen in diejenigen Netze, in denen sie besonders viele Verbindungen nutzen und die Breite und Vielfalt ihrer Kommunikation erhöhen können. Größere Netzbetreiber haben somit nicht nur schlechthin einen Skalenvorteil, diesem Vorteil wohnt zudem ein sich selbst verstärkender Effekt inne: Je größer die Teilnehmerzahl, desto größer die Anziehungskraft für weitere Teilnehmer. Dieses als Netzwerkeffekt bekannte Phänomen sorgt tendenziell dafür, dass kleinere Anbieter allmählich aus dem Markt ausscheiden. Das gilt zumindest dann, wenn er sich nicht ausdehnt oder diversifiziert, so dass neue Märkte und Nischen entstehen können. Da diese Gegenbewegung begrenzt ist, dürfte die Hoffnung einer fortschreitenden Dekonzentration und Dezentralisation und einer damit verbundenen Erosion der Macht der Netzriesen, wie sie zum Beispiel Rifkin äußert, trügerisch sein.

Die Produktion der elektromagnetischen Welle erfolgt zwar durch private Unternehmen, sobald sie sich jedoch ausbreitet, wird sie auf den ersten Blick zu einem frei zugänglichen Gut. Niemand, der sich in ihrer Reichweite befindet und über das erforderliche Wissen und Equipment verfügt, kann von ihrem Empfang ausgeschlossen werden; die Anzahl möglicher Empfänger ist unbegrenzt. Nach der üblichen Güterklassifikation handelt es sich also um ein öffentliches Gut, gekennzeichnet durch Nicht-Ausschließbarkeit und Nicht-Rivalität bei der Nutzung. Solche Güter können, so die Theorie, nicht privat verwertet werden, weil niemand bereit ist, dafür etwas zu zahlen. Sie sollten deshalb, sofern ihre Herstellung gewünscht wird, staatlich produziert werden. Von diesem Marktversagen wird von einigen Theoretikern auf das fundamentale Versagen von Kapitalverwertung in diesem Bereich schlechthin geschlossen. Tatsächlich aber haben sich Märkte gebildet und dort, wo der Staat als Produzent tätig ist, geschieht dies aus anderen Gründen. Wieso also werden diese Wellen privat produziert? Warum funktioniert die private Verwertung in dieser Sphäre? Die Gründe dafür liegen auf der Hand. Erstens lässt sich mit den notwendigen Geräten und Programmen Geld verdienen; es kommt zu Koppelgeschäften und Quersubventionierung. Die ersten Rundfunksender waren in den 1920er Jahren oft zugleich die Hersteller der Radio-Empfänger; heute betreiben viele Netzanbieter auch den Handel mit Endgeräten. Zweitens geht es gar nicht um die Welle; sie ist nur das Vehikel, mit dem mittels der Frequenzmodulation Informationen transportiert werden. Die mittels der Welle gesendeten Informationen sind einer Codierung unterworfen. Schon die Sprache selbst ist ein solcher Code (Ich kann in Dresden zwar tschechischen Rundfunk in bester Qualität empfangen, verstehe aber leider kein Wort.); zur Übermittlung per Funk oder Kabel muss sie jedoch nochmals codiert werden. Damit verliert sie ihre Eigenschaft als ein frei zugängliches Gut; der Empfänger muss diesen Code zur Übersetzung der Signale in Sprache und Bilder nutzen können. Zwar kommt die Welle auch bei denjenigen an, die nicht über den Code verfügen, diese sehen und hören aber nur ein Rauschen. Die Entschlüsselung der modulierten Welle bedarf des Zugriffs auf den Code. Meist ist das Empfangsgerät der Decoder; bei privaten Bezahlsendern wird deshalb sogar doppelt codiert, sodass ein Zusatzgerät oder -code erforderlich ist. Die Information, die mittels der Welle übertragen wird, ist damit zu einem verkäuflichen Club-Gut geworden: Wer über den Decoder verfügt (und diesen bezahlt), und das können beliebig viele sein, wird Club-Mitglied. Drittens lassen sich Geschäftsmodelle entwickeln, bei denen die Information gar nicht gegen eine Geldzahlung ihres Empfängers verkauft wird; vielmehr „zahlt“ dieser mit seiner Aufmerksamkeit für die mitgesendete Werbung. Diese Aufmerksamkeit lässt sich der Sender von den werbenden Unternehmen vergüten. Schon in den 1920iger Jahren erfolgte die Finanzierung der ersten Rundfunksendungen auch mittels Reklame. Und viertens werden bestimmte Informationen für so wichtig für den Systembestand und das System der Kapitalverwertung gehalten (allgemeine Informationen, Bildung, Meinungsbildung oder -manipulation usw.), dass der Staat wie in vielen anderen Bereichen der Infrastruktur ihre Produktion übernimmt. In diesem Falle ist die Information ein meritorisches Gut; die Bezahlung erfolgt über Steuern oder Gebühren. Der Staat hat hier keine etwa über den Kapitalismus hinausweisende Funktion; sein Eigentum und seine Governance-Funktion sind vielmehr notwendig, um das System der privaten Verwertung überhaupt zu gewährleisten.

Die Beispiele zeigen, dass sich anhand des seit über hundert Jahren existierenden Rundfunks wichtige theoretische Fragen behandeln lassen, wie sie auch für das Eigentumsregime im Internet aufgeworfen sind. Die eingangs gestellte Frage, ob sich das Eigentum im Cyberspace quasi verflüchtigt, kann bezüglich seiner wichtigsten materiellen Grundlage, den Kabelnetzen, dem elektromagnetischen Wellenspektrum und den für deren Nutzung erforderlichen Computern, Gebäuden, Satelliten und so weiter nur mit einem klaren „Nein“ beantwortet werden. Alle seine Komponenten liegen fest in den Händen seiner privaten wie öffentlichen Eigentümer, die darüber befinden, wer zu welchen Bedingungen und Tarifen angeschlossen oder ausgeschlossen wird.

Das Internet

Fast hundert Jahre lang erfolgte der Informations- und Datentransport sowohl bei der drahtgebundenen wie bei der drahtlosen Telegrafie im analogen Verfahren. Lediglich beim Morsen werden Buchstaben dual verschlüsselt und diese zwar analog, aber als sequentielle, durch Pausen gegliederte Punkt-Strich-Folgen gesendet. Obwohl auch dies bereits eine Art der Digitalisierung war, gewann diese erst ab 1969 so richtig an Fahrt, als in den USA die digitale Nachrichtenübermittlung über Rechnernetze, das Internet, erfunden wurde. Der Computer wurde damit vom Rechner auch zum Kommunikationsgerät.[11] Die neue Basistechnologie war freilich nicht die schon jahrhundertelang bekannte Digitalisierung von Daten, das heißt ihre Darstellung mit nur zwei Zeichen[12], sondern die Technologie integrierter elektronischer Schaltkreise. Sie ermöglichte es, riesige Mengen digitalisierter Daten als Datenpakete um ein Vielfaches schneller und verlustloser zu übermitteln, als dies auf analoge Weise und durch Morsen möglich wäre. Das neue, aufs alte Kommunikationsnetz aufgesetzte Netz wurde durch das US-Verteidigungsministerium, in dessen Auftrag es entwickelt worden war, Anfang der 1980er Jahre aufgespalten und eines der Spaltprodukte zur öffentlichen Nutzung frei gegeben. In Verbindung mit dem Verfahren zur Erzeugung von Internetseiten und deren Verlinkung (das World Wide Web), das zehn Jahre später von der Europäischen Organisation für Kernforschung CERN, wo es erfunden worden war, ebenfalls zur freien Verfügung gestellt wurde, sowie aufgrund der Verbilligung der erforderlichen Hardware entwickelte sich seine massenhafte private, öffentliche und kommerzielle Nutzung. Das alte Kommunikationsnetz und das Internet wurden zum Cyberspace. Seine physischen Kernelemente sind neben den Computern und ihren Kommunikationsverbindungen jene Server, die als Knoten- und Verbindungspunkte der verschiedenen Netze fungieren.

Der Zugang zum Internet unterliegt weiterhin kommerziellen und verwertungsorientierten Regeln und ist keineswegs so frei und kostenlos wie das bei einem oberflächlichen Blick scheint oder wünschenswert wäre. Im Gegenteil, mit der Öffnung des Internets haben sich die Geschäftsmöglichkeiten der damit verbundenen Branchen explosionsartig vervielfacht. Die Informations- und Kommunikations-Industrie wurde international eine der am schnellsten wachsenden Industrien. Eine wichtige Voraussetzung dafür besteht darin, dass das Internet und das World Wide Web geöffnet wurden. Mit einem Schlag entstanden riesige Märkte für die erforderliche Hard- und Software, für den Ausbau der physischen Netze sowie viele neue Geschäftsmodelle. Die Öffnung des Internet war also keineswegs eine altruistische Veranstaltung, auch wenn manche Protagonisten dabei von ethischen Erwägungen geleitet worden waren. Das Potential des in staatlichen Institutionen entwickelten Internets sollte neben seiner Nutzung durch alle Bürger auch für seine Kommerzialisierung zur Verfügung gestellt werden. Wie beim physischen Netz hängen Nutzungsmöglichkeiten und kommerzielles Potenzial aufgrund des Netzwerkeeffekts von der Anzahl seiner Nutzer ab. Dies ist die Grundlage dafür, dass die Vermarktungsmöglichkeiten des Internet mit der Leichtigkeit des Zugangs zu ihm steigen. Die Öffnung verhindert also seine profitable Verwertung nicht, sie ermöglicht sie vielmehr. So wie der freie, keine direkten Kosten verursachende Zugang zu Luft und Licht, so widerspricht auch ein offenes Internet nicht der Nutzung im Verwertungsprozess. Seine Öffnung bedeutet auch nicht, dass es zu einem Gemeingut geworden wäre. Jeder Privateigentümer kann sein Eigentumsobjekt zur öffentlichen Verfügung stellen. Ein Ladenbesitzer wäre schlecht beraten, wenn er sein Geschäft geschlossen halten oder eine Eintrittsgebühr verlangen würde, denn er will darin die zu verkaufenden Waren präsentierten. Je günstiger der Laden liegt und je mehr Besucher kommen, umso besser ist das fürs Geschäft. Viele Einzelhändler, Kaufhäuser und Malls drängen sogar darauf, Schließzeiten zu reduzieren oder ganz abzuschaffen, weil die Konkurrenten im Internet ohne sie agieren. Der Zugang zum Kaufhaus wie zum Internet unterliegt aber durchaus einer Kontrolle durch die Eigentümer. Das Internet ist nicht per se aufgrund seiner natürlichen Eigenschaften zum Gemeingut prädestiniert; soll es dies sein, müsste es dazu gemacht werden.

Die alten Eigentümer der Kommunikationsnetze und die neuen Internet-Unternehmen besetzen als Gatekeeper den Zugang zum Internet und zu dessen Knotenpunkten. Sie sind es, die Internet-Domains vermitteln, Webserver bereitstellen und andere Dienste anbieten. Sie haben im Cyberspace entscheidende Hebel in ihrer Hand und üben Verfügungs- und Aneignungsmacht aus. Die Endnutzer zahlen an die Provider für den Zugang und für ein ganzes Bündel verschiedener Nutzungsmöglichkeiten zumeist in Form von Flatrates, die bei einem deutschen Durchschnittshaushalt schätzungsweise einen jährlichen drei- bis vierstelligen Euro-Betrag ausmachen. Für Unternehmen sind diese Beträge wesentlich höher; sie werden, wie die anderen Werbungs- und Vertriebskosten auch auf die Preise umgelegt, die von ihren Kunden beim Güterkauf bezahlt werden. Der Umsatz im deutschen Telekommunikationsmarkt, der allerdings nicht nur aus dem Zugang zum Internet generiert wird, betrug 2017 fast 60 Milliarden Euro, wovon allein die Deutsche Telekom AG 24,6 Milliarden Euro erzielte.[13] Der gesamte Umsatz im Cyberspace ist natürlich wesentlich höher. Wer sich also ins Internet begibt, hat den Preis dafür auch außerhalb des Pay-per-Click-Segments längst bezahlt.

Wenn die in den USA ansässige Internet Corporation for Assigned Names and Numbers (ICANN), die für die Vergabe und Verwaltung der Domain-Namen und IP-Adressen sowie das Aufstellen bestimmter Standards und Regeln des Internet zuständig ist, mitunter als die Weltregierung des Internet bezeichnet wird, dann ist das sowohl falsch als auch richtig. Zweifellos übt diese Institution, die US-amerikanischem Recht unterliegt, inzwischen aber formal unabhängig von der US-Regierung ist und als Non-Profit-Organisation betrieben wird, zentrale Governance-Funktionen aus. Insofern ähnelt sie einer Institution, die Regierungsfunktionen wahrnimmt. Als solche ist sie jedoch keineswegs die entscheidende Macht im Internet oder gar dessen Eigentümer. So wie der Bundesnetzagentur nicht die von ihr regulierten Netze gehören (selbst wenn diese sich im staatlichen Eigentum befänden), gehört der ICANN auch nicht das Internet. Von den Funktionen oder einzelnen Rechten, die das Eigentum ausmachen, liegen nur wenige in ihren Händen. Will etwa die US-Regierung in das Internet eingreifen, wie das zum Beispiel im Zusammenhang mit den Angriffen auf Afghanistan und den Irak geschah, als die dortigen Netze teilweise lahm gelegt wurden, muss sie in die Eigentumsrechte privater Provider eingreifen. Die globale Internet-Governance liegt auch nicht allein bei der ICANN. In sie sind sowohl die Staaten als auch nationale und internationalen Organisationen und Interessengruppen involviert, die auf die im Cyberspace geltenden Regeln und Standards Einfluss nehmen.[14] In diesen Regelwerken schlagen sich unterschiedliche nationale Interessen und das Kräfteverhältnis der Interessengruppen, darunter auch der Nutzer und Regierungen nieder. Die Rede von einem im Internet angeblich herrschenden „Multistakeholder-Modell“, das auf der Selbstorganisation aller beteiligten Gruppen als „einen lebensweltlich konstituierten Handlungszusammenhang, der weder staatlicher, organisatorischer noch unternehmerischer Verordnung entspringt, sondern netzwerkartig, vielgestaltig, flexibel, eigenverantwortlich, dezentral und kollektivorientiert sogenannte bottom up-Strukturen repräsentiert“,[15] verklärt die tatsächlichen Verhältnisse. Laura DeNardis, eine international bekannte Expertin auf diesem Gebiet, schreibt von einem „globalen Krieg der Internet-Governance“[16], und in diesem Krieg sind Macht und Einfluss keineswegs symmetrisch verteilt. Neben wirtschaftlichen existieren selbstverständlich auch militärstrategische und globalpolitische Interessen. Aber auch wenn die privaten Internet-Provider im Gefüge dieser Governance nur eine von vielen Interessengruppen sind und sich bei der Ausübung ihrer Macht gewissen Regeln unterwerfen müssen, ist das keineswegs zu ihrem Nachteil. In einem Netz sind offene, für alle geltende Standards und Regeln aufgrund des Netzwerkeffekts allemal auch ökonomisch effizienter, als ihre ausschließlich proprietäre Ausgestaltung. Das gilt vor allem dann, wenn der eigene Standard wegen der Vielzahl der Akteure oder einer oligopolistischen Marktstruktur nicht generell durchgesetzt werden kann.

Die Plattformen

Das Internet und seine Programme erlauben auf den ersten Blick eine direkte Vernetzung der Nutzer als Gleichberechtigte; sie scheint peer-to-peer (P2P), also hierarchielos zu funktionieren. Jeder und jede, die sich leidlich auskennen, können ihre persönliche Plattform, ihre Internetseite oder ihren Blog bauen und weltweit vernetzen; zwischen 1und 2 Milliarden Internetseiten sollen bereits existieren. Es ließen sich, so der Traum vieler Aktivisten, der Informationsaustausch und letztlich sogar die Produktion via Internet quasi an allen Institutionen und am Markt vorbei direkt durch die Individuen in kollaborativen Produktionsprozessen organisieren. Paradebeispiele sind Open Source, freie Software und Wikipedia, wo mit großem Enthusiasmus auf freiwilliger Basis und scheinbar ohne Bezahlung gesellschaftlich bedeutsame Güter produziert werden. Herrschen hier also vielleicht schon kommunistische Prinzipien, Commonismus, wie es heute oft heißt?[17] Das wäre wohl der Fall, wenn es denn so funktionieren würde. Aber wie gezeigt, funktioniert diese Vernetzung nicht ohne die verwertungsorientierten Internet-Provider. Wird der Netzzugang nicht bezahlt, wird er abgeschaltet; fällt das Netz aus oder sind die Server und Leitungen überlastet, entsteht keine Verbindung. Einer der größten Internetknoten der Welt wird von der in Frankfurt am Main ansässigen DE-CIX Management GmbH betrieben und kontrolliert, hinter der ein Verein hunderter großer Internet-Provider steht. An diesem Knoten bedienen sich selbstverständlich auch der deutsche BND und andere Geheimdienste. Das alles ist kein Commonismus. Das Netz scheint dezentral, aber es funktioniert nicht ohne Server und Knoten, die zudem eine hierarchische Ordnung aufweisen. Die Nutzer können sich individuell vernetzen in einer Welt, die ihnen nicht gehört, und die wirklichen Eigentümer könnten das alles mit einem Knopfdruck beenden. P2P wäre eine commonistische Veranstaltung nur dann, wenn die Peers selbst über den Netzzugang, die Regularien sowie die Netz-Infrastruktur uneingeschränkt verfügen könnten.

Die Internetseiten und Blogs einzelner Personen, die den größten Anteil an allen Seiten haben, dominieren nicht den Cyberspace. Entscheidend sind die Plattformen, auf denen internet-basierte Dienstleistungen angeboten und realisiert werden. Auch Wikipedia ist eine solche Plattform. Sie wird von der Wikimedia Foundation, einer Non-Profit-Organisation betrieben, die ihre Server, auf denen die Daten zum kostenlosen Zugriff liegen, an vier Standorten betreibt. Sie wird durch Crowdfounding und Sponsoring, übrigens auch durch große profitorientierte Plattformen, finanziert und lebt vor allem von den unbezahlten Beiträgen vieler Hobby-Wikipedianer, die ihren Unterhalt woanders verdienen. Solche gemeinnützigen Plattformen entstehen auf vielen Gebieten und eine breitere und öffentliche Unterstützung wäre wünschenswert. Stimmt es aber, wenn Yochai Benkler schreibt, hier entstehe „inmitten der am meisten entwickelten Wirtschaften der Welt eine neue Produktionsweise“?[18] Auch wenn die genutzte Technik und Organisationsform neu ist, handelt es sich im Grunde um eine gemeinnützige Organisation wie es viele andere schon immer gibt. Der Kapitalismus war nie monolithisch, in ihm existieren neben den Kapitalunternehmen immer schon nicht-kapitalistische Warenproduzenten, Genossenschaften, gemeinnützige oder Non-Profit-Produzenten sowie staatliche Unternehmen. Dies zeigt, dass Produktionsformen, die nicht auf kapitalistischem Privateigentum und der Arbeit eigentumsloser Lohnarbeiter basieren, auch innerhalb dieses Systems existenzfähig sein können. Das Zusammenleben der Menschen funktionierte übrigens nie – auch nicht im Kapitalismus – ohne altruistische, auf Gegenseitigkeit, Vertrauen und Solidarität beruhenden Praxen in vielen Bereichen. Solche nicht-kapitalistische Produktionsformen könnten sich unter bestimmten Bedingungen durchaus als Keimzellen eines Post-Kapitalismus erweisen. Es ist jedoch fraglich, ob sie das aus sich heraus schaffen, also durch rascheres Wachstum im Vergleich zur Akkumulation des Privatkapitals und indem sie dieses verdrängen. In den Jahrhunderten ihrer Existenz vermochten sie die Dominanz des Kapitals bisher jedenfalls nicht ins Wanken zu bringen. Die Vertreter der Kapitalinteressen, die das Angebot solcher Produktionsmodelle natürlich ebenfalls nutzen und verwerten, betrachten sie auch nicht als jenes „Gespenst“, das ihre Herrschaft bedroht. Die mittlerweile geradezu legendäre, im P2P-Verfahren entwickelte Linux-Software wird im großen Maßstab privat verwertet. Red Hat, die größte Firma auf diesem Gebiet, wurde im Herbst 2018 für 34 Milliarden Dollar von IBM aufgekauft. Linus Torvalds, der Schöpfer von Linux, ist inzwischen auch aufgrund der Aktienoptionen, die er an Red Hat hält, mehrfacher Millionär.[19]

Weit schneller und kraftvoller als Non-Profit-Organisationen wachsen im expandierenden Cyberspace also die kommerziellen Plattformen, die sich als wahre Maschinen der Geldvermehrung erwiesen haben. Neben internen Plattformen von Institutionen, Organisationen und Unternehmen existieren vor allem Kommunikationsplattformen (soziale Netzwerke), Suchplattformen (z.B. Google), Marktplätze und Vergleichsportale (z.B. ebay), Internethändler (amazon, alibaba), Vermittlungsplattformen (sharing economy) und reine Informationsplattformen oder Inhaltsdienste (Internetzeitungen, Bibliotheken usw.). Im Zusammenhang mit dem „Internet der Dinge“ bieten auch traditionelle Produktionsfirmen spezifische Internet-Dienstleistungen über ihre eigenen Plattformen an. Beständig entstehen neue Geschäftsmodelle, daneben werden alte Modelle zerstört oder integriert. Es handelt sich um das Paradebeispiel einer „schöpferischen Zerstörung“, in der alle Teilprozesse der Reproduktion, von der Produktion über Distribution und Zirkulation bis zur Konsumtion umgewälzt werden. In diesem Umwälzungsprozess sind die Marktstrukturen noch nicht endgültig fixiert. Ulrich Dolata schreibt deshalb von „volatilen Monopolen“[20], zeigt aber auch, dass die Monopolmacht der großen Konzerne inzwischen wohl kaum noch umstritten ist.[21] Die führenden Plattformen haben in ihrem Marktsegment dominante, nur schwer angreifbare Positionen aufgebaut. Bei Suchmaschinen hat Google einen Anteil von 89 Prozent, bei Smartphones Android (Google) 84 Prozent, bei Apps der Apple App Store 63 Prozent, bei Social Media in den USA: Facebook und YouTube 66 Prozent, Messenger-Dienste: WhatsApp und Facebook 42 Prozent, Desktop Betriebssysteme: Windows von Microsoft 76 Prozent, E-Commerce: Amazon 90 Prozent, Online-Werbung (USA): Google und Facebook 66 Prozent.[22]

Viele Plattformen zielen von vornherein auf einen potentiell internationalen Markt und verfügen daher über ein hohes Wachstumspotenzial, eine hohe Skalierbarkeit. Die Transaktionskosten sind sowohl für Anbieter wie Nachfrager verhältnismäßig gering; die Transportkosten bei Warenlieferungen werden durch andere Einsparungen kompensiert. Die Erweiterung des Nutzerkreises vieler Plattformen verursacht kaum zusätzliche variable Kosten, das heißt, in einem bestimmten Skalierungsbereich kommt es zu sinkenden Grenzkosten. Dabei ist allerdings zu berücksichtigen, dass damit die Preise und der Profit nicht Null werden, wie das Jeremy Rifkin, Eben Moglen, Paul Mason und andere meinen. Auch im Internet entstehen ab einer bestimmten Schwelle Staukosten und die Zahl der Server und ihre Kapazität sowie die der Transport- und Kommunikationsverbindungen müssen erweitert werden. Diese Fixkosten gehen selbstverständlich in die Preisbildung ein. Und wenn Preise sinken, dann wirkt das auch auf der Kostenseite, so dass der Profit keineswegs verschwindet. Zudem wirken hier natürlich die bereits beschriebenen Netzwerk- und Konzentrationseffekte, wodurch die Durchsetzung von Monopolpreisen vor allem gegenüber Zulieferern und werbenden Unternehmen begünstigt wird. Die Vielfalt der Verwertungsmöglichkeiten, die Plattformen heute bieten, erlaubt ihr Vordringen in weitere Wirtschaftsbereiche und die Quersubventionierung von Angeboten, die von den Nutzern nicht direkt und unmittelbar bezahlt werden müssen. Wie schon erwähnt, ist eine Einnahmequelle vieler Plattformen die Werbung, die aufgrund ihrer Reichweite besonders lukrativ ist. Die übrigen Plattformen generieren ihre Einnahmen wie jeder andere Händler oder Handelsvermittler über Handelspannen, Provisionen und Gebühren. Die wohl bekannteste Plattform, Google, ist Teil der weltweit operierenden alphabet-Holding. Sie verfügt über ein gutes Dutzend riesiger Rechenzentren. Das Eigenkapital, zu dem Sach-, immaterielles und finanzielles Kapital gehört, betrug laut Vorjahresbilanz 152 Milliarden US-Dollar.[23] Die Ausgaben für Forschung und Entwicklung beliefen sich auf 16 Milliarden Dollar; das liegt nahe an den FuE-Ausgaben der deutschen Bundesregierung in Höhe von 17 Mrd. Euro.[24] Der Konzernüberschuss lag bei 12 Milliarden Dollar. Die Profiterwartungen der Anleger spiegeln sich in einem gigantischen Marktwert von 766 Milliarden Dollar wieder.[25]

Nahezu alle global agierenden Internetgiganten sind Kapitalgesellschaften, die ihr Entstehen nicht nur einer genialen Innovation oder Geschäftsidee vor dem Hintergrund der öffentlichen Wissenschafts- und Bildungsinfrastruktur verdanken, sondern auch der Bereitstellung nicht unbeträchtlichen Risikokapitals, das in Zeiten der Finanzialisierung in hohem Maße zur Verfügung steht. Sie sind Kapitalgesellschaften, deren Aktienanteile zwar größtenteils relativ breit gestreut sind – meist über 90 Prozent der Anteile gelten als Free-Float-Aktien, d.h. die einzelnen Aktienpakete machen weniger als 5 Prozent aller Anteile aus – zumindest bei den zehn Größten aber befinden sich die wuchtigsten Pakete in der Hand von Finanzunternehmen. Immer wiederkehrende Namen sind BlackRock, Vanguard oder Fidelity. Bei alphabet besitzen diese drei etwa 17 Prozent aller Anteile und haben angesichts der sonstigen Aktienstreuung einen bedeutenden Einfluss auf die Geschäftsausrichtung des Konzerns.[26] Alphabet selbst ist inzwischen auch ein Finanzunternehmen, das zum Beispiel Risikokapital in Start-Up-Unternehmen investiert. Von einem Verschwinden des Eigentums kann also auch hier überhaupt keine Rede sein.

Wirtschaft und Gesellschaft werden in ihrer Gesamtheit dem Prozess der Digitalisierung unterworfen; das betrifft den Alltag der Menschen, die Unternehmen und ihre Beziehungen, das betrifft den Staat und das Regierungshandeln. Damit werden die Plattform-Unternehmen zum zentralen Element der Infrastruktur überhaupt. Ihren Eignern und Managern wächst eine gigantische Machtfülle zu. Der staatliche und internationale Ordnungsrahmen für das Agieren der Plattformbetreiber hinkt hinter den Realitäten der sich rasant wandelnden Märkte und Geschäftspraktiken zurück. „Die Langsamkeit der Regierung ist ein Grund, warum Silicon Valley so gut funktioniert“, kommentierte Sebastian Thrun, ein führender Wissenschaftler bei Google.[27] Allein Kartellämter und Monopolkommissionen haben größte Schwierigkeiten schon mit der Abgrenzung der Märkte, wenn sie der Frage nach der formalen Marktmacht nachgehen wollen. Als die US-Regierung 2015 ankündigte, sich aus der Aufsicht von ICANN zurückzuziehen, formulierten auch „deutsche Interessengruppen“ gemeinsame Vorstellungen über die künftige Governance, wobei die Bundesregierung selbstverständlich am selben Strang wie die Privatwirtschaft zog.[28] Obwohl die Regierungen inzwischen verstärkt nach Möglichkeiten suchen, den Rechtsrahmen an die neuen Bedingungen anzupassen, bringen sie doch wesentlich mehr Ressourcen dafür in Bewegung, die nationale Digitalbranche international wettbewerbsfähig zu machen. Im „Weißbuch Digitale Plattformen“ der deutschen Bundesregierung wird zwar die Notwendigkeit der Weiterentwicklung des Ordnungsrahmens und der Governance-Regeln betont, Ausgangspunkt der „Digitalen Strategie 2025“ ist jedoch die Feststellung, dass es „fatal“ wäre, würde Deutschland im sogenannten E-Intensity-Ranking zurückfallen.[29] Im Rahmen der „Nationalen Industriestrategie 2030“, die das Bundeswirtschaftsministerium Anfang Februar dieses Jahres vorlegte, wird explizit die staatliche Förderung „nationaler und europäischer Champions“ auf diesem Gebiet gefordert. Im Rennen zwischen einer Governance, die sich am Allgemeinwohl orientieren müsste, und den profitorientierten Plattformen geben letztere das Tempo vor.

Geistige Güter und Big Data

Die Macht der Plattformen beruht nicht zuletzt auf ihrer Verfügungsmacht über riesige Datenmengen und Rechner- bzw. Serverkapazitäten zu deren Aneignung, Speicherung, Verarbeitung und Verwertung. Damit kommt das letzte Moment des Cyberspace, dessen Eigentum zu analysieren ist, in den Blick: Daten und geistige Güter. Der Umfang der im Internet zirkulierenden und gehandelten sowie in der „Cloud“, also auf Servern der Plattformen liegenden Datenmenge, hat inzwischen unfassbare Dimensionen erreicht und verdoppelt sich etwa alle zwei Jahre. Für das Jahr 2025 wird dieses jährlich umlaufende digitale Datenvolumen auf 175 Zettabyte geschätzt, das entspricht etwa dem Inhalt eines DVD-Stapels, der 23 Mal bis zum Mond reicht.[30] Und Eric Schmidt verkündete, als er noch CEO von Google war: „Wenn wir über das Organisieren aller Informationen dieser Welt sprechen, dann meinen wir alles, verfügbar für alle.“[31]

Die Milliarden an Bürgern, die das Internet nutzen, sind in diesem Geflecht an Eigentumsbeziehungen nicht nur Konsumenten. Mit ihrem Nutzungsverhalten sind sie zugleich wichtige Rohstofflieferanten der Internetkonzerne. Sie bezahlen die Nutzung mit ihren Daten, die sie bewusst oder unbewusst zur Verfügung stellen oder die von den Plattformen abgegriffen werden, indem mittels komplexer Algorithmen das Nutzungs- und Bestellverhalten, ihr Handeln ganz allgemein ausgewertet wird. Und inzwischen greifen die Datenkonzerne auch über den Staat, dem sie ihre Hard- und Software, Verwaltungs- und Analyseinstrumente und „Smart City“-Projekte verkaufen, auf die Daten der Bürger und öffentlicher Institutionen zu. Mit der faktischen „Freigabe“ ihrer Daten verlieren Bürger und Institutionen auch die Kontrolle über sie. „Macht hat, wer die Plattform kontrolliert“, und statt Freiheitsgewinn erfahren sie Kontrollverlust, schreibt Michael Seemann.[32] Ausbeutungs- und Entfremdungsvorgänge gewinnen damit neue Facetten und Dimensionen.

Daten sind die Zeichenfolgen, mit denen Informationen und Wissen, also geistige Güter codiert werden. Die Digitalisierung ermöglicht es, sie in einer einheitlichen Form zu transportieren, zu verarbeiten, zu verknüpfen und zu speichern. Wer über das entsprechende Wissen, die Geräte und Programme sowie einen Netzzugang verfügt – und nur dann, wenn er über all das verfügt – kann sich aufgrund der einheitlichen digitalen Codierung heute auf ziemlich einfache Weise ein gigantisches Wissensreservoir erschließen. Die scheinbar völlig freie Verfügbarkeit, die auch Google verspricht, ist es, die zu der eingangs zitierten Schlussfolgerung führt, damit sei der Kapitalismus am Ende. Niemand sei mehr bereit etwas zu zahlen, und könne dazu auch nicht mehr gezwungen werden. Viele Kreative und Nutzer steuerten Daten freiwillig bei schreibt Michael Wache und schließt daraus auf ein „Absterben von Eigentumsbeziehungen“.[33]

Nach der lehrbuch-üblichen Güterklassifikation gelten geistige Güter als öffentliche Güter, weil, wie schon erwähnt, niemand davon ausgeschlossen werden könne – eine Einhegung also nicht möglich sei – und ihr Gebrauch nicht-rival sei, das heißt, ohne Verlust oder Abnutzung von vielen Nutzern gleichzeitig genutzt werden könnten. Die gängige Parabel dazu stammt vom frühen US-Präsidenten Thomas Jefferson: "Wem ich eine Idee mitteile, der bekommt sie, ohne dass sich mein Wissen verringert, so, als ob er seine Kerze an meiner entzündet, ohne dass diese ausgeht."[34] Doch das stimmt keineswegs uneingeschränkt. Ist der Gegenüber taub, versteht er meine Sprache nicht und hat er ein schlechtes Gedächtnis, verfügt er nach dem Gespräch keineswegs über meine Idee. Der Einwand mag spitzfindig erscheinen, verdeutlicht aber, dass diese Beschreibung der Eigenschaften geistiger Güter nur unter ganz bestimmten materiellen Bedingungen zutrifft. Freilich: In der bisherigen Geschichte der Menschheit waren diese Bedingungen bezüglich wichtiger geistiger Güter im Großen und Ganzen gegeben. Die menschliche Entwicklung beruht von Anfang auch darauf, dass das Wissen in Lernprozessen verlustfrei weitergegeben und parallel genutzt werden kann und bei seinem Gebrauch nicht verbraucht wird. Geeignete Träger und Kopiermedien waren offensichtlich in ausreichendem Maße vorhanden und so blieben Erfahrungen erhalten und wurden akkumuliert. Das war unter allen gesellschaftlichen Bedingungen der Fall und ist keine Besonderheit des digitalen Zeitalters. Die zitierte Metapher beschreibt also keineswegs ein Prinzip, das von sich aus geeignet wäre, die Welt der kapitalistischen Marktwirtschaft aus den Angeln zu heben. Und natürlich ist die Propertisierung von Wissen auch keine Erfindung des Kapitalismus. Immer schon hat die Geheimhaltung von Verfahren und Techniken eine große Rolle gespielt und subalterne soziale Klassen waren seit jeher von signifikanten Teilen des Wissens ausgeschlossen indem sie Analphabeten blieben und von Bildung ferngehalten wurden.

Schon anhand des Rundfunks war gezeigt worden, dass Information keineswegs per se öffentliche Güter sind. Singt Person A der B ein Lied vor, so „haben“ sie es beide und können es auch beide hören; vorausgesetzt, es wird die Sprache verstanden und das Gedächtnis funktioniert. Das heißt, während zum Beispiel der Apfel ein Privatgut ist, von dessen Gebrauch B den A nach der Übergabe ausschließen kann und den dann normalerweise auch nur B, nicht aber A essen kann, scheint das beim Lied nicht so zu sein. Es scheint also ein öffentliches Gut zu sein, das aufgrund seiner natürlichen Eigenschaften nicht marktfähig ist. Wenn jedoch A dem B eine Musik-CD gibt, dann ist A nicht mehr im Besitz der Musik, das die CD enthält. Die Verdopplung des geistigen Gutes funktioniert nur, wenn A weiterhin über einen materiellen Träger verfügt, dem das geistige Gut eingeschrieben ist. Es müsste mit entsprechenden Verfahren und Geräten kopiert werden und in Jeffersons Licht-Beispiel brauchen beide eine Kerze. Im Falle des Liedgesangs erfolgt die Übertragung mittels einer Schallwelle und der materielle Träger ist das menschliche Hirn, das mit einem halbwegs guten Gedächtnis ausgestattet sein muss. Beim Spielen einer Symphonie funktioniert das kaum, wie bei einem Konzert leicht beobachtet werden kann. Ein Dirigent, der ohne Noten dirigiert, hat ein solch gutes Gedächtnis; die meisten Orchestermitglieder haben es nicht, sie spielen vom Notenblatt und nimmt man es ihnen weg, wird das Konzert zur Kakophonie. Archivare in aller Welt können ein Lied davon singen, dass selbst der Erhalt digitalisierter Dokumente keine geringen Anstrengungen erfordert, weil die Datenträger verschleißen.

Wie ist es mit der Nicht-Rivalität beim Hören des Liedes? Auf den ersten Blick scheint auch hier klar zu sein, dass eine zusätzlich anwesende Person C beim Vorsingen das Lied genauso gut hört. Es liegt Nicht-Rivalität zwischen A, B und C vor. Aber würden es tausend anwesende Hörer auch hören? In einem solchen Falle müsste die Akustik sehr gut sein und A über starke Stimmfähigkeiten verfügen. Sonst hören ihn tatsächlich nur einige wenige in den vorderen Reihen. In diesem Falle liegt also, obwohl es sich um das gleiche Lied handelt, Rivalität vor. Das ist auch sehr gut daran zu beobachten, dass es bei Konzerten zu Drängeleien um die besten Plätze kommt. Auch hier wird deutlich, dass Nicht-Rivalität bei der Nutzung geistiger Güter keineswegs von vornherein gegeben ist.

Daraus folgt auch, dass ein Ausschluss von geistigen Gütern möglich ist. Digitalisierung, Internet und die massenhafte Verbreitung billiger Hardware haben den Ausschluss schwieriger, aber keineswegs unmöglich gemacht. Übrigens hat es auch sehr lange gedauert, bis die Menschen im Neolithikum gelernt hatten, Zäune oder Mauern um ihre Felder zu errichten. Der digitale Datenschutz wird heute mittels technisch hochentwickelter Digital Rights Management Systeme (DRM) realisiert. Aufwendungen (Transaktionskosten), die notwendig wären, den Ausschluss technisch oder organisatorisch zu realisieren, stehen aber manchmal in keinem Verhältnis zum dadurch erreichbaren ökonomischen Nutzen. Es macht für einen Musiker oder seinen Verleger keinen Sinn, die Musik nur noch in Bezahlkonzerten zu spielen. Die Voraussetzung für die Zahlungsbereitschaft potenzieller Besucher ist die Bekanntheit dieser Musik, die nur erreicht wird, wenn sie zum Beispiel im Radio zunächst kostenlos – abgesehen von der Radiogebühr – zu hören ist oder wenn im Internet Trailer abgespielt werden. Für einen Patentinhaber ist es nicht nachteilig, dass der Inhalt des Patents öffentlich ist, denn trotz des Risikos unerlaubter Imitationen entsteht nur so ein Markt, auf dem er das Patent verkaufen oder Lizenzgebühren realisieren kann. Je öffentlicher, umso besser, weil die parallele Nutzungsmöglichkeit des Inhalts die Vergabe vieler Lizenzen ermöglicht. Er muss nur über die Macht verfügen, die Bezahlung für eine verwertungsorientierte Anwendung zu erzwingen; dazu droht er mit der staatlichen Gewalt, die sein Eigentumsrecht durchsetzt. Und sobald ein Werk oder eine Erfindung nach Ablauf der Schutzfrist gemeinfrei geworden ist, hört die Verwertung nicht etwa auf. Goethes gemeinfreies Werk „Faust“ wird von hunderten Verlagen in zehnttausenden Exemplaren bis auf den heutigen Tag verkauft. Die moderne Musikindustrie wurde zwar infolge von unbezahlten Downloads mächtig durchgerüttelt, hat aber längst Geschäftsmodelle und Schutzverfahren entwickelt, um weiterhin profitabel zu agieren und ihre globalen Umsätze wieder zu steigern.

Die Digitalisierung und das Internet haben die ökonomische Situation bezüglich des Eigentums an geistigen Gütern so dramatisch verändert, dass die Ausgestaltung des Immaterialgüterrechts kaum hinterherkommt, was tatsächlich zu vielen Lücken bei der kapitalistischen Einhegung von Wissen, Informationen und Daten geführt hat. Sie sollen durch die Ausdehnung vor allem des Patent- und Urheberrechts sowie durch die Neufassung des Datenschutzrechts geschlossen werden. Aber da geistige Güter, um kommuniziert werden zu können und ökonomisch und gesellschaftlich wirksam zu werden, immer einer materiellen Form bedürfen, ist ihre private Verwertung trotzdem bereits möglich. Wenn Google alles Wissen dieser Welt sammelt und es zur Verfügung stellt, so liegt es auf den Servern von Google und zwingt die potenziellen Nutzer, sich auf diese Plattform zu begeben. Sie müssen sich den Zugang bei Netzbetreibern und Internet-Providern kaufen, benötigen Hardware und Energie und sie geben mit der Suchanfrage unvermeidlich persönliche Daten preis, die Google verwertet. Google wird auch besucht, weil diese Plattform als „Reiseführer“ im unermesslichen und weiter wachsenden Dschungel des Wissens der Welt fungiert. Es tut hier nichts zur Sache, dass die Suche durch die hinterlegten Algorithmen manipulative Momente hat (was auch für jede öffentliche Bibliothek und ihr Schlagwortregisters gilt) und es für die Entwicklung von Wissenschaft und Gesellschaft wünschenswert wäre, wenn all dies nicht der Kontrolle und der Verfügungs- und Aneignungsmacht eines profitorientierten Konzerns unterliegen würde. Im Zusammenhang mit der hier untersuchten Frage ist allein von Bedeutung, dass Digitalisierung und Internet keineswegs mit der Erosion von Privateigentum und Kapitalverwertung verbunden sind. Und wenn sich theoretisch zeigen lässt, dass Wissen, das sich nicht in Gemeineigentum befindet, geringere gesamtwirtschaftliche Wohlfahrt erzeugt als freies Wissen (These von der „tragedy of anti-commons“[35]), dann bedeutet dies natürlich nicht, dass seine Privatheit weniger private Profite erbringt. Auch profitorientierte Unternehmer kennen natürlich die Vorteile freien Wissens und nutzen sie, indem sie beispielsweise Forschungs- und Entwicklungskooperationen selbst mit Konkurrenten eingehen oder die Entwicklung freier Software fördern. Die Konstruktion geistiger Schutzrechte erfolgte von Anfang an, seit dem englischen „statue of monopolies“ von 1624, im Bewusstsein dieser „tragedy“. Patente sollten zwar ein Monopol ermöglichen, begrenzen es jedoch zeitlich und verpflichten zur Veröffentlichung.

Manche der anfangs zitierten Protagonisten der Auffassung vom eigentumsnegierenden Charakter geistiger Güter sehen einen Zusammenhang zu einem von Karl Marx im so genannten „Maschinenfragment“ notierten Gedanken, wonach die auf dem Tauschwert und der Ausbeutung beruhende Produktion zusammenbreche, sobald die Wissenschaft statt unmittelbarer Arbeit zur Quelle des Reichtums geworden sei.[36] Ein grandioses Missverständnis. Wissen existiert nicht abstrakt, zur seiner Anwendung bedarf es einer Materialisierung. Einsteins berühmte Formel E = mc2, jedem bekannt und frei zugänglich, ist erst mittels konkreter Entwicklungen und Anwendungen in industriellen Prozessen und mittels Maschinen, verbunden mit Investitionen verwertbar. Wissen wird immer nur via geistiger Arbeit eine Quelle des Reichtums. Nur seine Übersetzung in physische Arbeitsmittel, und seien es nur die Bits und Bytes von Software, mit der die Hardware betrieben wird, und mittels der lebendigen Arbeit, die all das in Bewegung setzt, entsteht Reichtum.[37]

Kämpfe im Cyberspace

Im Cyberspace herrscht nicht nur Konkurrenzkampf um die Verfügungs- und Aneignungsmacht in seinen verschiedenen Segmenten und unter den verschiedenen Verwertern, sondern – wie Eben Moglen völlig zu Recht in seinem Manifest schreibt – auch Klassenkampf. Er umfasst zum einen die Auseinandersetzung zwischen den Eigentümern des Netzes und denjenigen, die es produzieren, den Programmierern, den Angestellten der Netzbetreiber und Provider oder den Arbeitern, die Kabel verlegen und Servicedienstleistungen erbringen. Dazu gehören inzwischen auch Hunderttausende Click-Worker oder per Werkvertrag eingebundene Frei- und Nebenberufler, die mit ihren eigenen Produktionsmitteln Zuarbeiten leisten. Obwohl sie keine Lohnarbeiter im strengen Sinne sind, arbeiten sie wie abhängig Beschäftigte und ihre Selbständigkeit ist nur formeller Natur. Hier sind durchaus auch die Enthusiasten der freien Software einzuordnen, auch wenn sie diese Einordnung wohl zurückweisen würden.

Ein wirklicher Kampf existiert aber auch zwischen den Eigentümern und den Millionen und Milliarden an Bürgern um freien Zugang, um demokratische Kontrolle und Governance sowie um die gemeinschaftliche Verfügung über das Netz. Obwohl die Zahl der Aktivisten und Organisationen, die für eine solche Emanzipation im Netz streiten, größer wird, neigt sich das Kräfteverhältnis heute keineswegs in ihre Richtung und die Propertisierung des Internet, die Verfestigung privater Aneignungs- und Verfügungsmacht schreitet weiter voran. Der Erfinder des World Wide Web am europäischen CERN, Tim Bernes-Lee, der sich stark für seine Öffnung eingesetzt hatte, äußerte sich erst jüngst tief besorgt über dessen Entwicklungstendenzen: „Das World Wide Web ist in Gefahr. Wir haben die Kontrolle über unsere persönlichen Daten verloren und sie werden als Waffen gegen uns gerichtet. Der Zugang zu Nachrichten und Informationen wird durch niederträchtige Akteure weltweit manipuliert.“[38] Er forderte deshalb einen neuen globalen Vertrag für das Web. Freilich unterliegt er einer Illusion, wenn er glaubt, das Netz wäre jemals „frei“ gewesen. Die Freiheit des Netzes, die Aufhebung des Kapitaleigentums am und im Netz und die Verwandlung von geistigen Güter in Gemeingüter sind keine Selbstläufer, sondern können nur das Resultat politischer Kämpfe sein. Eben Moglen glaubt, „die Wissensarbeiter in der digitalen Gesellschaft werden dadurch radikalisiert, dass sie einen Widerspruch sehen zwischen dem, was möglich wäre und dem, was die bürgerliche Ideologie sie zu akzeptieren zwingt. Aus diesem Widerspruch entsteht das Bewusstsein einer neuen Klasse und mit dem Wachsen ihres Selbstbewusstseins wird das Ende des Eigentums eingeläutet.“[39] Ob diese Hoffnung tragfähig ist, kann hier allerdings nicht weiter erörtert werden, aber ohne die Verwandlung dieses Bewusstseins in politisches Handeln wird das wohl nichts.


[1] Eben Moglen, The dotCommunist Manifesto (January 2003). http://emoglen.law.columbia. edu/publications/dem.html (09.11.2018) Alle, auch die folgenden englischsprachigen Zitate sind vom Autor übersetzt.

[2] Paul Mason, Postkapitalismus. Grundrisse einer kommenden Ökonomie, Berlin 2016, S. 16; Erik Ohlin Wright, Reale Utopien, Berlin 2017, S. 11.

[3] Jeremy Rifkin, Die Null Grenzkosten Gesellschaft. Das Internet der Dinge, kollaboratives Gemeingut und der Rückzug des Kapitalismus, Frankfurt a.M./ New York 2014.

[4] www.internetworldstats.com (20.11.2018)

[5] Michael Betancourt, Kritik des digitalen Kapitalismus, Darmstadt 2018, S. 78.

[6] Ralph Hintemann, Jens Clausen, Bedeutung digitaler Infrastrukturen in Deutschland, Berlin 2018, S. 18.

[7] Störsender oder nationale Firewalls funktionieren diesbezüglich mehr schlecht als recht.

[8] Formaljuristisch sind Hoheitsrechte natürlich keine staatlichen Eigentumsrechte. Letztere unterliegen den unter anderem im BGB fixierten privatrechtlichen Bestimmungen. Die Ausübung von Hoheitsrechten ist dagegen öffentlich rechtlich und völkerrechtlich geregelt. Der Staat nimmt damit die mit dem Gemeineigentum – zum Beispiel an der Luft – verbundenen Verfügungs- und Aneignungsrechte der Gemeinschaft wahr, wobei an dieser Stelle dahingestellt bleiben kann, ob er wirklich die Interessen der Allgemeinheit vertritt.

[9] www.bundesnetzagentur.de (23.11.2018)

[10] www.dslweb.de (23.11.2018)

[11] Der Autor war als Student 1974 im Rechenzentrum der Martin-Luther-Universität Halle Zeuge erster Versuche der DDR auf diesem Gebiet.

[12] Lange bevor Gottfried Wilhelm Leibniz sich im 17. Jahrhundert wohl als einer der ersten Europäer mit dem Dualsystem befasste, kannte man es schon im alten Indien und in China.

[13] Bundesnetzagentur, Jahresbericht 2017, Bonn 2018, S. 46.

[14] Vgl. Friedrich-Ebert-Stiftung, Wer regiert das Internet? Akteure und Handlungsfelder, Bonn 2016.

[15] Gerrit Götzenbrucker, Roman Hummel, Das Netz der Netzwerke: Selbstorganisation im Internet, in: SWS-Rundschau, 41 (3). S. 333.

[16] Laura DeNardis, The Global War for Internet Governance, New Haven, London 2014, S. 2f.

[17] Der Begriff stammt von Nick Deyer-Witheford, der ihn als „Vervielfachung von Commons“, also von Gemeingütern definiert (Commonism. http://www.turbulence.org.uk/turbulence-1/commonism/. Seite 2. (01.02.2018)

[18] Yochai Benkler, The Wealth of Networks, New Haven, London 2006, S. 6.

[19] https://de.wikipedia.org/wiki/Linus_Torvalds (19.02.2019)

[20] Ulrich Dolata, Volatile Monopole. Konzentration, Konkurrenz und Innovationsstrategien der Internetkonzerne, in: Berliner Journal für Soziologie online (2015), S. 1.

[21] Ulrich Dolata: Big Four, Die digitale Allmacht? In: Blätter für deutsche und internationale Politik 4/2018, S. 82. Vgl. auch: Ulrich Dolata, Apple, Amazon, Google, Facebook. Konzentration, Konkurrenz und Macht im Internet. In: Z 108 (Dezember 2016), S. 55-68.

[22] Clark Parsons, Philipp Leutiger, Andreas Lang, David Born, Fair Play in der digitalen Welt, Berlin 2016, S. 17.

[23] https://www.wallstreet-online.de/aktien/alphabet-registered-a-aktie/bilanz (9.11.2018).

[24] Bundesministerium für Bildung und Forschung, Daten und Fakten zum deutschen Forschungs- und Innovationssystem, Berlin 2018, S. 13.

[25] Marktwerte sind Erwartungsgrößen, die sich aus dem aktuellen Kurs der zum jeweiligen Zeitpunkt verkauften Aktien ergeben, wobei auch die nicht gehandelten Aktienbestände zu diesem Kurs bewertet werden. Würden Aktieninhaber kurzfristig alle verkaufen, könnte dieser Kurs keineswegs realisiert werden; er und damit auch der Marktwert würden sofort sinken.

[26] Vgl. Unternehmensdaten der Top-Ten-Internetkonzerne unter finanzen.net (04.12.2018)

[27] Zitiert in: Clark Parsons, Philipp Leutiger, Andreas Lang, David Born, Fair Play in der digitalen Welt, Berlin o.J., S. 24.

[28] Bundesministerium für Wirtschaft und Energie, Verband der deutschen Internetwirtschaft u.a., Position deutscher Interessengruppen. Leitlinien und Handlungsempfehlungen zur Überleitung der Aufsicht über die IANA-Funktionen, Berlin 2015.

[29] Bundesministerium für Wirtschaft und Energie, Weißbuch Digitale Plattformen, Berlin 2017, S. 81.

[30] David Reinsel, John Gantz, John Rydning, The Digitization of the World – From Edge to Core, Seagat 2018, S. 6.

[31] https://www.wissen.de/google (08.12.2018)

[32] Michael Seemann, Das neue Spiel. Strategien für die Welt nach dem digitalen Kontrollverlust. Freiburg 2014, S. 204.

[33] Michael Wache, Content ohne Eigentum. Das Absterben von Eigentumsbeziehungen im Onlinezeitalter. Berlin 2013, S. 165ff.

[34] Zitiert in: Joseph Stiglitz, Knowledge as a Global Public Good. In: Inge Kaul, Isabelle Grunberg, Marc A. Stern, Global Public Goods. UNDP, New York, Oxford 1999, S. 308.

[35] Michael Heller, The Gridlock Economy. How Too Much Ownership Wrecks Markets, Stops Innovation and Costs Lives, Philadelphia 2008, S. 1.

[36] Vgl. zum Beispiel Paul Mason, a.a.O., S. 196ff . Die entsprechende Stelle des „Maschinenfragments“ findet sich in Marx-Engels-Werke, Band 42, Berlin 1983, S. 601.

[37] Vgl. zum Maschinenfragment auch: Werner Goldschmidt, Das „Maschinenfragment“ und die „Befreiung der Arbeit“, in: Z 115 (September 2018), S. 118-132 (Teil I), und Z 116 (Dezember 2018), S. 106-120 (Teil II).

[38] https://webfoundation.org/research/the-case-for-the-web/ (04.12.2018)

[39] Eben Moglen: A.a.O., S. 3.