Arbeitstitel: Medienpolitik im digitalen Zeitalter (I): (De-)Regulierungsdruck durch technische Entwicklung


Vorspann: Wovon ist eigentlich die Rede, wenn von den "neuen elektronischen Medien" gesprochen wird? Der folgende Beitrag versucht, zunächst diese Frage zu beantworten, um aus der Antwort auf den möglichen Regulierungsbedarf schließen zu können. In einem zweiten Beitrag für die epd-Reihe über einen möglichen neuen Rechtsrahmen für die elektronischen Medien wird der Autor dann aus dieser Sicht die laufenden De- und Re-Regulierungsprozesse analysieren. Bisher sind Beiträge dieser Reihe in den Kifu-Ausgaben 3, 8, 12 und 16 erschienen.

(epd) Mit Begriffen wie Multimedia, Datenautobahn und Informationsgesellschaft ist nur grob umrissen, welcher Wandel sich gegenwärtig, weitgehend technisch induziert, zwischen Massen- und Individualkommunikation vollzieht. Dabei leidet die aktuelle Debatte an einem doppelten Defizit: Zum einen werden die "neuen" technischen Möglichkeiten und Realitäten meist nur sehr vage bestimmt, wird kaum zwischen Technik und Anwendung unterschieden. Zum anderen wird so getan, als fielen mit der neuen Technik auch die neuen Medien gleichsam vom Himmel. Die Herausbildung eines Mediums ist jedoch nicht nur technisch, sondern auch ökonomisch und sozial ein höchst komplexer Prozeß - der gleichwohl politischen Entscheidungen nicht verschlossen bleibt.

Zwar erscheinen aus medienpolitischer Perspektive große Teile der technischen Entwicklung als weitgehend unbeeinflußbare, exogene Prozesse. Steuerbar bleibt jedoch die Herausbildung der sozialen Systeme neuer Medien. Dazu gehört auch die Entscheidung, was als Infrastruktur und was als darauf aufsetzender Dienst oder darauf aufsetzendes Medium betrachtet werden soll. Und daran hängt (in Deutschland) letztlich auch die Frage der Zuständigkeiten: Die Verantwortung für die Infrastruktur liegt bekanntlich beim Bund, die Länder sind für die - technisch darauf aufsetzenden - Medien zuständig.

Um dieses Feld zu strukturieren, möchte ich vorschlagen,

Die fortschreitende Digitalisierung führt in all diesen drei Dimensionen zu einer weiteren Komplexitätssteigerung, auf die Medien- und Telekommunikationsrecht und -politik mit adäquaten Mitteln zu reagieren gezwungen sind.

Telekommunikation: Digitalisierung, Netzintegration und -diversifizierung

Jahrzehntelang war die "größte Maschine der Welt" - wie Fernmeldetechniker gern ihr Telefonsystem nennen - eine verhältnismäßig überschaubare Sache: Sie basierte auf einem zwar in sich komplexen, aber jeweils national einheitlichen technischen Standard und stellte eine aus heutiger Sicht wenig komplexe Leistung her, die Übertragung von Sprache von Punkt zu Punkt (POTS, plain old telephone service). Ihre Binnenkomplexität folgte daraus, daß sie Verbindungen von jedem Endpunkt zu jedem anderen herstellen mußte, darin dem massenkommunikativen Paradigma des one-to-one folgend. Die technische Basis (Vermittlungsstellen, Kabel, Endgeräte, Übertragungsprotokolle), die ökonomische Institutionalisierung (in den jeweiligen Post- und/oder Telefonunternehmen) und die soziale Verwendung (also durch Dritte) bildeten praktisch ein einheitliches, großes System.

Diese Einheit ist zerfallen und zerfällt weiter: Telefonsysteme werden zunehmend zur Übertragung von Daten verwendet; Telefonunternehmen werden aufgeteilt (so der amerikanische Monopolist AT&T im Jahre 1984), aus dem staatlichen Monopolbereich entlassen und bekommen Konkurrenz; Telefontechnik wird digital und steigert damit ihre Komplexität; das einheitliche Telefonnetz wird zum Netzwerk der Netze: Die neuen Funktelefonnetze und das ISDN sind nur zwei Beispiele. Traditionell war zwar die inhaltliche Nutzung der Netze nicht determiniert - jeder konnte sich mit jedem über alles unterhalten - praktisch jedoch eigneten sich die Netze lange Zeit ausschließlich zur Sprachübertragung. Mit der Digitalisierung, die bereits vor gut zwanzig Jahren einsetzte, ist diese Einschränkung nicht länger technisch bestimmt.

In einem digitalen Netz können Verbindungen von Punkt zu Punkt (auch) virtuell realisiert werden, also ohne daß tatsächlich eine dedizierte physikalische Verbindung zwischen den beiden Endpunkten besteht. Weil solche virtuellen Verbindungen billiger sind als ihre physikalischen Äquivalente, wachsen darauf basierende Anwendungen (und letztlich auch Medien) mit ökonomisch kräftiger Dynamik. Um diese neue Ökonomie des digitalen Kommunikationsystems zu verstehen, lohnt sich ein Ausflug in die abstrakten Spezifikationen der Netzwerktechnik.

Autos im Dschungel: Die Wunder der (Computer-)Vernetzung

"Stellen Sie sich vor", schreibt der amerikanische Techno-Utopist George Gilder, "wir finden mitten im Dschungel ein Auto. Wir werden bald herausfinden, daß es sich dabei um ein äußerst nützliches Mehrzweck-Gerät handelt: Es bietet uns ein Dach gegen Regen, bequeme Sitze, helles Licht, eine Heizung und Klimaanlage, ein Radio mit Kassettenspieler, und eine Hupe zum Verjagen von wilden Tieren. Voll Bewunderung für alle diese Eigenschaften fragen wir gar nicht danach, zu welchen noch viel größeren Wundern das Auto fähig wäre, wenn wir es auf eine asphaltierte Straße brächten." In den ersten zehn Jahren seit Erfindung des PCs haben wir Computer wie Autos im Dschungel benutzt, meint Gilder. Ihr volles Potential nutzen wir erst, wenn wir sie über Computer-Netze mit ihresgleichen verbinden.

Doch dieses Vernetzungs-Problem stieß von Anfang an auf diffizilere Probleme als die Vernetzung von Telefongeräten. Wenn die Sprechweise "Vernetzung von Telefongeräten" ungewöhnlich erscheint, so liegt das daran, daß diese Endgeräte im Gegensatz zu Computern meist für keinen anderen Zweck als den der Vernetzung selbst gebaut wurden (und im allgemeinen auch noch werden). Computer dienen dagegen vielen Zwecken und sind daher heterogener, als es Telefone in Zeiten der Monopole je werden konnten. Die Computeringenieure haben sich dem Vernetzungsproblem daher schichtweise genähert. Jede Schicht stellt einen definierten service zur Verfügung, auf den die nächsthöhere Schicht in definierter Weise zugreifen kann. Diese Aufteilung ist eine folgenschwere Abstraktion.

Als die Computer-Vernetzung begann, war keiner der zur Kommunikation notwendigen Bestandteile standardisiert: Computer waren und sind an verschiedene physikalische Netzwerke (Schicht 1) angeschlossen, die auf unterschiedliche Weise die Integrität (2) der physikalischen Übertragung sicherstellen. Diese Netzwerke sind zu diversen logischen (3) Netzwerken zusammengeschlossen, durch die eine Punkt-zu-Punkt-Verbindung (4) zwischen zwei Maschinen realisiert werden kann, die nicht an dasselbe (physikalische) Netzwerk angeschlossen sind (oder vielmehr: sein müssen). Wenn diese vier Probleme gelöst sind, ist damit noch nichts über den Inhalt, also die Anwendung (7) der Übertragung gesagt, die wiederum auf Konventionen der Kommunikationssteuerung (5) und Datendarstellung (6) angewiesen ist.

In digitalen Netzen bilden die Kommunikationsstandards also keine monolithische Einheit mehr. Im Gegenteil: Die Standards bauen aufeinander auf und werden gestapelt. Die Komplexität des sozialen Systems Telekommunikation (und des "darunter liegenden" technischen Systems) läßt sich durch solche Schichtungs-Verfahren im Prinzip beliebig steigern. Die vormals gegebene Bindung der Kommunikationstechnik an eine jeweils bestimmte Nutzungsform ist zerfallen. Nutzungsformen sind damit in bisher unbekannter Weise individuell gestaltbar.

Die Kompatibilität des Inkompatiblen

Die Zahl der Telefonnetze hat sich in den vergangenen Jahren deutlich erhöht. Dennoch kann im Prinzip jeder mit jedem telefonieren, von möglicherweise prohibitiv hohen Tarifen einmal abgesehen. Ein Telefon wäre auch quasi wertlos, wenn mit ihm nur ein (möglicherweise kleiner) Teil der Telefonbesitzer erreicht werden könnte. Genau dieses Problem bestand jahrelang im (vollständig deregulierten) Telekommunikationssystem Neuseelands: Der vormalige Monopolist und einer seiner neuen Konkurrenten konnten sich nicht über die Bedingungen der Zusammenschaltung einigen. Die Interoperabilität der Netze ist daher ein zentrales Thema für die Regulierung. Sie impliziert jedoch die Verwendung offener statt proprietärer (wörtl.: eigentümlicher) Standards. Im wettbewerblich strukturierten Wirtschaftssystem wird unausweichlich bereits die Herstellung solcher Standards politisiert, da sie sich nur schwer gegen Versuche individueller Vorteilsnahme absichern kann.

Die Fernmeldetechnik unterscheidet zwischen Netzen und Diensten, die über die Netze angeboten werden. Gerade diese Unterscheidung wird aber in netztechnisch geschichteten Umgebungen fließend, und nicht zufällig wird der Begriff des Mehrwertdienstes (value-added service) entsprechend unscharf verwendet: Ein Dienst kann im Prinzip auf jeder Netzebene definiert und angeboten werden. Gehörte im Zeitalter des einfachen Telefonnetzes die Vermittlung eindeutig zum Netz, so ist diese Eindeutigkeit inzwischen gewichen: Meta-Netze wie das Internet bieten gerade diese Leistung an, obwohl sie technisch (auch) auf Telefonbasis realisiert werden.

Als Mitte der 70er Jahre zum ersten Mal über die Digitalisierung des Fernsprechnetzes diskutiert wurde, entstand in den internationalen Gremien, die mit der Standardisierung beschäftigt waren, die Idee des digitalen Universalnetzes, das alle bisherigen Fernmelde- und Kommunikationsdienste inclusive der Rundfunkübertragung integrieren sollte. Damit eng verbunden war die Idee, daß Massen- und Individualkommunikation durch die Konvergenz der zugrundeliegenden Technik irgendwann nicht mehr sauber zu trennen sind. Technisch kam es jedenfalls anders: Vom Universalnetz sind wir weit entfernt, eher im Gegenteil vermehrt sich die Zahl der Netze unablässig.

Network Tipping - oder: Warum gibt es mehr als eine Bank?

Doch von Fragmentierung und Desintegration kann nur oberflächlich die Rede sein, wird doch mit allen technischen Tricks sichergestellt, daß weiterhin (und immer vielfältiger) kommuniziert werden kann. In schichtförmigen Umgebungen ist es prinzipiell immer möglich, die Interoperabilität des vom Design her Inkompatiblen herzustellen, solange offene Standards verwendet werden. Ein prominentes Beispiel ist das Wissenschafts-Netz (WiN), das die deutschen Hochschulen miteinander verbindet. Es wird, obwohl es auf dem X.25-Protokoll basiert, heute überwiegend dazu genutzt, IP-Datenpakete zu transportieren und damit seinen Nutzern den Zugang zum Internet zu bieten. Mit solchen Meta-Netzen, die selbst wieder auf einer Zielzahl von Netzen aufsetzen, wird gewissermaßen die Idee des Universalnetzes auf einer höheren Abstraktionsebene wiedergeboren. Weitgehend ungeklärt ist dabei, welche Darsteller in diesem Szenario die Bühne füllen und welche Plätze sie dort einnehmen sollen. Um die Besetzung des Stücks wird auf allen Ebenen heftig gestritten.

"Warum", fragt der amerikanische Telekommunikationökonom Eli M. Noam, "gibt es gewöhnlich nur ein öffentliches Telefonnetz in einem Land?". Der Grund sei jedenfalls nicht, daß so alle Teilnehmer miteinander verbunden werden können. Denn dann gäbe es wohl auch nur eine große Bank für alle finanziellen Transaktionen. "Interaktion verlangt gewöhnlich nicht nach institutioneller Integration." Noam vermutet, daß in den meisten Ländern noch vor Erreichen der telekommunikativen Vollversorgung ein Zustand eintritt, in dem es sich für eine starke Minderheit lohnt, ein Monopol-Telefonnetz zu verlassen und ein eigenes aufzubauen. Dieses "Rosinenpicken" ist nur administrativ zu verhindern, durch schlichtes Verbot weiterer Netze. Gibt es dagegen das explizite Recht zur Zusammenschaltung, dann wird dieser Zustand sogar früher erreicht. Ein Netz stellt stets ein spezielles cost-sharing arrangement zwischen Nutzern dar; mit der Zahl der Netze wächst auch die Zahl solcher spezifischen Arrangements.

Rundfunk: Wer zahlt für was?

Das traditionelle Runkfunkverteilnetz hatte einen simplen cost-sharing-Mechanismus: Wer senden will, der zahlt. Die Regulierung konnte lange Zeit an der Frequenzknappheit ansetzen und so das öffentlich-rechtliche Monopol absichern. Die Kommunikationsstruktur ließ - im Gegensatz zum Telefonnetz - nur klassisch-massenkommunikative one-to-many-Beziehungen zu. Während der Zugang zum Empfang frei war (abgesehen von den an den Besitz eines Empfangsgeräts geknüpften Rundfunkgebühren), war der Zugang zur Ausstrahlung beschränkt. Zwar war auch diese Nutzungsstruktur sozial entschieden und nicht bereits technisch determiniert; die Beschränkung war jedoch mit der Bindung an das begrenzte Frequenzspektrum verknüpft und dadurch lange Zeit stabil.

Nicht zufällig begann der Zerfall dieses Arrangements, als die ersten Rundfunksatelliten für den Direktempfang gestartet und die ersten Kupferkoaxialkabel für den indirekten Empfang verlegt wurden. Das Breitbandkabelnetz ist nach mehr als zehn Jahren immer noch in den roten Zahlen und verursacht der Telekom jährliche Verluste von rund 1,5 Milliarden Mark. Als ein Hauptgrund muß der Erfolg der Satelliten-Direktausstrahlung via Astra gelten, die zu geringeren und einmaligen Kosten inzwischen mehr Programme bietet als das analoge Kabelnetz. Insofern kann der Versuch, einen neuen cost-sharing-Modus zu etablieren, als wenigstens teilweise gescheitert gelten: Mit dem Breitbandkabel sollte erstmals der Rezipient direkt für die Programmdistribution zur Kasse gebeten werden, ohne allerdings auf das Angebot selbst ebensolchen Einfluß nehmen zu können. Für den nächsten, digitalen Schritt wäre daraus zu lernen, daß Zahlungen und Entscheidungen über das zu bezahlende Angebot symmetrisch verteilt sein sollten.

Mit ihrer Weigerung, die landauf, landab überfüllten Kabelnetze für weitere analoge Nutzung auszubauen, forcierte die Deutsche Telekom die seit etwa zwei Jahren geplante und inzwischen kurz vor der Realisierung stehende Etablierung digitalen Fernsehens im Breitband-Kabelnetz. Im bundesweit größten TV-Netz in Berlin haben Kirch, CTL, Premiere, Vebacom und Telekom jeweils einen Kanal von der Medienanstalt Berlin-Brandenburg (MABB) erhalten (Kifu 8/96). Aus einer ganzen Reihe von technischen, ökonomischen und politischen Gründen orientiert sich diese Entwicklung am klassischen one-to-many-Paradigma.

Entgrenzung der Medien im "Multimedia"?

Der Bremer Informatiker und Politikwissenschaftler Herbert Kubicek hat vorgeschlagen, zwischen Medien erster und zweiter Ordnung zu unterscheiden: "Man kann von technischen Kernen sprechen, von technischen Medien oder Medien erster Ordnung, weil die jeweilige Technik konstitutiv ist." Sie eröffne Optionen, bestimme aber auch Restriktionen für Inhalte wie Produktions-, Distributions- und Rezeptionsprozesse. Medien zweiter Ordnung seien komplexe Organisationen, die sich um diese Technik herum entwickelten. Im Bereich Multimedia ist dieser Prozess noch ganz am Anfang.

Aus der technischen Konvergenz von Datenverarbeitung, Telekommunikation und Rundfunk wie Unterhaltungselektronik folgt noch keine neue Mediengestalt. Über die (abstrakte) Idee der integrierten, digitalen Datenverarbeitung hinaus gibt es praktisch keinen Konsens: Übertragungsnetze, Endgeräte, technische Dienstemerkmale oder Inhalte - alles ist (noch) unbestimmt. Betrachtet man das Problem in der Sprache der Netzwerktechnik, dann stellt es sich so dar:

Die Digitalisierung macht es möglich, Medien zweiter Ordnung von Medien erster Ordnung zu entkoppeln: Es wird genauso möglich, verschiedene Dienste über dieselben Übertragungswege anzubieten, wie es möglich ist, dieselben Dienste über verschiedene Übertragungssysteme anzubieten. Damit können sich Medien erster Ordnung sozusagen unter der Hand wandeln, während "alte" Medien zweiter Ordnung als Institutionen stabil bleiben und expandieren. (Dies entspricht der Verbreitung der gleichen Programme auf neuen Kanälen.) "Neue" Medien zweiter Ordnung entwickeln sich entlang neuer Medien erster Ordnung. Diese Entwicklung findet zur Zeit in zwei Ebenen statt:

Das Internet als Prototyp der künftigen Medieninfrastruktur

"Bis die Set-Top-Leute die Preisgrenze zum Konsumentenbereich erreichen und in 30 Prozent der Haushalte vordringen", meint Intel-Häuptling Andy Grove, "wird der personal computer überall sein und das Fernsehen kontrollieren wie ein unbedeutendes Peripherie-Gerät." So es denn so kommt, ist das Internet dafür bereits ein Vorbote. Nicht nur hierzulande wird das Internet gern als Prototyp und Referenz der "Datenautobahn" angesehen, die zu bauen sich inzwischen ein diffuser politisch-ökonomischer mainstream aufgemacht hat. Die "Datenautobahn" ist in diesen Plänen nur eine verbogene Metapher, die in Ermangelung eines technologischen Leitbildes und eines Infrastrukturkonzepts die diskurspolitische Leerstelle füllt.

Technisch definiert sich das Internet durch die TCP/IP-protocol suite (transmission control protocol/internet protocol). Es ist kein physikalisches, sondern ein logisches Netzwerk (Schicht 3 und 4), das selbst wiederum auf einer Vielzahl von Netzwerken (Schicht 1 und 2) basiert. Aus Nutzersicht ist das Internet wie andere Medien auch durch die möglichen Anwendungen (Schicht 7) definiert; es zählt aber zu den Besonderheiten des Internets, daß dem Nutzer prinzipiell der Zugriff auf die unteren Schichten nicht verwehrt ist. Die Nutzungsoffenheit des Internets (als Medium erster Ordnung) - vergleichbar dem Telefonnetz - wird auf diese Weise an den Nutzer (des Mediums Internet als Medium zweiter Ordnung) weitergereicht.

Das IP-Protokoll ist - wie vielleicht für manchen überraschend - als Kommunikationsprotokoll zwischen jeweils zwei Computern definiert, folgt insofern also dem one-to-one-Paradigma, wie es auch das klassische Telefonnetz kennzeichnet. Seine Qualitäten als Massenmedium (many-to-many) realisiert es jeweils durch die schiere Vielzahl der Punkt-zu-Punkt-Verbindungen. (Die Modi Broadcasting - also one-to-many - und Multicasting - für Nutzungen wie Telefon- und Videokonferenzen oder auch gebührenpflichtige Fernsehkanäle - sind erst in der kommenden IP-Version IPv6 vorgesehen.)

Zum Durchbruch als Medium verhalf dem Internet in den letzten drei Jahren sein inzwischen prominentester Dienst, der von vielen mittlerweile und fälschlicherweise mit dem Internet gleichgesetzt wird: das World Wide Web (WWW). Mit dessen graphischer Oberfläche sanken die Zutrittshürden zur Internet-Welt dramatisch. Ein ständig wachsender Zustrom neuer Nutzerkreise verändert die Netzpopulation erheblich. Die Folgen für die "kommunikationsökologische Nische", in der noch vor zwei Jahren das Internet plaziert war, sind kaum zu überschätzen: Unter den Bedingungen der derzeitigen Wachstumsraten sind neue Nutzer bereits nach wenigen Monaten länger dabei als die große Nutzer-Mehrheit.

Gab es vor drei Jahren gerade 50 öffentliche WWW-server, haben sich das WWW, die dazugehörige Sprache Hypertext Markup Language (HTML) und das Übertragungsprotokoll Hypertext Transfer Protocol (HTTP) inzwischen als de-facto-Standard für Elektronisches Publizieren etabliert. Zwar bieten proprietäre Online-Dienste den Vorteil, daß sie einen nutzungsbezogenen Zahlungsmechanismus etabliert haben und damit den content provider refinanzieren können; dies jedoch um den Preis, jeweils den größten Teil der online-Welt vor der Tür stehen zu lassen. Dazu kommt der meist nicht unerhebliche Aufwand, die Informationen in das jeweilige proprietäre Format umzusetzen. Die spezifische Internet-Ökonomie ist hier im Vorteil.

Das Internet als cost-sharing arrangement: Die economies of scale der weltweiten Computervernetzung

Das Internet privilegiert und ent-privilegiert zugleich. Was bislang ein an Funktionen oder Geldmittel gebundenes Privileg war, nämlich die Recherche via Datennetz, steht nun im Prinzip jedem offen, der ans Netz angeschlossen ist. Die entscheidende Hürde ist damit also der Zugang zum Netz selbst, nicht mehr der zu speziellen Angeboten. Insofern fällt der Regulierungsbedarf des Internets in den Bereich der klassischen Telekommunikationspolitik. Diese Entprivilegierung fußt auf einem spezifischen cost-sharing arrangement, innerhalb dessen sich viele Nutzer ein Netz von Standleitungen teilen. Diese Dienstleistung ist das eigentliche Kerngeschäft der Internet service provider (ISP).

ISPs in Deutschland mieten diese Leitungen in der Regel von der Telekom; aus telekommunikationstechnischer Sicht handelt es sich also um einen Mehrwertdienst. In den USA besitzen ISPs zum Teil eigene Leitungen oder sind selbst Telefon-Unternehmen (MCI, Sprint; inzwischen beabsichtigt auch AT&T den Einstieg ins ISP- Geschäft); die Deutsche Telekom kann dagegen mit T-Online, dem Nachfolger des lange erfolglosen Btx, allenfalls als ISP in der Frühphase seiner Entwicklung bezeichnet werden. Internet service provider und Telefonunternehmen stehen also in einem Geflecht aus Konkurrenz- und Kundenbeziehungen zueinander - eine Lage, in der die Kräfteverteilung noch nicht abgeschätzt werden kann. Der puren wirtschaftlichen Größe der Telecoms steht die technologisch-ökonomisch-soziale Dynamik des Internets gegenüber.

Neben (oder sozusagen: über) dieser telekommunikations-technischen Ökonomie wird das furiose Wachstum des Internets auch aus frei erhältlicher software gespeist. Die Vorteile des dadurch möglichen schnellen software-technischen Fortschritts überwiegen offenbar zur Zeit die Refinanzierungsprobleme. So konnte die software-Schmiede Netscape als Börsenneuling einen kometenhaften Kursanstieg erzielen, ohne überhaupt Gewinne vorweisen zu können. Neue Produkte und sogar neue Dienste lassen sich auf diese Weise innerhalb weniger Monate im Internet etablieren; die Produktzyklen sind zum Teil bereits auf wenige Wochen geschrumpft.

Bandbreite: Hungerleider und Schlemmer

Die Internet-Nutzer hungern nach Bandbreite, während die digitalen Fernsehzuschauer künftig hemmungslos davon schlemmen sollen. Während ein durchschnittliches Modem mit 14 kBit/s auskommen muß und auch das digitale ISDN nicht mehr als 2x64 kBit/s bietet, sollen in Berlin bereits in diesem Frühjahr fünf digital ausgebaute Fernsehkanäle mit je 38,5 MBit/s in die Kabelhaushalte plätschern - also der 2816fachen Bandbreite eines einfachen Modems. Und das für eine monatliche Pauschale, die sich eher unterhalb der 22,50 Mark bewegen dürfte, die zur Zeit für analoges Breitbandkabel fällig sind. Für 22,50 Mark im Monat sind via Telefon gerade 25 Minuten pro Tag drin - zum billigsten Nachttarif.

Dabei kann der Kabelzuschauer mit den geballten Bitladungen gar nichts anfangen: Prinzipbedingt kann er immer nur ein Programm zur gegebenen Zeit ansehen, allenfalls noch ein zweites für spätere Verwendung aufzeichnen. Unter dem Internet-Blickwinkel knapper Bandbreite nimmt sich diese Bit-Ökonomie eher bizarr aus. Folgerichtig planen deshalb einige Kabelfirmen in den USA, Internet-Zugang über TV-Breitbandkabel anzubieten - was auch hierzulande kein prinzipielles Problem wäre, da die Rückkanal-Frequenzen bereits spezifiziert sind. Die Firma @Home, ein Gemeinschaftsunternehmen einer TCI-Tochter und der Risikokapitalfirma Kleiner Perkins Caufield & Byers, plant den Einsatz von Kabel-Modems, die rund 10 MBit/s in der Richtung zum Nutzer übertragen können. Mittelfristig sollen 30 MBit/s downstream und 1 MBit/s upstream möglich werden. Im Gespräch ist eine monatliche Nutzungspauschale in Höhe von 30 Dollar. Mit solchen Summen scheint jeweils eine Ausgaben-Schallmauer für einzelne Mediendienste erreicht. Man vergleiche damit die hiesigen Rundfunkgebühren (z. Zt. 23,80 Mark), die Tarife für monatlich pauschalen Internetzugang (29 Mark beim Individual Network Berlin) oder die Kosten eines durchschnittlichen Zeitungsabonnements.

Diese Ökonomie wird sich in den nächsten Jahren radikal verändern, und es wird zur vordringlichen Aufgabe der Telekommunikations-Regulierung, die Regeln für den Wettbewerb zwischen Telefon und Breitbandkabel zu bestimmen. (Diese Aussage mutet natürlich aus heutiger Sicht seltsam an, besitzt doch die Deutsche Telekom hierzulande ein Doppelmonopol und damit den sichersten Riegel gegen Wettbewerb. Es gehört zu den spannendsten Fragen der Wettbewerbsöffnung, ob es dabei bleiben wird.)

Die Aufrüstung des TV-Kabelnetzes mit Internet service in Bandbreiten zwischen 10 und 30 MBit/s bringt mittelfristig auch die Möglichkeit mit sich, Fernsehen in Echtzeit via Internet zu übertragen - und zwar nicht nur downstream, sondern auch upstream. Mit RealAudio steht heute bereits eine Technik zur Verfügung und im Gebrauch, die Radio in Echtzeit überträgt. Ob, wie und wann dann auch Abruffernsehen ("video on demand") durch die Internet-Kanäle rauschen wird, ist von diesem Zeitpunkt an nur noch eine Frage der server-Techniken, nicht mehr der Netzbandbreite. Technisch wird jeder nicht nur empfangen, sondern auch senden können, was er will - und mit diesem massenkommunikativen many-to-many das Ende jeglicher Fernseh-Regulierung einläuten, die an der Vergabe von Übertragungsressourcen ansetzt. In einer Internet-Umgebung lassen sich diese Ressourcen nicht mehr hoheitlich monopolisieren, es sei denn um den Preis einer obrigkeitsstaatlichen Re-Regulierung der Telekommunikation. Ein Preis, den zu zahlen sich wohl keine politischen Mehrheiten bereitfinden werden.

Konsequenzen für die Regulierung

Regulierung wird gebraucht, wo wirtschaftliche Macht droht, Schaden anzurichten. Macht entsteht dort, wo der Zugriff auf knappe Ressourcen monopolisiert werden kann. Viel interessanter als die Frage, ob Leo Kirch weitere Abspielkanäle eröffnen darf, ist doch, ob ihm künftig die Möglichkeit verwehrt werden soll, das Berliner TV-Kabelnetz mit seinen 1,1 Millionen Haushalten zu kaufen. Oder ist die Aussicht viel bedrückender, daß demnächst die Tochter eines der drei deutschen Stromriesen dieses Geschäft in die Hand nimmt? Im aktuellen Streit um den Decoder wird die Vebacom als Kirch-Verbündeter gehandelt - und damit schließt sich dieser Kreis.

Wer den Zugriff auf Netze besitzt, kann proprietäre Standards durchsetzen und damit über die Nutzung entscheiden. Dies ist im digitalen Zeitalter aber eine Entscheidung, die in den öffentlichen Raum gehört, bestimmt sie doch vorrangig über Knappheiten und damit Machtkonstellationen. Medien- und Telekommunikationspolitik sind gezwungen, über die Durchsetzungschancen der konkurrierenden massenkommunikativen Paradigma one-to-one (Telefon), one-to-many (Broadcasting) und many-to-many (Internet) mitzuentscheiden. Daran hängen die Machtfragen: In einer Umgebung des massenkommunikativen many-to-many ist nicht mehr entscheidend, wer die Inhalte der Massenkommunikation, sondern vielmehr, wer die Zugänge zu den darunterliegenden Infrastrukturen kontrolliert. Mit der Entscheidung über die Zukunft der TV-Kabelnetze hat die Bundespolitik eine Schlüsselentscheidung in der Hand.

Insofern fallen Medien- und Telekommunikationspolitik zusammen. Das Problem vertikaler Konzentration muß ohnehin von beiden bearbeitet werden. Über die konkrete Gestalt neuer Medien haben hingegen beide nicht zu befinden, wohl aber über die Bedingungen ihrer Entstehung. Auch wenn der enge Zusammenhang von Technik und Anwendung komplexer wird, sollten sie den monopolisierenden Zugriff auf Technik verhindern und auf der Verwendung offener Standards bestehen. Medien- und Telekommunikationspolitik haben zusammen die Chance, über die politisch-rechtlichen Rahmenbedingungen der digitalen Medienrevolution zu befinden. Sie sollten sie nutzen. (mr)


Martin Recke <mr94@zedat.fu-berlin.de>