Das Rundfunkverteilnetz - das sich bekanntlich als Sonderfall eines
Telekommunikationsnetzes betrachten läßt - war vor dem ersten
Differenzierungsschub des ausgehenden 20. Jahrhunderts
ein vergleichsweise einfach strukturiertes Netzwerk: Der
cost-sharing-Mechanismus war simpel - wer senden will, der zahlt.
An der Frequenzknappheit konnte die Regulierung anknüpfen und das
Monopol des föderalen, öffentlich-rechtlichen Rundfunksystems
sichern. Aus technischer Perspektive war die Nutzung geschlossen,
also im Gegensatz zum nutzungsoffenen Telefonnetz auf einen Nutzungsmodus,
die Ausstrahlung von Programmen festgelegt. Die Kommunikationsstruktur
unter dem klassischen Paradigma der Massenkommunikation ließ nur
one-to-many-Beziehungen zu: broadcasting. Während
der Zugang zum Empfang frei war (abgesehen von den an den Besitz eines
Empfangsgeräts geknüpften Rundfunkgebühren), war der Zugang
zur Ausstrahlung beschränkt. Zwar war auch diese Nutzungsstruktur
sozial entschieden und nicht bereits technisch
determiniert; die Beschränkung war jedoch mit der Bindung an
das begrenzte Frequenzspektrum verknüpft und dadurch stabil.
Nicht zufällig begann der Zerfall dieses Arrangements, als die ersten
Rundfunksatelliten für den Direktempfang gestartet und die ersten
Kupferkoaxialkabel für den indirekten Empfang verlegt wurden. Das
Breitbandkabelnetz ist nach mehr als zehn Jahren immer noch in den roten
Zahlen und verursacht der Telekom jährliche Verluste von rund 1,5
Milliarden Mark. Als ein Hauptgrund muß der Erfolg der
Satelliten-Direktausstrahlung via Astra gelten, die zu geringeren und
einmaligen Kosten inzwischen mehr Programme bietet als das analoge
Kabelnetz
.
Insofern kann der Versuch, einen neuen cost-sharing-Modus zu etablieren, als wenigstens teilweise gescheitert gelten. Mit dem Breitbandkabel sollte erstmals der Rezipient direkt für die Programmdistribution zur Kasse gebeten werden, ohne allerdings auf das Angebot selbst ebensolchen Einfluß nehmen zu können. Der logisch nächste Schritt wäre dann gewesen, nach amerikanischem Vorbild den Kabelkunden auch einen Teil des Programmes selbst bezahlen zu lassen, also eine Teilung in basic und value-added services zu etablieren.
Mit ihrer Weigerung, die landauf, landab überfüllten Kabelnetze
für weitere analoge Nutzung auszubauen, forcierte die Deutsche
Telekom indirekt die seit etwa zwei Jahren geplante und inzwischen kurz
vor der Realisierung stehende Etablierung digitalen Fernsehens im
Kabelnetz. Im bundesweit größten Kabelnetz in Berlin sollen
versuchsweise noch in diesem Sommer die Kirch-Gruppe, Premiere und
Multithématique mit Programmpaketen präsent sein; Vebacom
und EMG wollen noch im Mai ein digitales Sendezentrum in Betrieb nehmen
und kostenlos empfangbare Programme einspeisen, die im analogen Kabel
keinen Platz mehr fanden. Aus einer ganzen Reihe von technischen,
ökonomischen und politischen Gründen orientiert sich diese
Entwicklung am klassischen one-to-many-Paradigma.
Das TV-Breitbandkabelnetz wurde vor in den siebziger Jahren als mehrstufig
gegliedertes Verteilsystem konzipiert, im Grunde ähnlich einer
großen Hausantennenanlage, die - in vier Netzebenen
(überregional, regional und zwei Ortsabschnitte) gegliedert - von
einem Einspeisepunkt aus allen Teilnehmern dieselben Programme zum
Fernsehgerät transportiert. Diese Struktur entspricht einem Baum, der sich, ausgehend
von einer Wurzel, immer weiter verästelt. Die ,,Wurzeln`` sind
miteinander verbunden und bilden zusammen mit den Kabelbäumen das
Breitband-Kabelnetz; an jeden dieser Bäume sind bis zu 25.000, im
Bundesdurchschnitt 5.000 Haushalte angeschlossen.
Im Gegensatz zur Netzstruktur, wie sie klassisch das Telefonnetz aufweist,
ist die Baumstruktur für diese Art der
one-to-many-Verteilung ausgelegt. Zwar sind Rückkanäle
in den Spezifikationen für den Frequenzbereich unter 30 MHz
vorgesehen, die entsprechenden Filter und
Verstärker aber nicht eingebaut. In aktuellen, kurzfristigen
Planungen zur Nutzung der TV-Kabelnetze für online- oder
Datendienste ist daher entweder das Nutzungsmodell Datenrundfunk
oder die Verwendung der schmalbandigen analogen und digitalen Telefonnetze
als Rückkanal vorgesehen
.
In allen denkbaren ,,interaktiven`` Nutzungsmodellen wäre jedoch
ein zentraler Verbindungspunkt (,,Zentrale``) notwendig, der auf die
,,Rückmeldungen`` reagiert und sie verarbeitet; eine
Voraussetzung, die eine technisch eher egalitäre Nutzung nach dem
Modell des Internet (siehe Kapitel 3.1.3) nicht erlauben
würde. Sie erlaubt jedoch, den Abrechnungsmodus von der bisherigen
nutzungsunabhängigen Pauschale auf eine nutzungsbezogene
Einzelabgeltung umzustellen.
Im analogen Breitbandkabelnetz sind jeweils 7 (zwischen 47 und 68 MHz
sowie 125 und 230 MHz) oder 8 MHz (jenseits von 230 MHz in den
Sonderbereichen des sogenannten ,,Hyperbands``; 8 MHz waren für
die inzwischen obsolete D2-MAC-Norm notwendig) Bandbreite notwendig, um
ein Fernsehprogramm auszustrahlen. Die digitale Kompressionstechnik macht
es möglich, in diesen 8 MHz jeweils etwa 38,5 MBit/s Daten zu
verteilen. Je nach Qualität kann diese Bandbreite für drei
TV-Programme in Studioqualität, fünf bis sechs Programme in
heutiger PAL-Qualität oder fünfzehn Programme in heutiger
VHS-Videorecorder-Qualität benutzt werden. Im Berliner Kabelnetz, das im
ersten Schritt für fünfzehn solcher 8-MHz-Kanäle digital
ausgebaut werden soll, ließen sich demnach bis zu 225
zusätzliche Programme anbieten.
Diese Vervielfältigung der Kanäle scheint nach dem
herkömmlichen Muster des Free TV, also des prinzipiell frei
empfangbaren, unbezahlten Programms, nicht mehr ökonomisch effizient
nutzbar zu sein. Der Werbemarkt, der 1992 ein Gesamtvolumen von 29,5
Milliarden Mark (netto) umfaßte, wird nach Einschätzung des
Basler Prognos-Instituts bis zum Jahr 2010 parallel zum
Bruttoinlandsprodukt auf 46,2 Milliarden Mark wachsen. Der Anteil der
Netto-Werbeumsätze am BIP bleibt mit 1,03 Prozent jedoch gleich.
Reales Wachstum erwarten die Marktforscher allein im Gesamtbereich der
Unternehmens-,,Kommunikationsausgaben``, der neben klassischer Werbung
auch Aufwendungen wie Messen, Telefonverkauf, Sponsoring und interne
Kommunikation einschließt. Diese Ausgaben sieht Prognos als
,,Mitfinanzierungspotential u. a. für Teleshopping bzw.
interaktives Homeshopping``.
Die Ausgaben der privaten Haushalte für Medien und Kommunikation
betrugen dagegen 1992 99,1 Milliarden Mark; für das Jahr 2000
erwartet Prognos eine Steigerung um 17 Mrd. Mark; im Jahr 2010 werden die
privaten Haushalte demnach 146 Mrd. Mark für Medien und
Kommunikation ausgeben. Nach Abzug der Ausgabensteigerungen für PCs,
Kabelanschluß und Telekommunikation (durch verstärkte
online-Nutzung) bleibt Prognos zufolge ein Spielraum von 7,6
Milliarden Mark im Jahr 2000, von denen 3,8 Mrd. für digitales
Fernsehen verwendet würden. Jeder der drei bis vier Millionen
Haushalte, die bis dahin über digitale Empfangsmöglichkeiten
verfügen, würde demnach 90 Mark im Monat für digitale
Programme ausgeben.
In jenem cost-sharing arrangement, das in der Zielvorstellung des
digitalen Fernsehens enthalten ist, sollen also die Zuschauer und
Konsumenten nicht nur für die Distribution, sondern auch für die
Programminhalte selbst zahlen; um diesen Mechanismus zu implementieren,
sollen Zahlungen pauschal an die Nutzung bestimmter Kanäle
(Pay TV) und direkt an die Nutzung einzelner Sendungen
(Pay per View) gekoppelt werden. Das vieldiskutierte Modell des
video on demand, also der digitalen Videothek, die einzelne Filme
auf Abruf bereitstellt, gilt zur Zeit noch als ,,nicht marktreif``;
vor allem mangelt es an der Skalierbarkeit der zugrundeliegenden
server-Technik - trotz aller Leistungssteigerungen der
Computertechnik gibt es zur Zeit noch keine Lösung, die
größere, offene Benutzergruppen bedienen
könnte. Das
stattdessen geplante near video on demand - also die
zeitversetzte Parallelausstrahlung des gleichen (Spielfilm-)Programms auf
diversen Kanälen - muß auch im Zeitalter der
Kanalvervielfältigung als Bandbreitenverschwendung gelten. Es scheint
einer Situation entsprungen, in der neue Technik zur Anwendung drängt
und niemand genau weiß, was damit anzufangen ist. Unnachahmlich formuliert dieses Dilemma in ähnlichem
Zusammenhang ein Vertreter der Deutschen Telekom: ,,Deutsche Telekom has
already established the basic network infrastructure for higher bit rates.
[...] All that is lacking now are sufficient
applications.``
Vom gewählten Entwicklungsstrang wird es abhängig sein, ob
künftig weiterhin Frequenzen knapp sein werden oder ob
Bandbreite knapp werden wird. Vor allem
near video on demand würde schnell zu erneuter
Frequenzknappheit führen. Durch die Umstellung auf
Punkt-zu-Punkt-Verbindungen würden Knappheiten an Bandbreite die
bisherigen Frequenzknappheiten ablösen
.
Die Kiste, die auf der Berliner Internationalen Funkausstellung im
vergangenen August präsentiert wurde, sollte die
,,Schlüsseltechnologie`` des digitalen Fernsehens enthalten. Die
Kirch-Gruppe annoncierte gleichzeitig, sie habe bereits eine Million
dieser Beistell-Decoder (set top box) namens ,,d-box`` beim
finnischen Nokia-Konzern bestellt. Zur gleichen Zeit entstand mit der
Multimedia-Betriebsgesellschaft (MMBG) ein kartellähnliches
Konsortium für Betrieb und Vermarktung digitalen Fernsehens, in dem
inzwischen die Deutsche Telekom, Bertelsmann, RTL, ARD, ZDF, Canal Plus,
CLT und die Daimler-Benz-Tochter Debis zusammengeschlossen sind. Die MMBG
plant, mit der ,,mediabox`` ein Konkurrenzprodukt zur ,,d-box``
einzusetzen. Die Vebacom, die zwischenzeitlich an der MMBG partizipieren
wollte, hat sich mittlerweile dafür entschieden, den
,,d-box``-Decoder zu verwenden, mit dem die Kirch-Gruppe zur MMGB in
Konkurrenz tritt. Die MMBG, für die bislang keine
Gesellschafterverträge existieren, hat inzwischen 85.000
Digitaldecoder in Auftrag gegeben.
Im Kern der Auseinandersetzungen steht die Frage, bis zu welchem Grad das
Digital-TV in Deutschland in Privatbesitz sein wird. Die digitale Technik
steigert die Komplexität der Übertragungstechnik: Zwischen
Netzbetreiber und Programmveranstalter tritt ein service
provider, der Dienstleistungen oberhalb der
physikalischen Übertragung und unterhalb der Anwendung (des
Programms) erbringt, also in der Terminologie des OSI-Modells (siehe
Kapitel 3.1.1) etwa auf den Schichten 3 bis 6. Aus Sicht
der Regulierung ist entscheidend, ob und wie weit proprietäre
Standards - die in jedem Falle bei der Verschlüsselung zum
Einsatz kommen, da die DVB-Plattform kein einheitliches
Verschlüsselungssystem vorgesehen hat
- geeignet sind, die
(gesamte) Distributionskette zu beherrschen, also Macht vertikal
zu konzentrieren.
Das mit der MMBG-Gründung verbundene Ziel, eine Standard-Konkurrenz
beim Zugangssystem (Verschlüsselungssystem, conditional
access) zu vermeiden, scheint also inzwischen gescheitert zu sein. Es
zeichnet sich eine Auseinandersetzung darum ab, wer die Standards des
digitalen Fernsehens in Deutschland kontrollieren wird. Dies ist nicht nur
eine Frage des Zugangs zu den Kabelfernsehnetzen der Zukunft - es ist
auch eine Frage danach, wer die Modalitäten der Nutzung bestimmt:
Wird das broadcasting-Paradigma zementiert oder kann die
(technische) Option auf ein breitbandiges Vermittlungs-Netz und damit auf
many-to-many-Kommunikation, die im Kabelnetz liegt, noch wahrgenommen
werden? Hinzu kommt, daß die Standard-Konkurrenz dem Endverbraucher
eine Entscheidung für einen der beiden Decoder abverlangen
würde; eine Situation, die nach den Erfahrungen mit
konkurrierenden Video-Systemen nicht zur schnelleren Verbreitung
führen dürfte.
Analog zum ersten Differenzierungsschub wird auch diese technologische
Innovation über Programminhalte vermarktet, nicht über die
Technik selbst. Die
Technikinvestitionen - neben dem kostspieligen Ausbau der Kabelnetze und
der Satellitenausstrahlung durch die digitale Astra-Generation vor allem
die Decoder - müssen sozusagen huckepack mitfinanziert werden,
während der Endkunde nur für neue Programmangebote bezahlen
wird. Diese gekoppelte Vermarktung läßt einen weiteren Schub
vertikaler Konzentration erwarten - ein Problem, dem das
herkömmliche Medienrecht mit seiner Fixierung auf die
Programmveranstalter bisher weitgehend hilflos gegenüberstand. So
wurde bezeichnenderweise mit den Mitteln des europäischen
Kartellrechts - und nicht des deutschen Medienrechts - Ende 1994 die von
Kirch, Bertelsmann, Telekom und ARD/ZDF geplante Media-Service
GmbH untersagt, in der Betrieb und Vermarktung des digitalen Fernsehens
zusammengefaßt werden sollten
. Peter Glotz (1995) plädiert
für eine Trennung von Rechtehandel, broadcasting und
Netzträgerschaft, hält dies jedoch für nicht durchsetzbar.
Mit dem Übergang von Free TV zu Formen des Pay TV
wird auch der Abschied von prinzipiell offenen Nutzergruppen,
denen Telefon- und Kabelnetze bisher zur Verfügung standen, und der
Übergang zu geschlossenen Nutzergruppen eingeleitet. Was im
Telefonbereich mit dem neuen Genehmigungskonzept der Corporate
Networks im Jahr 1993 möglich und in der analogen TV-Welt
durch Premiere etabliert wurde, erscheint als Voraussetzung
bereits für die Etablierung des digitalen TV-Geschäftsmodells.
Das mit dem Schlagwort conditional access belegte Zugangssystem,
realisiert auf dem Wege der Verschlüsselung und Kernfunktion des
Digital-Decoders (set top box), implementiert ein Paradox: Ein
broadcast-Medium - das von einem Punkt aus alle
Teilnehmer erreichen kann - wird dazu verwendet, die Mehrheit der Nutzer
auszuschließen; ein Modell, daß
nur unter der Bedingung quasi unbegrenzter Netzressourcen denkbar
ist, denn die Bandbreite wird vernutzt, kann also von der
Mehrheit nicht mehr genutzt werden.
Mit dem Übergang zu geschlossenen Benutzergruppen wird eine
Entwicklung fortgesetzt und weiter verstärkt, die mit der
Dualisierung des Rundfunksystems einsetzte: Das Rundfunkangebot hat sich
nicht nur enorm erweitert und differenziert, sondern (gerade deshalb) die
,,Individualisierung`` der Massenkommunikation vorangetrieben. Neue
Wahlmöglichkeiten, Verfügbarkeit quasi aller Programmformen zu
jeder Zeit und neue Nutzungsformen (,,Zapping``) haben
Medienwissenschaftler veranlaßt, von einer teilweisen Auflösung
des Dualismus von Individual- und Massenkommunikation zu
sprechen.
Dieser Prozeß wird gelegentlich als ,,Zerfall von Öffentlichkeit`` beschrieben, in immer kleinere Einheiten, die voneinander nichts mehr wissen; mit allen Implikationen, die dies für ein demokratisches Gemeinweisen hat oder haben kann. Diese These kann hier weder entfaltet noch diskutiert werden. Jedoch steht nach allem, was hier und in den folgenden Kapiteln (3.1.2, 3.1.3) gesagt ist, eher zu erwarten, daß diese Differenzierung und Individualisierung fortschreitet und durch digitale Technik noch erleichtert wird.
Es ist - um eine Bewertung anzuschließen - jedoch keineswegs
zwingend, diese Entwicklung als Zerfallsprozeß zu
beschreiben: Die klassischen Printmedien differenzieren sich ebenfalls
ohne Unterlaß, ohne daß daran apokalyptische Ängste vor
einer ,,segmentierten`` oder ,,autistischen`` Gesellschaft
aufgehängt werden. Auf der anderen Seite haben Hoffmann-Riem &\
Vesting (1994, 385) auf die
,,Konditionierung`` der Zuschauer durch das klassische
Programmfernsehen aufmerksam gemacht: Die
komplexitätsreduzierende Funktion des Programmschemas
für die massenkommunikative Fernsehnutzung erscheint in dieser
Perspektive unverzichtbar oder jedenfalls nicht trivial ersetzbar durch
neue, individuelle Selektionsformen. Wie die
,,Benutzungsoberfläche`` eines 500-Kanal-Fernsehens unter dieser
Bedingung gestaltet werden kann, ist noch offen; es ist nicht gesagt,
daß darauf bereits gültige Antworten gefunden sind. Es gibt
Vorschläge, zum Beispiel in den DVB-,,Eckwerten`` der
Direktorenkonferenz der Landesmedienanstalten, auch dieses
,,Navigationssystem`` als rundfunkrechtlich relevantes Angebot
aufzufassen.
Herbert Kubicek hat vorgeschlagen, zwischen Medien erster und
zweiter Ordnung zu unterscheiden. Diese Differenzierung lehnt sich an
die Unterscheidung zwischen großen technischen Systemen (GTS) erster
und zweiter Ordnung an, wie sie zum Beispiel Ingo Braun (1991)
entwickelt hat. Während große technische Systeme erster Ordnung
auf einem realtiv homogenen technischen Netz aufbauen, basieren GTS
zweiter Ordnung auf einem heterogenen technischen Netz, das aus der
Verflechtung mehrerer homogener Netze entsteht.
,,Die Diskussionen über neue Medien wurden stets an technischen Innovationen festgemacht. Dies ist für die Medienentwicklung generell nicht Neues. Die ,alten` Medien Presse und Rundfunk haben ihre Namen heute noch von technischen Innovationen. Man kann von technischen Kernen sprechen, von technischen Medien oder Medien erster Ordnung, weil die jeweilige Technik konstitutiv ist. Sie eröffnet Optionen und bestimmt auch Restriktionen für die Inhalte sowie die Produktions-, Distributions- und Rezeptionsprozesse und beeinflußt die Kultur dieser Medien. Dieser Einfluß ist jedoch nicht deterministisch. Um die technischen Kerne sind komplexe Produktions- und Distributionsorganisationen entwickelt worden. Wenn wir heute von Presse und Rundfunk sprechen, dann meinen wir diese soziotechnischen Komplexe mit ihren Organisationsstrukturen und kulturellen Bedingungen. Technische Medien werden in einem evolutionären Prozeß institutionalisiert und kultiviert und so zu einem sozio-ökonomischen Komplex, einem Medium zweiter Ordnung. Dazu gehört auch eine Integration der Nutzung in Alltagsroutinen und eine Entsprechung zwischen den Erwartungen der Macher und der Nutzer. Nur dann wird aus einem technischen Medium ein Massen-Medium. Im Bereich Multimedia befinden wir uns noch ganz am Anfang des Institutionalisierungsprozesses.``![]()
So räumt Kubicek zwar Konvergenztendenzen zwischen Datenverarbeitung, Telekommunikation und
Rundfunk/Unterhaltungselektronik ein. Doch gerade diese Tendenzen macht er
dafür verantwortlich, daß der technische Kern des
Multimedia ,,sehr nebulös`` bleibt; ein Begriff, der Florian
Felix Weyh zufolge ein aufgewärmtes Schlagwort der siebziger Jahre
ist: ,,Damals verstand man darunter die eklektische Verschmelzung von
Diaprojektion, Musik, Film, Fernsehen, Vortrag und Theater und zielte auf
Messepräsentationen und künstlerische
Verwendung.``
Über die (abstrakte) Idee der integrierten, digitalen
Datenverarbeitung hinaus gibt es praktisch keinen Konsens:
Übertragungsnetze, Endgeräte, technische Dienstemerkmale oder
Inhalte - alles ist (noch) unbestimmt.
In Anlehnung an das oben (Kapitel 3.1.1) vorgestellte OSI-Schichtenmodell lassen sich diese Definitionsprobleme wie folgt strukturieren:
Was die Digitalisierung möglich macht, ist die Entkoppelung von Medien erster und Medien zweiter Ordnung. Im Spannungsfeld zwischen Differenzierung und Integration wird es genauso möglich, verschiedene Dienste über dieselben Übertragungswege anzubieten, wie es möglich ist, dieselben Dienste über verschiedene Übertragungssysteme anzubieten. Damit können sich Medien erster Ordnung sozusagen unter der Hand wandeln, während ,,alte`` Medien zweiter Ordnung als Institutionen stabil bleiben und expandieren. (Dies entspricht der Verbreitung der gleichen Programme auf neuen Kanälen.) ,,Neue`` Medien zweiter Ordnung entwickeln sich entlang neuer Medien erster Ordnung. Die derzeitigen Hauptentwicklungsstränge lassen sich durch zwei Unterscheidungen trennen:
Die Konvergenz der Technik macht eine Konvergenz der Nutzung möglich,
der Zusammenhang ist jedoch nicht so trivial, wie häufig
unterschwellig unterstellt wird. Die digitale Technik legt zwar eine
Verflüssigung der Grenzen zwischen Massen- und
Individualkommunikation nahe, gegenwärtig scheinen die Ziele der
Fernseh-Medienwirtschaft allerdings eher auf eine weitere Differenzierung
und Ökonomisierung der klassischen Massenkommunikation gerichtet zu
sein. Neue Mischformen der beiden Kommunikationsmuster entwickeln sich
dagegen rasant im Bereich der Computer-Vernetzung; deren
Paradebeispiel wird im folgenden Kapitel (3.1.3)
vorgestellt. Die Erwartungen in der Überschrift dieses Abschnitts
(Entgrenzung der Medien im ,,Multimedia``; Individualisierung
der Massenkommunikation) sind offenbar mindestens zum Teil an den falschen
Adressaten gerichtet; erfüllt werden sie im Rundfunkbereich
jedenfalls nur in einem eingeschränkten Sinn, als eine Art
digitaler Einbahnstraße, auf der die Richtung der
Kommunikation weiterhin wie im klassischen broadcast-Modell
festgelegt ist.
Neben der technischen und der anwendungsbezogenen Betrachtungsweise lassen sich ,,neue`` Medien auch ökonomisch betrachten. Die netzökonomisch am cost-sharing arrangement orientierte Analyse greift hier zu kurz. Ich möchte statt dessen vorschlagen, zwischen freien und zahlungsgebundenen Medieninhalten und zwischen freien und zahlungsgebundenen Produktionsketten zu unterscheiden.
Die bisher übliche Unterscheidung zwischen öffentlich-rechtlichen und privat-kommerziellen Medien läßt sich in diesem Schema nicht mehr repräsentieren; es sei denn, man begriffe öffentlich-rechtliche Medieninhalte als zahlungsgebunden und privat-kommerzielle als frei (mit der Ausnahme des Pay-TV-Senders Premiere).
Im Unterschied zum ersten medientechnischen Entwicklungsschub (Kabel- und Satellitentechnik) wird der zweite Schub (Digitaltechnik) nicht durch einen medienpolitischen, sondern durch einen medienwirtschaftlichen Paradigmenwechsel ausgelöst. Mit der Überwälzung der Distributionskosten auf den Zuschauer (statt wie bisher vermittels Werbung auf den Konsumenten) nähert sich das cost-sharing arrangement dem im Bereich Telekommunikation üblichen. Mit der Einrichtung geschlossener Benutzergruppen wird der Zerfall des massenkommunikativen Paradigmas weiter beschleunigt; Tendenzen des Network Tipping - also der Zerfall des einheitlichen Netzes und die Etablierung alternativer Netze - sind damit auch im Bereich der TV-Distributionsnetze zu erwarten. Das Problem der Interoperabilität stellte sich dann auch in diesem Bereich; konkurrierende proprietäre, inkompatible Standards wären nicht nur geeignet, die (Markt-)Entwicklung auf absehbare Zeit zu blockieren, sie schüfen auch neuen Regulierungsbedarf.