next up previous contents
Next: Das Internet als Prototyp Up: Wie unterläuft die technische Previous: Telekommunikation: DigitalisierungNetzintegration und

Rundfunk: Ende der Frequenzknappheit? Entgrenzung der Medien im ,,Multimedia``? Individualisierung der Massenkommunikation?

Das Rundfunkverteilnetz - das sich bekanntlich als Sonderfall eines Telekommunikationsnetzes betrachten läßt - war vor dem ersten Differenzierungsschub des ausgehenden 20. Jahrhundertsgif ein vergleichsweise einfach strukturiertes Netzwerk: Der cost-sharing-Mechanismus war simpel - wer senden will, der zahlt. An der Frequenzknappheit konnte die Regulierung anknüpfen und das Monopol des föderalen, öffentlich-rechtlichen Rundfunksystems sichern. Aus technischer Perspektive war die Nutzung geschlossen, also im Gegensatz zum nutzungsoffenen Telefonnetz auf einen Nutzungsmodus, die Ausstrahlung von Programmen festgelegt. Die Kommunikationsstruktur unter dem klassischen Paradigma der Massenkommunikation ließ nur one-to-many-Beziehungen zu: broadcasting. Während der Zugang zum Empfang frei war (abgesehen von den an den Besitz eines Empfangsgeräts geknüpften Rundfunkgebühren), war der Zugang zur Ausstrahlung beschränkt. Zwar war auch diese Nutzungsstruktur sozial entschieden und nicht bereits technisch determiniert; die Beschränkung war jedoch mit der Bindung an das begrenzte Frequenzspektrum verknüpft und dadurch stabil.

Nicht zufällig begann der Zerfall dieses Arrangements, als die ersten Rundfunksatelliten für den Direktempfang gestartet und die ersten Kupferkoaxialkabel für den indirekten Empfang verlegt wurden. Das Breitbandkabelnetz ist nach mehr als zehn Jahren immer noch in den roten Zahlen und verursacht der Telekom jährliche Verluste von rund 1,5 Milliarden Markgif. Als ein Hauptgrund muß der Erfolg der Satelliten-Direktausstrahlung via Astra gelten, die zu geringeren und einmaligen Kosten inzwischen mehr Programme bietet als das analoge Kabelnetzgif.

Insofern kann der Versuch, einen neuen cost-sharing-Modus zu etablieren, als wenigstens teilweise gescheitert gelten. Mit dem Breitbandkabel sollte erstmals der Rezipient direkt für die Programmdistribution zur Kasse gebeten werden, ohne allerdings auf das Angebot selbst ebensolchen Einfluß nehmen zu können. Der logisch nächste Schritt wäre dann gewesen, nach amerikanischem Vorbild den Kabelkunden auch einen Teil des Programmes selbst bezahlen zu lassen, also eine Teilung in basic und value-added services zu etablieren.

Mit ihrer Weigerung, die landauf, landab überfüllten Kabelnetze für weitere analoge Nutzung auszubauen, forcierte die Deutsche Telekom indirekt die seit etwa zwei Jahren geplante und inzwischen kurz vor der Realisierung stehende Etablierung digitalen Fernsehens im Kabelnetz. Im bundesweit größten Kabelnetz in Berlin sollen versuchsweise noch in diesem Sommer die Kirch-Gruppe, Premiere und Multithématique mit Programmpaketen präsent sein; Vebacom und EMG wollen noch im Mai ein digitales Sendezentrum in Betrieb nehmen und kostenlos empfangbare Programme einspeisen, die im analogen Kabel keinen Platz mehr fandengif. Aus einer ganzen Reihe von technischen, ökonomischen und politischen Gründen orientiert sich diese Entwicklung am klassischen one-to-many-Paradigma.

Netztopologie: Von der Baum- zur Netzstruktur.

Das TV-Breitbandkabelnetz wurde vor in den siebziger Jahren als mehrstufig gegliedertes Verteilsystem konzipiert, im Grunde ähnlich einer großen Hausantennenanlage, die - in vier Netzebenen (überregional, regional und zwei Ortsabschnitte) gegliedert - von einem Einspeisepunkt aus allen Teilnehmern dieselben Programme zum Fernsehgerät transportiertgif. Diese Struktur entspricht einem Baum, der sich, ausgehend von einer Wurzel, immer weiter verästelt. Die ,,Wurzeln`` sind miteinander verbunden und bilden zusammen mit den Kabelbäumen das Breitband-Kabelnetz; an jeden dieser Bäume sind bis zu 25.000, im Bundesdurchschnitt 5.000 Haushalte angeschlossen.

Im Gegensatz zur Netzstruktur, wie sie klassisch das Telefonnetz aufweist, ist die Baumstruktur für diese Art der one-to-many-Verteilung ausgelegt. Zwar sind Rückkanäle in den Spezifikationen für den Frequenzbereich unter 30 MHz vorgesehengif, die entsprechenden Filter und Verstärker aber nicht eingebaut. In aktuellen, kurzfristigen Planungen zur Nutzung der TV-Kabelnetze für online- oder Datendienste ist daher entweder das Nutzungsmodell Datenrundfunk oder die Verwendung der schmalbandigen analogen und digitalen Telefonnetze als Rückkanal vorgesehengif. In allen denkbaren ,,interaktiven`` Nutzungsmodellen wäre jedoch ein zentraler Verbindungspunkt (,,Zentrale``) notwendig, der auf die ,,Rückmeldungen`` reagiert und sie verarbeitet; eine Voraussetzung, die eine technisch eher egalitäre Nutzung nach dem Modell des Internet (siehe Kapitel 3.1.3) nicht erlauben würde. Sie erlaubt jedoch, den Abrechnungsmodus von der bisherigen nutzungsunabhängigen Pauschale auf eine nutzungsbezogene Einzelabgeltung umzustellen.

Netzökonomie: Von der pauschalen zur nutzungsbezogenen Abrechnung.

Im analogen Breitbandkabelnetz sind jeweils 7 (zwischen 47 und 68 MHz sowie 125 und 230 MHz) oder 8 MHz (jenseits von 230 MHz in den Sonderbereichen des sogenannten ,,Hyperbands``; 8 MHz waren für die inzwischen obsolete D2-MAC-Norm notwendig) Bandbreite notwendig, um ein Fernsehprogramm auszustrahlen. Die digitale Kompressionstechnik macht es möglich, in diesen 8 MHz jeweils etwa 38,5 MBit/s Daten zu verteilen. Je nach Qualität kann diese Bandbreite für drei TV-Programme in Studioqualität, fünf bis sechs Programme in heutiger PAL-Qualität oder fünfzehn Programme in heutiger VHS-Videorecorder-Qualität benutzt werdengif. Im Berliner Kabelnetz, das im ersten Schritt für fünfzehn solcher 8-MHz-Kanäle digital ausgebaut werden soll, ließen sich demnach bis zu 225 zusätzliche Programme anbieten.

Diese Vervielfältigung der Kanäle scheint nach dem herkömmlichen Muster des Free TV, also des prinzipiell frei empfangbaren, unbezahlten Programms, nicht mehr ökonomisch effizient nutzbar zu sein. Der Werbemarkt, der 1992 ein Gesamtvolumen von 29,5 Milliarden Mark (netto) umfaßte, wird nach Einschätzung des Basler Prognos-Instituts bis zum Jahr 2010 parallel zum Bruttoinlandsprodukt auf 46,2 Milliarden Mark wachsen. Der Anteil der Netto-Werbeumsätze am BIP bleibt mit 1,03 Prozent jedoch gleich. Reales Wachstum erwarten die Marktforscher allein im Gesamtbereich der Unternehmens-,,Kommunikationsausgaben``, der neben klassischer Werbung auch Aufwendungen wie Messen, Telefonverkauf, Sponsoring und interne Kommunikation einschließt. Diese Ausgaben sieht Prognos als ,,Mitfinanzierungspotential u. a. für Teleshopping bzw. interaktives Homeshopping``gif.

Die Ausgaben der privaten Haushalte für Medien und Kommunikation betrugen dagegen 1992 99,1 Milliarden Mark; für das Jahr 2000 erwartet Prognos eine Steigerung um 17 Mrd. Mark; im Jahr 2010 werden die privaten Haushalte demnach 146 Mrd. Mark für Medien und Kommunikation ausgeben. Nach Abzug der Ausgabensteigerungen für PCs, Kabelanschluß und Telekommunikation (durch verstärkte online-Nutzung) bleibt Prognos zufolge ein Spielraum von 7,6 Milliarden Mark im Jahr 2000, von denen 3,8 Mrd. für digitales Fernsehen verwendet würden. Jeder der drei bis vier Millionen Haushalte, die bis dahin über digitale Empfangsmöglichkeiten verfügen, würde demnach 90 Mark im Monat für digitale Programme ausgebengif.

In jenem cost-sharing arrangement, das in der Zielvorstellung des digitalen Fernsehens enthalten ist, sollen also die Zuschauer und Konsumenten nicht nur für die Distribution, sondern auch für die Programminhalte selbst zahlen; um diesen Mechanismus zu implementieren, sollen Zahlungen pauschal an die Nutzung bestimmter Kanäle (Pay TV) und direkt an die Nutzung einzelner Sendungen (Pay per View) gekoppelt werden. Das vieldiskutierte Modell des video on demand, also der digitalen Videothek, die einzelne Filme auf Abruf bereitstellt, gilt zur Zeit noch als ,,nicht marktreif``; vor allem mangelt es an der Skalierbarkeit der zugrundeliegenden server-Technik - trotz aller Leistungssteigerungen der Computertechnik gibt es zur Zeit noch keine Lösung, die größere, offene Benutzergruppen bedienen könntegif. Das stattdessen geplante near video on demand - also die zeitversetzte Parallelausstrahlung des gleichen (Spielfilm-)Programms auf diversen Kanälen - muß auch im Zeitalter der Kanalvervielfältigung als Bandbreitenverschwendung gelten. Es scheint einer Situation entsprungen, in der neue Technik zur Anwendung drängt und niemand genau weiß, was damit anzufangen ist. Unnachahmlich formuliert dieses Dilemma in ähnlichem Zusammenhang ein Vertreter der Deutschen Telekom: ,,Deutsche Telekom has already established the basic network infrastructure for higher bit rates. [...] All that is lacking now are sufficient applications.``gif

Vom gewählten Entwicklungsstrang wird es abhängig sein, ob künftig weiterhin Frequenzen knapp sein werden oder ob Bandbreite knapp werden wird.   Vor allem near video on demand würde schnell zu erneuter Frequenzknappheit führengif. Durch die Umstellung auf Punkt-zu-Punkt-Verbindungen würden Knappheiten an Bandbreite die bisherigen Frequenzknappheiten ablösengif.

Netzstandards: Proprietäre vs. offene Standards.

Die Kiste, die auf der Berliner Internationalen Funkausstellung im vergangenen August präsentiert wurde, sollte die ,,Schlüsseltechnologie`` des digitalen Fernsehens enthalten. Die Kirch-Gruppe annoncierte gleichzeitig, sie habe bereits eine Million dieser Beistell-Decoder (set top box) namens ,,d-box`` beim finnischen Nokia-Konzern bestellt. Zur gleichen Zeit entstand mit der Multimedia-Betriebsgesellschaft (MMBG) ein kartellähnliches Konsortium für Betrieb und Vermarktung digitalen Fernsehens, in dem inzwischen die Deutsche Telekom, Bertelsmann, RTL, ARD, ZDF, Canal Plus, CLT und die Daimler-Benz-Tochter Debis zusammengeschlossen sind. Die MMBG plant, mit der ,,mediabox`` ein Konkurrenzprodukt zur ,,d-box`` einzusetzen. Die Vebacom, die zwischenzeitlich an der MMBG partizipieren wollte, hat sich mittlerweile dafür entschieden, den ,,d-box``-Decoder zu verwenden, mit dem die Kirch-Gruppe zur MMGB in Konkurrenz tritt. Die MMBG, für die bislang keine Gesellschafterverträge existieren, hat inzwischen 85.000 Digitaldecoder in Auftrag gegebengif.

Im Kern der Auseinandersetzungen steht die Frage, bis zu welchem Grad das Digital-TV in Deutschland in Privatbesitz sein wird. Die digitale Technik steigert die Komplexität der Übertragungstechnik: Zwischen Netzbetreiber und Programmveranstalter tritt ein service providergif, der Dienstleistungen oberhalb der physikalischen Übertragung und unterhalb der Anwendung (des Programms) erbringt, also in der Terminologie des OSI-Modells (siehe Kapitel 3.1.1) etwa auf den Schichten 3 bis 6. Aus Sicht der Regulierung ist entscheidend, ob und wie weit proprietäre Standards - die in jedem Falle bei der Verschlüsselung zum Einsatz kommen, da die DVB-Plattform kein einheitliches Verschlüsselungssystem vorgesehen hatgif - geeignet sind, die (gesamte) Distributionskette zu beherrschen, also Macht vertikal zu konzentrieren.

Das mit der MMBG-Gründung verbundene Ziel, eine Standard-Konkurrenz beim Zugangssystem (Verschlüsselungssystem, conditional access) zu vermeiden, scheint also inzwischen gescheitert zu sein. Es zeichnet sich eine Auseinandersetzung darum ab, wer die Standards des digitalen Fernsehens in Deutschland kontrollieren wird. Dies ist nicht nur eine Frage des Zugangs zu den Kabelfernsehnetzen der Zukunft - es ist auch eine Frage danach, wer die Modalitäten der Nutzung bestimmt: Wird das broadcasting-Paradigma zementiert oder kann die (technische) Option auf ein breitbandiges Vermittlungs-Netz und damit auf many-to-many-Kommunikationgif, die im Kabelnetz liegt, noch wahrgenommen werden? Hinzu kommt, daß die Standard-Konkurrenz dem Endverbraucher eine Entscheidung für einen der beiden Decoder abverlangen würde; eine Situation, die nach den Erfahrungen mit konkurrierenden Video-Systemen nicht zur schnelleren Verbreitung führen dürfte.

Analog zum ersten Differenzierungsschub wird auch diese technologische Innovation über Programminhalte vermarktet, nicht über die Technik selbstgif. Die Technikinvestitionen - neben dem kostspieligen Ausbau der Kabelnetze und der Satellitenausstrahlung durch die digitale Astra-Generation vor allem die Decoder - müssen sozusagen huckepack mitfinanziert werden, während der Endkunde nur für neue Programmangebote bezahlen wird. Diese gekoppelte Vermarktung läßt einen weiteren Schub vertikaler Konzentration erwarten - ein Problem, dem das herkömmliche Medienrecht mit seiner Fixierung auf die Programmveranstalter bisher weitgehend hilflos gegenüberstand. So wurde bezeichnenderweise mit den Mitteln des europäischen Kartellrechts - und nicht des deutschen Medienrechts - Ende 1994 die von Kirch, Bertelsmann, Telekom und ARD/ZDF geplante Media-Service GmbH untersagt, in der Betrieb und Vermarktung des digitalen Fernsehens zusammengefaßt werden solltengif. Peter Glotz (1995) plädiert für eine Trennung von Rechtehandel, broadcasting und Netzträgerschaft, hält dies jedoch für nicht durchsetzbar.

Netzzugang: Von offenen zu geschlossenen Nutzergruppen.

Mit dem Übergang von Free TV zu Formen des Pay TV wird auch der Abschied von prinzipiell offenen Nutzergruppen, denen Telefon- und Kabelnetze bisher zur Verfügung standen, und der Übergang zu geschlossenen Nutzergruppen eingeleitet. Was im Telefonbereich mit dem neuen Genehmigungskonzept der Corporate Networks im Jahr 1993 möglich und in der analogen TV-Welt durch Premiere etabliert wurde, erscheint als Voraussetzung bereits für die Etablierung des digitalen TV-Geschäftsmodells. Das mit dem Schlagwort conditional access belegte Zugangssystem, realisiert auf dem Wege der Verschlüsselung und Kernfunktion des Digital-Decoders (set top box), implementiert ein Paradox: Ein broadcast-Medium - das von einem Punkt aus alle Teilnehmer erreichen kann - wird dazu verwendet, die Mehrheit der Nutzer auszuschließengif; ein Modell, daß nur unter der Bedingung quasi unbegrenzter Netzressourcen denkbar ist, denn die Bandbreite wird vernutzt, kann also von der Mehrheit nicht mehr genutzt werden.

Mit dem Übergang zu geschlossenen Benutzergruppen wird eine Entwicklung fortgesetzt und weiter verstärkt, die mit der Dualisierung des Rundfunksystems einsetzte: Das Rundfunkangebot hat sich nicht nur enorm erweitert und differenziert, sondern (gerade deshalb) die ,,Individualisierung`` der Massenkommunikation vorangetrieben. Neue Wahlmöglichkeiten, Verfügbarkeit quasi aller Programmformen zu jeder Zeit und neue Nutzungsformen (,,Zapping``) haben Medienwissenschaftler veranlaßt, von einer teilweisen Auflösung des Dualismus von Individual- und Massenkommunikation zu sprechengif.

Dieser Prozeß wird gelegentlich als ,,Zerfall von Öffentlichkeit`` beschrieben, in immer kleinere Einheiten, die voneinander nichts mehr wissen; mit allen Implikationen, die dies für ein demokratisches Gemeinweisen hat oder haben kann. Diese These kann hier weder entfaltet noch diskutiert werden. Jedoch steht nach allem, was hier und in den folgenden Kapiteln (3.1.2, 3.1.3) gesagt ist, eher zu erwarten, daß diese Differenzierung und Individualisierung fortschreitet und durch digitale Technik noch erleichtert wird.

Es ist - um eine Bewertung anzuschließen - jedoch keineswegs zwingend, diese Entwicklung als Zerfallsprozeß zu beschreiben: Die klassischen Printmedien differenzieren sich ebenfalls ohne Unterlaß, ohne daß daran apokalyptische Ängste vor einer ,,segmentierten`` oder ,,autistischen`` Gesellschaft aufgehängt werden. Auf der anderen Seite haben Hoffmann-Riem &\ Vesting (1994, 385) auf die ,,Konditionierung`` der Zuschauer durch das klassische Programmfernsehen aufmerksam gemacht: Die komplexitätsreduzierende Funktion des Programmschemas für die massenkommunikative Fernsehnutzung erscheint in dieser Perspektive unverzichtbar oder jedenfalls nicht trivial ersetzbar durch neue, individuelle Selektionsformen. Wie die ,,Benutzungsoberfläche`` eines 500-Kanal-Fernsehens unter dieser Bedingung gestaltet werden kann, ist noch offen; es ist nicht gesagt, daß darauf bereits gültige Antworten gefunden sind. Es gibt Vorschläge, zum Beispiel in den DVB-,,Eckwerten`` der Direktorenkonferenz der Landesmedienanstaltengif, auch dieses ,,Navigationssystem`` als rundfunkrechtlich relevantes Angebot aufzufassen.

Entgrenzung der Medien im ,,Multimedia``?

Herbert Kubicek hat vorgeschlagen, zwischen Medien erster und zweiter Ordnung zu unterscheidengif. Diese Differenzierung lehnt sich an die Unterscheidung zwischen großen technischen Systemen (GTS) erster und zweiter Ordnung an, wie sie zum Beispiel Ingo Braun (1991) entwickelt hat. Während große technische Systeme erster Ordnung auf einem realtiv homogenen technischen Netz aufbauen, basieren GTS zweiter Ordnung auf einem heterogenen technischen Netz, das aus der Verflechtung mehrerer homogener Netze entsteht.

,,Die Diskussionen über neue Medien wurden stets an technischen Innovationen festgemacht. Dies ist für die Medienentwicklung generell nicht Neues. Die ,alten` Medien Presse und Rundfunk haben ihre Namen heute noch von technischen Innovationen. Man kann von technischen Kernen sprechen, von technischen Medien oder Medien erster Ordnung, weil die jeweilige Technik konstitutiv ist. Sie eröffnet Optionen und bestimmt auch Restriktionen für die Inhalte sowie die Produktions-, Distributions- und Rezeptionsprozesse und beeinflußt die Kultur dieser Medien. Dieser Einfluß ist jedoch nicht deterministisch. Um die technischen Kerne sind komplexe Produktions- und Distributionsorganisationen entwickelt worden. Wenn wir heute von Presse und Rundfunk sprechen, dann meinen wir diese soziotechnischen Komplexe mit ihren Organisationsstrukturen und kulturellen Bedingungen. Technische Medien werden in einem evolutionären Prozeß institutionalisiert und kultiviert und so zu einem sozio-ökonomischen Komplex, einem Medium zweiter Ordnung. Dazu gehört auch eine Integration der Nutzung in Alltagsroutinen und eine Entsprechung zwischen den Erwartungen der Macher und der Nutzer. Nur dann wird aus einem technischen Medium ein Massen-Medium. Im Bereich Multimedia befinden wir uns noch ganz am Anfang des Institutionalisierungsprozesses.``gif

So räumt Kubicek zwar Konvergenztendenzen  zwischen Datenverarbeitung, Telekommunikation und Rundfunk/Unterhaltungselektronik ein. Doch gerade diese Tendenzen macht er dafür verantwortlich, daß der technische Kern des Multimedia ,,sehr nebulös`` bleibt; ein Begriff, der Florian Felix Weyh zufolge ein aufgewärmtes Schlagwort der siebziger Jahre ist: ,,Damals verstand man darunter die eklektische Verschmelzung von Diaprojektion, Musik, Film, Fernsehen, Vortrag und Theater und zielte auf Messepräsentationen und künstlerische Verwendung.``gif Über die (abstrakte) Idee der integrierten, digitalen Datenverarbeitung hinaus gibt es praktisch keinen Konsens: Übertragungsnetze, Endgeräte, technische Dienstemerkmale oder Inhalte - alles ist (noch) unbestimmt.

In Anlehnung an das oben (Kapitel 3.1.1) vorgestellte OSI-Schichtenmodell lassen sich diese Definitionsprobleme wie folgt strukturieren:

Was die Digitalisierung möglich macht, ist die Entkoppelung von Medien erster und Medien zweiter Ordnung. Im Spannungsfeld zwischen Differenzierung und Integration wird es genauso möglich, verschiedene Dienste über dieselben Übertragungswege anzubieten, wie es möglich ist, dieselben Dienste über verschiedene Übertragungssysteme anzubieten. Damit können sich Medien erster Ordnung sozusagen unter der Hand wandeln, während ,,alte`` Medien zweiter Ordnung als Institutionen stabil bleiben und expandieren. (Dies entspricht der Verbreitung der gleichen Programme auf neuen Kanälen.) ,,Neue`` Medien zweiter Ordnung entwickeln sich entlang neuer Medien erster Ordnung. Die derzeitigen Hauptentwicklungsstränge lassen sich durch zwei Unterscheidungen trennen:

Die Konvergenz der Technik macht eine Konvergenz der Nutzung möglich, der Zusammenhang ist jedoch nicht so trivial, wie häufig unterschwellig unterstellt wird. Die digitale Technik legt zwar eine Verflüssigung der Grenzen zwischen Massen- und Individualkommunikation nahe, gegenwärtig scheinen die Ziele der Fernseh-Medienwirtschaft allerdings eher auf eine weitere Differenzierung und Ökonomisierung der klassischen Massenkommunikation gerichtet zu sein. Neue Mischformen der beiden Kommunikationsmuster entwickeln sich dagegen rasant im Bereich der Computer-Vernetzung; deren Paradebeispiel wird im folgenden Kapitel (3.1.3) vorgestellt. Die Erwartungen in der Überschrift dieses Abschnitts (Entgrenzung der Medien im ,,Multimedia``; Individualisierung der Massenkommunikation) sind offenbar mindestens zum Teil an den falschen Adressaten gerichtet; erfüllt werden sie im Rundfunkbereich jedenfalls nur in einem eingeschränkten Sinn, als eine Art digitaler Einbahnstraßegif, auf der die Richtung der Kommunikation weiterhin wie im klassischen broadcast-Modell festgelegt ist.

Neben der technischen und der anwendungsbezogenen Betrachtungsweise lassen sich ,,neue`` Medien auch ökonomisch betrachten. Die netzökonomisch am cost-sharing arrangement orientierte Analyse greift hier zu kurz. Ich möchte statt dessen vorschlagen, zwischen freien und zahlungsgebundenen Medieninhalten und zwischen freien und zahlungsgebundenen Produktionsketten zu unterscheiden.

Die bisher übliche Unterscheidung zwischen öffentlich-rechtlichen und privat-kommerziellen Medien läßt sich in diesem Schema nicht mehr repräsentieren; es sei denn, man begriffe öffentlich-rechtliche Medieninhalte als zahlungsgebunden und privat-kommerzielle als frei (mit der Ausnahme des Pay-TV-Senders Premiere).

Fazit.

Im Unterschied zum ersten medientechnischen Entwicklungsschub (Kabel- und Satellitentechnik) wird der zweite Schub (Digitaltechnik) nicht durch einen medienpolitischen, sondern durch einen medienwirtschaftlichen Paradigmenwechsel ausgelöst. Mit der Überwälzung der Distributionskosten auf den Zuschauer (statt wie bisher vermittels Werbung auf den Konsumenten) nähert sich das cost-sharing arrangement dem im Bereich Telekommunikation üblichen. Mit der Einrichtung geschlossener Benutzergruppen wird der Zerfall des massenkommunikativen Paradigmas weiter beschleunigt; Tendenzen des Network Tipping - also der Zerfall des einheitlichen Netzes und die Etablierung alternativer Netze - sind damit auch im Bereich der TV-Distributionsnetze zu erwarten. Das Problem der Interoperabilität stellte sich dann auch in diesem Bereich; konkurrierende proprietäre, inkompatible Standards wären nicht nur geeignet, die (Markt-)Entwicklung auf absehbare Zeit zu blockieren, sie schüfen auch neuen Regulierungsbedarf.


next up previous contents
Next: Das Internet als Prototyp Up: Wie unterläuft die technische Previous: Telekommunikation: DigitalisierungNetzintegration und

Martin Recke
Fri May 17 20:40:57 MET DST 1996